Se forskellen: Så meget manipulerer AI med billeder i ny toptelefon

AI-motoren sætter turboen til, når du zoomer på en af markedets mest populære toptelefoner. Det er ikke altid at algoritmen rammer plet. Se imponerende pletskud og vilde fejlskud fra vores test.

Det er ikke nyt, at AI er med til at optimere billederne i et telefonkamera. I de seneste ti års tid er kunstig intelligens i stigende blevet integreret i kameraerne på mobiltelefoner. Det har dog primært være for at hjælpe med kameraindstillinger og optimere billeder efter de er skudt.

Med deres nyeste toptelefon går Google et enormt skridt længere end det. Telefonen tilbyder en kolossal zoom-rækkevidde, som forlænger brændvidden 100 gange. Når den kommer over 30 gange, begynder kameraets Pro Res-algoritme at generere detaljer for at kompensere for den reducerede billedkvalitet. Det sker med blandet held. I de følgende kan du se eksempler på, både hvor godt den kan ramme og hvor galt den kan skyde forkert.

Ved siden af det manipulerede billede gemmer telefonen en ubehandlet version af samme billede i raw-format. Derfor kunne vi nemt sammenligne resultaterne.

Det skal for god ordens skyld siges, at Google er åben om, at der bliver brugt AI til at genere nye detaljer. Det registreres desuden i billedets metadata, sådan at andre kan se, at der er brugt AI.

Her ramte Pro Res zoom plet

Vi var ærlig talt vildt imponerede, da vi tog de første billeder med Pro Res. Andre telefoner har tilbudt lige så høj zoom, men resultater som slet ikke er i nærheden af dem vi fik med Google Pixel 10 Pro. Arkitektoniske detaljer og dyr stod skarpt fra flere hundrede meters afstand.

Her ramte Pro Res zoom helt skævt

Der gik dog ikke så lang tid før vores umiddelbare begejstring tog af. Efterhånden som vi fik taget nogle billeder, kunne vi se, at der var detaljer, som ikke stemte overens med virkeligheden. Når kvaliteten af det oprindelige billede bliver for ringe, gætter telefonens AI sig frem til de manglende detaljer. Det resulterede i fugle, der manglede øje, næb og ben eller fik et øje i nakken.

AI har forvekslet den nederste gule del af næbbet med noget af den grønne baggrund. Derfor er næbbet forsvundet.

En fugl med øje i nakken.

Her forsvandt øjet.

En måge uden ben.

Er det stadig et foto?

Det er ikke den første gang, at der er anvendt generativ AI i et mobilkamera. For et par år siden opstod en større kontrovers, da det kom frem, at toptelefonen Galaxy S23 Ultra tilføjede kunstige detaljer, når brugeren tog billeder af månen. Samsung måtte efterfølgende undskylde og forklare sig.

At tilføje helt nye billeddata, som ikke var der fra starten, er da også noget, som bryder med det, mange af os forstår ved et foto. Resultatet er ikke længere en fotografisk gengivelse af det, der var foran øjnene af os, men i stedet et billede som en computer har skabt. I nogle tilfælde et billede, der stort set er en til en med virkeligheden.

Efterhånden som AI-teknologien bliver bedre vil "i nogle tilfælde" sandsynligvis blive til "stort set altid". Og betyder det så det store? Det må op til den enkelte at bedømme, men vi skal måske til at finde et andet navn for det end foto.