De controverse over het bewerken van foto's door Kate Middleton is een voorteken van wat gaat komen

De controverse over het bewerken van foto's door Kate Middleton is een voorteken van wat gaat komen

Na waanzinnige speculaties dat een recente foto van Kate Middleton en haar kinderen door AI was gegenereerd, moest de hertogin van Cambridge zelf de controverse aanpakken.

Zoals veel amateurfotografen experimenteer ik af en toe met montage, schreef Middleton in een stelling . Ik wilde mijn excuses aanbieden voor de eventuele verwarring die de familiefoto die we gisteren deelden veroorzaakte.

draadzwijn

Er is iets vreemds aan de foto: mogelijk zijn er vier mensen die rechtstreeks in je ziel staren en naar je glimlachen. Maar dan zijn er de handen. Het is een passend aantal handen – acht handen voor vier personen – maar ze zien er allemaal een beetje vreemd uit. We kunnen Kate's handen zien, maar haar armen zijn verborgen achter twee kinderen, en de ene hand ziet er enigszins wazig uit, terwijl de andere een trouwring mist. Charlotte’s pols lijkt te zijn vermengd met een andere ontbrekende pols, en de mouw van haar vest gaat over in een ander grijs vest dat niet op de foto lijkt te staan. En Louis doet gewoon iets raars met een van zijn handen, wat waarschijnlijk meer te maken heeft met het feit dat kinderen raar zijn dan met bewerken. Maar hoe langer je naar de foto kijkt, hoe griezeliger het wordt.

Om de zaken nog verdachter te maken, speculeren de fans van de koninklijke familie over de recente afwezigheid van de prinses uit het publieke oog. De koninklijke familie maakte in januari bekend dat Middleton een geplande buikoperatie zou ondergaan in Londen; na een enkele weken In het ziekenhuis werd ze ontslagen en de familie meldde dat ze nog steeds herstellende was, maar dat het goed ging. Maar het is meer dan een maand geleden dat Middleton thuis is geweest, en ze is nog steeds niet in het openbaar verschenen – voor een lid van de koninklijke familie is dat niet normaal.

Als iemand die op de middelbare school Instagram had, begrijp ik het. Er is een wereld vol verleiding, van VSCO tot Facetune tot Canva, en het is zo gemakkelijk om een ​​onhandig geplaatste puist weg te wissen... maar het kan zijn dat je betrapt wordt. Prinsessen: Ze zijn net als wij! Dit was een tijd waarin AI aanvoelde als sciencefiction en je nog steeds Photoshop moest gebruiken om de achtergrond van een afbeelding te verwijderen. Destijds zouden Royal-commentatoren en fans waarschijnlijk hebben gewezen op de vreemdheid van de kindervingers op de foto, of op hoe er een gebied bij Charlotte's elleboog is dat eruit ziet alsof er iets mis is gegaan met een inhoudsbewuste vulling. Maar we zouden geen samenzwering hebben bedacht dat het hele beeld een synthetische psyop was, gecreëerd door Buckingham Palace.

Geruchten over de afwezigheid van Middleton hebben geleid tot steeds twijfelachtigere verklaringen. Pagina zes meldde een ongegronde speculatie dat de prinses een Braziliaanse buttlift , terwijl anderen grapten dat Middleton daar iets mee te maken had De pop-up van Willy Wonka is misgegaan . Eén tweet grapte zelfs dat Middleton dat misschien wel zou zijn Banksy . Dus toen officiële accounts van de koninklijke familie de verdacht uitziende foto van Kate en haar kinderen publiceerden, had het internet een grote dag. Het discours rond de foto liep zo uit de hand dat de Associated Press er een punt achter zette opdracht doden , wat betekent dat het nieuwsmedia heeft gevraagd de foto te verwijderen.

Het is niet duidelijk welke hulpmiddelen de prinses gebruikte om de foto te bewerken; een hulpmiddel als Facetune kan misschien oneffenheden verwijderen of de helderheid van de foto wijzigen, maar het zal geen fantoomhoes onder Charlotte's elleboog creëren. Sommige retoucheerhulpmiddelen, zoals de inhoudbewuste vulling van Photoshop of een kloonpenseel, kunnen elementen van de foto gebruiken om iets te creëren dat er oorspronkelijk niet was. Maar dat zijn niet de soorten fotobewerkingstools die mensen gebruiken als ze zichzelf er Instagram-ready uit willen laten zien; het is wat je gebruikt als je een willekeurige man op de achtergrond van je strandfoto probeert te bewerken.

google lensse

Zelfs Britse beroemdheden als Piers Morgan hebben dat gedaan gewogen , wat de vraag oproept waarom de koninklijke familie de complottheorieën niet zal vernietigen door alleen de onbewerkte foto vrij te geven.

Nu AI-aangedreven beeldgeneratie mainstream wordt, verliezen we onze grip op de realiteit. Hoe kunnen we, in een tijd waarin elk beeld nep kan zijn, weten wat echt is? Er zijn enkele verklikkers, bijvoorbeeld als iemand een abnormaal aantal vingers heeft, of als iemand een oorbel aan het ene oor draagt, maar niet aan het andere (hoewel dat ook een stijlkeuze kan zijn – je weet het als je het ziet) . Maar naarmate AI beter en wijdverspreider wordt, zijn deze detectiemethoden niet meer zo betrouwbaar. Uit een recent onderzoek van het Center for Countering Digital Hate blijkt dat deepfake-beelden over verkiezingen gemiddeld met 130% per maand stijgen op X (Twitter). Hoewel speculaties over een vermiste prinses de verkiezingen niet zullen beïnvloeden, laat dit incident zien dat mensen het steeds moeilijker vinden om onderscheid te maken tussen feit en fictie.

Het is maar goed dat het publiek zo sceptisch was over de schetsmatige foto van Middleton, aangezien ze toegaf dat deze was bewerkt. Familiefoto's zijn altijd ongemakkelijk, maar de onze zal in ieder geval waarschijnlijk geen aanleiding geven tot een internationaal debat.

Politieke deepfakes verspreiden zich dankzij GenAI als een lopend vuurtje

Van Balenciaga Pope tot de grote aardbeving in Cascadia: AI-beelden creëren een nieuwe realiteit