Google heeft zijn excuses aangeboden (of is daar heel dicht bij) voor een ander gênante AI-blunder deze week een beeldgenererend model dat diversiteit in foto's injecteerde met een kluchtige minachting voor de historische context. Hoewel het onderliggende probleem volkomen begrijpelijk is, geeft Google de schuld aan het model omdat het overgevoelig is geworden. Maar het model heeft zichzelf niet gemaakt, jongens.
Het AI-systeem in kwestie is Gemini, het vlaggenschip van het conversatie-AI-platform van het bedrijf, dat desgevraagd een versie van het Imagen 2-model oproept om op aanvraag afbeeldingen te maken.
Onlangs ontdekten mensen echter dat de vraag om beelden te genereren van bepaalde historische omstandigheden of mensen lachwekkende resultaten opleverde. De Founding Fathers, waarvan we weten dat ze blanke slaveneigenaren zijn, werden bijvoorbeeld weergegeven als een multiculturele groep, inclusief gekleurde mensen.
waardering leek
Deze gênante en gemakkelijk te reproduceren kwestie werd snel door commentatoren online gehekeld. Het werd ook, voorspelbaar, betrokken bij het voortdurende debat over diversiteit, gelijkheid en inclusiviteit (momenteel op een lokaal reputatieminimum), en door experts aangegrepen als bewijs dat het woke mind-virus de toch al liberale technologiesector verder binnendringt.
Beeldcredits: Een afbeelding gegenereerd door Twitter-gebruiker Patrick Ganley.
Het is DEI die gek is geworden, schreeuwde opvallend bezorgde burgers. Dit is Bidens Amerika! Google is een ideologische echokamer, een stalkend paard voor links! (Het moet gezegd worden dat links ook behoorlijk verontrust was door dit vreemde fenomeen.)
Maar zoals iedereen met enige bekendheid met de technologie je kan vertellen, en zoals Google vandaag uitlegt in zijn nogal abjecte kleine verontschuldiging-aangrenzende post, was dit probleem het resultaat van een redelijk redelijke oplossing voor
Stel je voor dat je om een afbeelding als deze vraagt: wat als het allemaal één type persoon was? Slecht resultaat! Beeldcredits: Getty Images / victorikart
Er is niets mis met het maken van een foto van een blanke man die met een golden retriever loopt in een park in de buitenwijken. Maar als je om 10 vraagt, en dat zijn ze alle Blanke jongens die goldens lopen in parken in de voorsteden? En jij woont in Marokko, waar de mensen, honden en parken er allemaal anders uitzien? Dat is gewoon geen wenselijk resultaat. Als iemand een kenmerk niet specificeert, moet het model kiezen voor variatie en niet voor homogeniteit, ook al kunnen de trainingsgegevens dit model vertekenen.
stap in
Dit is een veelvoorkomend probleem bij alle soorten generatieve media. En er is geen eenvoudige oplossing. Maar in gevallen die bijzonder vaak voorkomen, gevoelig zijn of beide, voegen bedrijven als Google, OpenAI, Anthropic, enzovoort onzichtbaar extra instructies voor het model toe.
Ik kan niet genoeg benadrukken hoe gebruikelijk dit soort impliciete instructies is. Het hele LLM-ecosysteem is gebouwd op impliciete instructies: systeemprompts, zoals ze soms worden genoemd, waarbij zaken als beknopt zijn, niet vloeken en andere richtlijnen vóór elk gesprek aan het model worden gegeven. Als je om een grap vraagt, krijg je geen racistische grap – want ondanks dat het model er duizenden heeft ingeslikt, is het ook getraind, zoals de meesten van ons, om die niet te vertellen. Dit is geen geheime agenda (hoewel er meer transparantie zou kunnen zijn), het is infrastructuur.
Waar het model van Google de fout in ging, was dat het geen impliciete instructies had voor situaties waarin de historische context belangrijk was. Dus terwijl een prompt, zoals een persoon die een hond uitlaat in een park, wordt verbeterd door de stille toevoeging van de persoon van een willekeurig geslacht en etniciteit of wat ze ook noemen, wordt de ondertekening van de grondwet door de Amerikaanse Founding Fathers er absoluut niet door verbeterd.
Zoals de Google SVP Prabhakar Raghavan het verwoordde:
Ten eerste heeft onze afstemming om ervoor te zorgen dat Gemini een reeks mensen liet zien, geen rekening gehouden met gevallen die duidelijk geen reeks zouden moeten laten zien. En ten tweede werd het model in de loop van de tijd veel voorzichtiger dan we hadden bedoeld en weigerde het om bepaalde aanwijzingen volledig te beantwoorden – waarbij sommige zeer ongepaste aanwijzingen ten onrechte als gevoelig werden geïnterpreteerd.
Deze twee dingen leidden ertoe dat het model in sommige gevallen overcompenseerde en in andere gevallen overconservatief was, wat leidde tot beelden die beschamend en verkeerd waren.
Ik weet hoe moeilijk het soms is om sorry te zeggen, dus ik vergeef Raghavan dat hij er net voor ophield. Belangrijker is dat er een interessante taal in zit: het model werd veel voorzichtiger dan we hadden bedoeld.
Hoe zou een model iets kunnen worden? Het is software. Iemand – duizenden Google-technici – heeft het gebouwd, getest en erop herhaald. Iemand schreef de impliciete instructies die sommige antwoorden verbeterden en ervoor zorgden dat andere op hilarische wijze faalden. Als deze mislukte, zou iemand, als hij de volledige prompt had kunnen inspecteren, waarschijnlijk hebben ontdekt wat het team van Google verkeerd heeft gedaan.
Google geeft het model de schuld dat het iets is geworden waarvoor het niet bedoeld was. Maar ze hebben het model gemaakt! Het is alsof ze een glas hebben gebroken, en in plaats van te zeggen dat we het hebben laten vallen, zeggen ze dat het is gevallen. (Ik heb dit gedaan.)
Fouten bij deze modellen zijn zeker onvermijdelijk. Ze hallucineren, ze weerspiegelen vooroordelen, ze gedragen zich op onverwachte manieren. Maar de verantwoordelijkheid voor deze fouten ligt niet bij de modellen, maar bij de mensen die ze hebben gemaakt. Tegenwoordig is dat Google. Morgen is het OpenAI. De volgende dag, en waarschijnlijk voor een paar maanden achter elkaar, zal het X.AI zijn.
boks bedrijf
Deze bedrijven hebben er groot belang bij u ervan te overtuigen dat AI zijn eigen fouten maakt. Laat ze niet.