Er staat een belangrijke personeelswisseling op stapel Open AI , de kunstmatige intelligentie-moloch die met de lancering van ChatGPT bijna eigenhandig het concept van generatieve AI in het mondiale publieke discours heeft ingevoegd. Dave Willner, een veteraan uit de sector en hoofd van vertrouwen en veiligheid bij de startup, kondigde dit aan in een post op LinkedIn gisteravond (voor het eerst gespot door Reuters ) dat hij de baan heeft verlaten en is overgestapt naar een adviserende rol. Hij is van plan meer tijd door te brengen met zijn jonge gezin, zei hij. Hij vervulde de rol al anderhalf jaar.
OpenAI zei in een verklaring dat het op zoek is naar een vervanger en dat CTO Mira Murati het team op interim-basis zal leiden. We danken Dave voor zijn waardevolle bijdragen aan OpenAI, aldus het rapport. De volledige verklaring vindt u hieronder.
Zijn vertrek komt op een cruciaal moment voor de wereld van AI.
Naast alle opwinding over de mogelijkheden van generatieve AI-platforms – gebaseerd op grote taal- of andere fundamentele modellen en die bliksemsnel vrij gegenereerde tekst, afbeeldingen, muziek en meer produceren op basis van eenvoudige aanwijzingen van gebruikers – is er een groeiende lijst van vragen. Hoe kunnen we de activiteiten en bedrijven in deze dappere nieuwe wereld het beste reguleren? Hoe kunnen we de schadelijke gevolgen voor een heel spectrum van problemen het beste beperken? Vertrouwen en veiligheid zijn fundamentele onderdelen van die gesprekken.
Vandaag zal OpenAI-president Greg Brockman in het Witte Huis verschijnen, samen met leidinggevenden van Anthropic, Google, Inflection, Microsoft, Meta en Amazon om vrijwillige toezeggingen te onderschrijven om gedeelde veiligheids- en transparantiedoelstellingen na te streven, voorafgaand aan een AI-uitvoerend bevel dat in de maak is . Dat komt in de nasleep van veel lawaai in Europa met betrekking tot AI-regelgeving veranderende gevoelens te midden van sommige anderen .
Het belang van dit alles gaat niet verloren bij OpenAI, dat dat ook heeft geprobeerd zichzelf positioneren als bewuste en verantwoordelijke speler in het veld.
Willner verwijst daar niet specifiek naar in zijn LinkedIn-post. In plaats daarvan houdt hij het op een hoog niveau en merkt het opdat de eisen van zijn OpenAI-baan na de lancering van ChatGPT naar een fase van hoge intensiteit zijn verschoven.
Ik ben trots op alles wat ons team heeft bereikt in mijn tijd bij OpenAI, en hoewel mijn baan daar een van de coolste en meest interessante banen was die je vandaag de dag kunt hebben, was deze ook dramatisch gegroeid in reikwijdte en schaal sinds ik voor het eerst bij OpenAI kwam. , Hij schreef. Terwijl hij en zijn vrouw – Charlotte Willner, die ook vertrouwens- en veiligheidsspecialist is – beiden de belofte hebben gedaan om het gezin altijd op de eerste plaats te zetten, zei hij, heb ik het in de maanden na de lancering van ChatGPT steeds moeilijker gevonden om dat vol te houden. mijn einde van de afspraak.
Willner bekleedt zijn functie bij OpenAI nog maar anderhalf jaar, maar hij heeft een lange carrière in het veld achter de rug, waaronder toonaangevende vertrouwens- en veiligheidsteams bij Facebook en Airbnb.
Vooral het Facebookwerk is interessant. Daar was hij een van de eerste medewerkers die hielp bij het formuleren van het eerste standpunt van het bedrijf over gemeenschapsnormen, dat nog steeds wordt gebruikt als basis voor de aanpak van het bedrijf.
Dat was een zeer vormende periode voor het bedrijf, en misschien wel – gezien de invloed die Facebook heeft gehad op de manier waarop sociale media zich wereldwijd hebben ontwikkeld – voor het internet en de samenleving in het algemeen. Sommige van die jaren werden gekenmerkt door zeer uitgesproken standpunten over de vrijheid van meningsuiting, en hoe Facebook zich moest verzetten tegen oproepen om controversiële groepen en controversiële berichten in toom te houden.
Een voorbeeld hiervan was een zeer groot dispuut dat zich in 2009 afspeelde op het openbare forum over de manier waarop Facebook omging met accounts en berichten van Holocaustontkenners. Sommige werknemers en externe waarnemers waren van mening dat Facebook de plicht had een standpunt in te nemen en deze berichten te verbieden. Anderen geloofden dat dit verwant was aan censuur en stuurden de verkeerde boodschap uit rond het vrije discours.
Willner behoorde tot het laatste kamp en was van mening dat haatzaaiende uitlatingen niet hetzelfde waren als directe schade en daarom niet op dezelfde manier moesten worden gematigd. Ik geloof niet dat de ontkenning van de Holocaust, als op zichzelf staand idee, inherent een bedreiging vormt voor de veiligheid van anderen, schreef hij destijds. (Voor een greep uit het Gadget Insider-verleden, zie hier het volledige bericht hierover.)
Achteraf bekeken, gezien de vele andere dingen die zich hebben afgespeeld, was dit een behoorlijk kortzichtige, naïeve positie. Maar het lijkt erop dat in ieder geval enkele van die ideeën zijn geëvolueerd. In 2019 was hij niet langer werkzaam bij het sociale netwerk zich uitspreken tegen hoe het bedrijf politici en publieke figuren zwakkere uitzonderingen op het gebied van contentmoderatie wilde toestaan.
Maar als de behoefte aan het leggen van de juiste basis voor Facebook groter was dan men destijds verwachtte, dan is dat nu misschien zelfs nog meer het geval voor de nieuwe golf van technologie. Volgens dit Een verhaal uit de New York Times Minder dan een maand geleden was Willner aanvankelijk bij OpenAI aangesteld om te helpen uitzoeken hoe DALL-E, de beeldgenerator van de startup, kon worden voorkomen dat hij werd misbruikt en gebruikt voor zaken als het maken van generatieve AI-kinderpornografie.
Maar zoals de gezegde luidt OpenAI (en de industrie) heeft dat beleid gisteren nodig. Binnen een jaar zullen we op dit gebied een echte probleemsituatie bereiken, vertelde David Thiel, de hoofdtechnoloog van het Stanford Internet Observatory, aan de NYT.
steun
Wie zal zonder Willner leiding geven aan de opdracht van OpenAI om dit aan te pakken?
Update: Na publicatie gaf OpenAI de volgende verklaring:
Wij danken Dave voor zijn waardevolle bijdragen aan OpenAI. Zijn werk is van fundamenteel belang geweest bij het operationeel maken van onze inzet voor een veilig en verantwoord gebruik van onze technologie, en heeft de weg vrijgemaakt voor toekomstige vooruitgang op dit gebied. Mira Murati zal het team op interim-basis rechtstreeks leiden, en Dave zal tot het einde van het jaar blijven adviseren. We zijn op zoek naar een technisch geschoolde leider om onze missie vooruit te helpen, met de nadruk op het ontwerp, de ontwikkeling en de implementatie van systemen die het veilige gebruik en de schaalbare groei van onze technologie garanderen.
Aanvullende rapportage door Natasha Lomas