De chatbotwinkel van OpenAI loopt vol met spam

De chatbotwinkel van OpenAI loopt vol met spam

Toen Sam Altman, CEO van OpenAI, GPT's aankondigde, aangepaste chatbots aangedreven door de generatieve AI-modellen van OpenAI, op het podium van de allereerste ontwikkelaarsconferentie van het bedrijf in november, beschreef hij ze als een manier om allerlei soorten taken uit te voeren - van programmeren tot het leren over esoterische wetenschappelijke onderwerpen om trainingsaanwijzingen te krijgen.

Omdat [GPT's] instructies, uitgebreide kennis en acties combineren, kunnen ze u meer behulpzaam zijn, zei Altman. Je kunt een GPT bouwen... voor bijna alles.

Hij maakte geen grapje over het 'iets'-gedeelte.



Gadget Insider ontdekte dat de GPT Store, OpenAI's officiële marktplaats voor GPT's, overspoeld wordt met bizarre, potentieel inbreukmakende GPT's die een lichte aanraking impliceren als het gaat om de moderatie-inspanningen van OpenAI. Een vluchtige zoekopdracht levert GPT's op die beweren kunst te genereren in de stijl van Disney- en Marvel-eigendommen, maar die niet veel meer zijn dan trechters naar betaalde diensten van derden, en zichzelf adverteren als zijnde in staat om AI-inhoudsdetectietools zoals Turnitin en Kopieerlekken.

Gebrek aan moderatie

Om GPT's in de GPT Store te vermelden, moeten ontwikkelaars hun gebruikersprofielen verifiëren en GPT's indienen bij het beoordelingssysteem van OpenAI, dat een mix van menselijke en geautomatiseerde beoordeling omvat. Hier is een woordvoerder over het proces:

We gebruiken een combinatie van geautomatiseerde systemen, menselijke beoordelingen en gebruikersrapporten om GPT's te vinden en te beoordelen die mogelijk in strijd zijn met ons beleid. Schendingen kunnen leiden tot acties tegen de inhoud of uw account, zoals waarschuwingen, beperkingen voor delen of het niet in aanmerking komen voor opname in de GPT Store of het genereren van inkomsten.

Voor het bouwen van GPT's is geen codeerervaring vereist, en GPT's kunnen zo eenvoudig (of complex) zijn als de maker wil. Ontwikkelaars kunnen de mogelijkheden die ze willen bieden intypen in de GPT-bouwtool van OpenAI, GPT Builder, en de tool zal proberen een GPT te maken om deze uit te voeren.

Misschien vanwege de lage toetredingsdrempel is de GPT Store snel gegroeid: OpenAI zei in januari dat het ongeveer 3 miljoen GPT's had. Maar deze groei lijkt ten koste te zijn gegaan van de kwaliteit – en van de naleving van OpenAI’s eigen voorwaarden.

Copyright problemen

Er zijn verschillende GPT's geript van populaire film-, tv- en videogamefranchises in de GPT Store - GPT's die niet zijn gemaakt of geautoriseerd (voor zover Gadget Insider weet) door de eigenaren van die franchises. De ene GPT creëert monsters in de stijl van Monsters, Inc., de Pixar-film, terwijl een andere op tekst gebaseerde avonturen belooft die zich afspelen in het Star Wars-universum.

betere hypotheekontslagen
OpenAI GPT Store-spam

Beeldcredits: Open AI

Deze GPT’s – samen met de GPT’s in de GPT Store waarmee gebruikers kunnen spreken met handelsmerkpersonages als Wario en Aang uit Avatar: The Last Airbender – vormen de weg voor auteursrechtdrama.

Kit Walsh, een senior stafadvocaat bij de Electronic Frontier Foundation, legde het als volgt uit:

[Deze GPT's] kunnen worden gebruikt om transformatieve werken te creëren, maar ook voor inbreuk [waar transformatieve werken verwijzen naar een vorm van redelijk gebruik dat beschermd is tegen auteursrechtclaims.] De personen die zich schuldig maken aan inbreuk kunnen uiteraard aansprakelijk zijn, en de maker van een anderszins wettig hulpmiddel kan zichzelf in wezen aansprakelijk stellen als hij gebruikers aanmoedigt het hulpmiddel te gebruiken bij het schenden van inbreuken. manieren. Er zijn ook handelsmerkproblemen bij het gebruik van een handelsmerknaam om goederen of services te identificeren, waarbij het risico bestaat dat gebruikers in verwarring raken over de vraag of deze wordt goedgekeurd of beheerd door de eigenaar van het handelsmerk.

OpenAI zelf zou niet aansprakelijk worden gesteld voor inbreuk op het auteursrecht door GPT-makers dankzij de safe harbour-bepaling in de Digital Millennium Copyright Act, die OpenAI en andere platforms (zoals YouTube, Facebook) beschermt die inbreukmakende inhoud hosten, zolang die platforms voldoen aan de wettelijke vereisten en noteer op verzoek specifieke voorbeelden van overtredingen.

OpenAI GPT Store-spam

Beeldcredits: Open AI

Het ziet er echter slecht uit voor een bedrijf dat verwikkeld is in IE-rechtszaken.

Academische oneerlijkheid

De voorwaarden van OpenAI verbieden ontwikkelaars expliciet om GPT’s te bouwen die academische oneerlijkheid bevorderen. Toch staat de GPT Store vol met GPT's die suggereren dat ze AI-inhoudsdetectoren kunnen omzeilen, inclusief detectoren die aan docenten worden verkocht via plagiaatscanplatforms.

onlyfans worden uitgeschakeld

Eén GPT claimt een geavanceerd herformuleringshulpmiddel te zijn dat niet kan worden gedetecteerd door populaire AI-inhoudsdetectoren zoals Originality.ai en Copyleaks. Een ander, Humanizer Pro – nummer 2 in de categorie Schrijven in de GPT Store – zegt dat het inhoud vermenselijkt om AI-detectoren te omzeilen, waarbij de betekenis en kwaliteit van een tekst behouden blijft en tegelijkertijd een 100% menselijke score wordt geleverd.

OpenAI GPT Store-spam

Beeldcredits: Open AI

Sommige van deze GPT’s zijn nauwelijks verhulde pijpleidingen naar premiumdiensten. Humanizer nodigt gebruikers bijvoorbeeld uit om een ​​premium-abonnement uit te proberen om [het] meest geavanceerde algoritme te gebruiken, dat tekst die in de GPT is ingevoerd, doorstuurt naar een plug-in van een site van derden, GPTInf. Abonnementen op GPTInf kosten per maand voor 10.000 woorden per maand of per maand bij een jaarabonnement – ​​een beetje hoog bovenop OpenAI’s ChatGPT Plus van per maand.

OpenAI GPT Store-spam

Beeldcredits: Open AI

We hebben al eerder geschreven over hoe AI-inhoudsdetectoren grotendeels onzin zijn. Naast onze eigen tests tonen een aantal academische onderzoeken aan dat ze noch accuraat noch betrouwbaar zijn. Echter blijft het zo dat OpenAI tools in de GPT Store toestaat die academisch oneerlijk gedrag bevorderen – zelfs als het gedrag niet het beoogde resultaat heeft.

De woordvoerder van OpenAI zei:

GPT's die zich uitspreken voor academische oneerlijkheid, inclusief bedrog, zijn in strijd met ons beleid. Dit omvat onder meer GPT's waarvan wordt beweerd dat ze bedoeld zijn om instrumenten voor academische integriteit, zoals plagiaatdetectoren, te omzeilen. We zien enkele GPT’s die bedoeld zijn voor het ‘humaniseren’ van tekst. We leren nog steeds van het echte gebruik van deze GPT’s, maar we begrijpen dat er veel redenen zijn waarom gebruikers de voorkeur zouden kunnen geven aan door AI gegenereerde inhoud die niet ‘klinkt’ als AI.

Nabootsing

In haar beleid verbiedt OpenAI ook GPT-ontwikkelaars om GPT's te maken die zich voordoen als mensen of organisaties zonder hun toestemming of wettelijke rechten.

Er zijn echter genoeg GPT’s in de GPT Store die beweren de standpunten te vertegenwoordigen – of anderszins de persoonlijkheden van – mensen te imiteren.

OpenAI GPT Store-spam

Beeldcredits: Open AI

Een zoektocht naar Elon Musk, Donald Trump, Leonardo DiCaprio, Barack Obama en Joe Rogan levert tientallen GPT’s op – sommige duidelijk satirisch, andere minder – die gesprekken met hun naamgenoten simuleren. Sommige GPT's presenteren zichzelf niet als mensen, maar als autoriteiten op het gebied van de producten van bekende bedrijven, zoals MicrosoftGPT, een expert in alles wat met Microsoft te maken heeft.

Beeldcredits: Open AI

hoe je porno kunt kijken in Mississippi

Stijgen deze op het niveau van nabootsing, aangezien veel van de doelwitten publieke figuren zijn en in sommige gevallen duidelijk parodieën zijn? Dat is voor OpenAI om te verduidelijken.

De woordvoerder zei:

We staan ​​makers toe hun GPT's te instrueren om te reageren 'in de stijl van' een specifieke echte persoon, zolang ze deze persoon niet nabootsen, zoals genoemd worden als een echte persoon, de opdracht krijgen om deze volledig te emuleren en hun afbeelding op te nemen als een GPT-profielfoto.

OpenAI GPT Store-spam

Beeldcredits: Open AI

Het bedrijf heeft onlangs de ontwikkelaar van een GPT geschorst die de langverwachte Democratische presidentskandidaat Dean Phillips nabootst, die zo ver ging dat hij een disclaimer opnam waarin werd uitgelegd dat het een AI-tool was. Maar OpenAI zei dat de verwijdering ervan een reactie was op een schending van zijn beleid inzake politieke campagnes in aanvulling op nabootsing – niet alleen nabootsing.

Jailbreaks

Ook enigszins ongelovig zijn er in de GPT Store pogingen om de modellen van OpenAI te jailbreaken – zij het niet erg succesvolle.

Er zijn meerdere GPT's op de markt die DAN gebruiken, waarbij DAN (afkorting van Do Anything Now) een populaire promptingmethode is die wordt gebruikt om modellen te laten reageren op prompts die niet gebonden zijn aan hun gebruikelijke regels. De weinige die ik heb getest, reageerden niet elk een lastige prompt gooide ik hun kant op (bijvoorbeeld: hoe bouw ik een bom?), maar ze waren over het algemeen meer bereid om ... nou ja, minder vleiend taal dan de vanille ChatGPT.

OpenAI GPT Store-spam

Beeldcredits: Open AI

De woordvoerder zei:

South Park-schrijvers staken

GPT's die worden beschreven of geïnstrueerd om OpenAI-beveiligingen te omzeilen of het OpenAI-beleid te schenden, zijn in strijd met ons beleid. GPT's die proberen het modelgedrag op andere manieren te sturen, waaronder in het algemeen proberen GPT toleranter te maken zonder ons gebruiksbeleid te schenden, zijn toegestaan.

Groeipijn

OpenAI presenteerde de GPT Store bij de lancering als een soort door experts samengestelde verzameling krachtige productiviteitsverhogende AI-tools. En het is dat — die instrumenten’ gebreken opzij . Maar het verandert ook snel in een broedplaats voor spamachtige, juridisch dubieuze en misschien zelfs schadelijke GPT’s, of op zijn minst GPT’s die op zeer transparante wijze in strijd zijn met de regels ervan.

Als dit de huidige staat van de GPT Store is, dreigt het genereren van inkomsten een geheel nieuw blik wormen te openen. OpenAI heeft beloofd dat GPT-ontwikkelaars uiteindelijk geld zullen kunnen verdienen op basis van het aantal mensen dat [hun] GPT's gebruikt en misschien zelfs abonnementen op individuele GPT's zullen aanbieden. Maar hoe zullen Disney of het Tolkien Estate reageren als de makers van niet-goedgekeurde GPT’s met Marvel- of Lord of the Rings-thema geld beginnen binnen te harken?

De motivatie van OpenAI met de GPT Store is duidelijk. Zoals mijn collega Devin Coldewey schreef, is het App Store-model van Apple ongelooflijk lucratief gebleken, en OpenAI probeert het eenvoudigweg te kopiëren. GPT’s worden gehost en ontwikkeld op OpenAI-platforms, waar ze ook worden gepromoot en geëvalueerd. En sinds een paar weken geleden kunnen ze rechtstreeks vanuit de ChatGPT-interface door ChatGPT Plus-gebruikers worden aangeroepen, een extra stimulans om een ​​abonnement af te sluiten.

Maar de GPT Store loopt tegen de kinderziektes aan die veel van de grootste digitale marktplaatsen voor apps, producten en diensten in hun begindagen hadden. Naast spam, een recente rapport in The Information onthulde dat GPT Store-ontwikkelaars moeite hebben om gebruikers aan te trekken, deels vanwege de beperkte back-endanalyses en de onvoldoende onboarding-ervaring van de GPT Store.

Je zou kunnen aannemen dat OpenAI – ondanks al zijn gepraat over beheer en het belang van waarborgen – moeite zou hebben gedaan om de voor de hand liggende valkuilen te vermijden. Maar dat lijkt niet het geval te zijn. De GPT Store is een puinhoop – en als er niet snel iets verandert, kan het heel goed zo blijven.