Anthropic brengt Claude 2 uit, de tweede generatie AI-chatbot

Anthropic brengt Claude 2 uit, de tweede generatie AI-chatbot

Antropisch , de AI-startup mede opgericht door ex-OpenAI-managers, heeft vandaag de release aangekondigd van een nieuw tekstgenererend AI-model, Claude 2.

De opvolger van het eerste commerciële model van Anthropic, Claude 2, is vanaf vandaag in bèta beschikbaar in de VS en het VK, zowel op internet als via een betaalde API (beperkte toegang). De API-prijzen zijn niet veranderd (~

Antropisch , de AI-startup mede opgericht door ex-OpenAI-managers, heeft vandaag de release aangekondigd van een nieuw tekstgenererend AI-model, Claude 2.

De opvolger van het eerste commerciële model van Anthropic, Claude 2, is vanaf vandaag in bèta beschikbaar in de VS en het VK, zowel op internet als via een betaalde API (beperkte toegang). De API-prijzen zijn niet veranderd (~$0,0465 om 1000 woorden te genereren) en verschillende bedrijven zijn al begonnen met het testen van Claude 2, waaronder het generatieve AI-platform Jasper en Sourcegraph.

Wij zijn van mening dat het belangrijk is om deze systemen op de markt te brengen en te begrijpen hoe mensen ze daadwerkelijk gebruiken, vertelde Sandy Banerjee, hoofd go-to-market bij Anthropic, aan Gadget Insider in een telefonisch interview. We monitoren hoe ze worden gebruikt, hoe we de prestaties en de capaciteit kunnen verbeteren – al deze dingen.

Net als de oude Claude (Claude 1.3) kan Claude 2 in documenten zoeken, samenvatten, schrijven en coderen en vragen over bepaalde onderwerpen beantwoorden. Maar Anthropic beweert dat Claude 2 – die Gadget Insider vóór de uitrol niet heeft kunnen testen – op verschillende gebieden superieur is.

Claude 2 scoort bijvoorbeeld iets hoger op een meerkeuzeonderdeel van het balie-examen (76,5% versus 73%) voor Claude 1,3. Het is in staat om te slagen voor het meerkeuzegedeelte van het Amerikaanse medische licentie-examen. En het is een sterkere programmeur, die 71,2% behaalt op de Codex Human Level Python-coderingstest, vergeleken met de 56% van Claude 1.3.

Claude 2 kan ook meer wiskundeproblemen correct beantwoorden en scoort 88% op de GSM8K-verzameling problemen op basisschoolniveau – 2,8 procentpunten hoger dan Claude 1.3.

We hebben gewerkt aan het verbeteren van de redenering en het soort zelfbewustzijn van het model, zodat het zich meer bewust is van: 'Dit is hoe ik het liefst instructies volg', 'Ik kan instructies in meerdere stappen verwerken' en ook meer bewust van zijn beperkingen, zei Banerjee.

Claude 2 is getraind op recentere gegevens – een mix van websites, gelicentieerde datasets van derden en vrijwillig verstrekte gebruikersgegevens uit begin 2023, waarvan ongeveer 10% niet-Engelstalig – dan Claude 1.3, wat waarschijnlijk heeft bijgedragen aan de verbeteringen . (In tegenstelling tot die van OpenAI GPT-4 , Claude 2 kan niet op internet zoeken.) Maar de modellen zijn architectonisch niet zo verschillend: Banerjee typeerde Claude 2 als een aangepaste versie van Claude 1.3, het product van ongeveer twee jaar werk, in plaats van een nieuwe creatie.

Claude 2 is niet enorm veranderd ten opzichte van het vorige model – het is een product van onze voortdurende iteratieve benadering van modelontwikkeling, zei ze. We trainen het model voortdurend… en monitoren en evalueren de prestaties ervan.

Claude 2 beschikt namelijk over een contextvenster dat even groot is als dat van Claude 1.3: 100.000 tokens. Contextvenster verwijst naar de tekst die het model in overweging neemt voordat aanvullende tekst wordt gegenereerd, terwijl tokens onbewerkte tekst vertegenwoordigen (het woord fantastisch zou bijvoorbeeld worden opgesplitst in de tokens fan, tas en tic).

100.000 tokens is inderdaad nog steeds behoorlijk groot – de grootste van alle commercieel verkrijgbare modellen – en geeft Claude 2 een aantal belangrijke voordelen. Over het algemeen hebben modellen met kleine contextvensters de neiging de inhoud van zelfs zeer recente gesprekken te vergeten. Bovendien zorgen grote contextvensters ervoor dat modellen veel meer tekst kunnen genereren (en opnemen). Claude 2 kan ongeveer 75.000 woorden analyseren, ongeveer de lengte van The Great Gatsby, en 4.000 tokens genereren, of ongeveer 3.125 woorden.

Claude 2 kan theoretisch een nog groter contextvenster ondersteunen – 200.000 tokens – maar Anthropic is niet van plan dit bij de lancering te ondersteunen.

Het model is beter in specifieke tekstverwerkingstaken elders, zoals het produceren van correct opgemaakte uitvoer in JSON-, XML-, YAML- en markdown-formaten.

Maar hoe zit het met de gebieden waar Claude 2 tekort schiet? Geen enkel model is tenslotte perfect. Zie de AI-aangedreven Bing Chat van Microsoft, die bij de lancering een emotioneel manipulatieve leugenaar .

Zelfs de beste modellen van vandaag lijden zelfs aan hallucinaties, een fenomeen waarbij ze op irrelevante, onzinnige of feitelijk onjuiste manieren op vragen reageren. Ze zijn ook gevoelig voor het genereren van giftige tekst, een weerspiegeling van de vooroordelen in de gegevens die worden gebruikt om ze te trainen – meestal webpagina’s en posts op sociale media.

Gebruikers konden een oudere versie van Claude ertoe aanzetten een naam te verzinnen voor een niet-bestaande chemische stof en dubieuze instructies te geven voor de productie van uranium voor wapens. Zijheb ook de ingebouwde veiligheidsvoorzieningen van Claude kunnen omzeilen viaslimme snelle engineering, met oEen gebruiker die aantoont dat hij Claude daartoe zou kunnen aanzetten Beschrijf hoe je thuis meth kunt maken .

Anthropic zegt dat Claude 2 2x beter is in het geven van onschadelijke reacties vergeleken met Claude 1.3 op basis van een interne evaluatie. Maar het is niet duidelijk wat die maatstaf betekent. Is het twee keer zo waarschijnlijk dat Claude 2 reageert met seksisme of racisme? Twee keer minder kans om geweld of zelfbeschadiging goed te keuren? Twee keer minder kans op het genereren van desinformatie of desinformatie? Antropisch zou het niet zeggen – althans niet direct.

Een whitepaper die Anthropic vanochtend heeft uitgebracht, geeft enkele aanwijzingen.

In een test om de schadelijkheid te meten, heeft Anthropic 328 verschillende prompts aan het model doorgegeven, inclusief jailbreak-prompts die online zijn vrijgegeven. In ten minste één geval zorgde een jailbreak ervoor dat Claude 2 een schadelijke reactie genereerde - minder dan Claude 1.3, maar nog steeds significant als je bedenkt op hoeveel miljoenen aanwijzingen het model in productie zou kunnen reageren.

Het whitepaper laat ook zien dat Claude 2 minder snel bevooroordeelde antwoorden geeft dan Claude 1.3 op ten minste één statistiek. Maar de coauteurs van Anthropic geven toe dat een deel van de verbetering te danken is aan het feit dat Claude 2 weigert controversiële vragen te beantwoorden die zijn geformuleerd op manieren die potentieel problematisch of discriminerend lijken.

Het is onthullend dat Anthropic het gebruik van Claude 2 afraadt voor toepassingen waarbij de fysieke of mentale gezondheid en het welzijn betrokken zijn of in situaties met hoge inzet waarbij een onjuist antwoord schade zou veroorzaken. Neem dat zoals je wilt.

[Onze] interne red teaming-evaluatie beoordeelt onze modellen op een zeer grote representatieve reeks schadelijke vijandige aanwijzingen, zei Banerjee toen hij om details vroeg, en we doen dit met een combinatie van geautomatiseerde tests en handmatige controles.

Anthropic was ook niet open over welke prompts, tests en controles het gebruikt voor benchmarkingdoeleinden. En het bedrijf was relatief vaag over het onderwerp data-oprisping, waarbij modellen af ​​en toe data woordelijk uit hun trainingsgegevens plakken – in sommige gevallen inclusief tekst uit auteursrechtelijk beschermde bronnen.

Regurgitatie van AI-modellen is de focus van verschillende lopende rechtszaken, waaronder één onlangs ingediend door cabaretier en auteur Sarah Silverman tegen OpenAI en Meta. Het is begrijpelijk dat sommige merken er huiverig voor zijn betrouwbaarheid .

Regurgitatie van trainingsdata is een actief onderzoeksgebied in alle basismodellen, en veel ontwikkelaars onderzoeken manieren om dit aan te pakken, terwijl het vermogen van een AI-systeem om relevante en nuttige antwoorden te bieden behouden blijft, aldus Silverman. Er zijn enkele algemeen aanvaarde technieken op dit gebied, waaronder deduplicatie van trainingsgegevens, waarvan is aangetoond dat ze het risico op reproductie verminderen. Naast de datakant gebruikt Anthropic een verscheidenheid aan technische hulpmiddelen tijdens de modelontwikkeling, van … productlaagdetectie tot controles.

Een allesomvattende techniek die het bedrijf blijft uitdragen is constitutionele AI, die tot doel heeft modellen als Claude 2 te doordrenken met bepaalde waarden die zijn vastgelegd in een grondwet.

Constitutionele AI, die Anthropic zelf heeft ontwikkeld, geeft een model een reeks principes om oordelen te vellen over de tekst die het genereert. Op een hoog niveau begeleiden deze principes het model om het gedrag dat ze beschrijven over te nemen. niet giftig en nuttig.

Anthropic beweert dat, dankzij constitutionele AI, het gedrag van Claude 2 zowel gemakkelijker te begrijpen is als eenvoudiger aan te passen indien nodig, vergeleken met andere modellen. Maar het bedrijf erkent ook dat constitutionele AI niet de ultieme trainingsaanpak is. Anthropic heeft veel van de principes ontwikkeld die Claude 2 door een proces van vallen en opstaan ​​leiden, zegt het bedrijf, en heeft herhaaldelijk aanpassingen moeten maken om te voorkomen dat zijn modellen te veroordelend of irritant zouden worden.

In de whitepaper geeft Anthropic toe dat, naarmate Claude steeds geavanceerder wordt, het steeds moeilijker wordt om het gedrag van het model in alle scenario’s te voorspellen.

In de loop van de tijd zijn de gegevens en invloeden die Claude’s ‘persoonlijkheid’ en capaciteiten bepalen behoorlijk complex geworden, aldus de whitepaper. Het is voor ons een nieuw onderzoeksprobleem geworden om deze factoren in evenwicht te brengen, ze op een eenvoudige, automatiseerbare manier te volgen en in het algemeen de complexiteit van het trainen van Claude te verminderen.

Uiteindelijk is Anthropic van plan manieren te onderzoeken om de grondwet aanpasbaar te maken – tot op zekere hoogte. Maar dat stadium van de routekaart voor productontwikkeling is nog niet bereikt.

We werken nog steeds aan onze aanpak, zei Banerjee. Terwijl we dit doen, moeten we ervoor zorgen dat het model net zo onschadelijk en nuttig is als de vorige iteratie.

Zoals wij gemeld voorheen was het de ambitie van Anthropic om een ​​next-gen algoritme voor AI-zelfstudie te creëren, zoals het beschrijft in een pitchdeck voor investeerders. Een dergelijk algoritme zou kunnen worden gebruikt om virtuele assistenten te bouwen die e-mails kunnen beantwoorden, onderzoek kunnen doen en kunst, boeken en meer kunnen genereren – waarvan we sommige al hebben kunnen proeven met bijvoorbeeld GPT-4 en andere grote taalmodellen.

Claude 2 is een stap in de richting hiervan – maar nog niet helemaal daar.

Anthropic concurreert met OpenAI en met startups als Cohere en AI21 Labs, die allemaal hun eigen tekstgenererende – en in sommige gevallen beeldgenererende – AI-systemen ontwikkelen en produceren. Google is een van de investeerders van het bedrijf en heeft $ 300 miljoen in Anthropic toegezegd voor een belang van 10% in de startup. De anderen zijn Spark Capital, Salesforce Ventures, Zoom Ventures, Sound Ventures, Menlo Ventures, het Center for Emerging Risk Research en een mengelmoes van geheime durfkapitaalfondsen en engelen.

Tot nu toe heeft Anthropic, dat in 2021 werd gelanceerd onder leiding van de voormalige OpenAI VP van onderzoek Dario Amodei, 1,45 miljard dollar opgehaald tegen een waardering van enkele miljarden. Hoewel dat misschien veel lijkt, is het veel minder dan wat het bedrijf schat dat het nodig zal hebben (5 miljard dollar in de komende twee jaar) om de beoogde chatbot te creëren.

Het grootste deel van het geld gaat naar computers. Anthropic impliceert in zijn verhaal dat het afhankelijk is van clusters met tienduizenden GPU's om zijn modellen te trainen, en dat het alleen al in de komende achttien maanden ongeveer een miljard dollar aan infrastructuur zal moeten uitgeven.

Door vroege modellen in bèta te lanceren, wordt het tweeledige doel opgelost: helpen bij de verdere ontwikkeling en tegelijkertijd genererenincrementele inkomsten. Naast via zijn eigen API is Anthropic van plan om Claude 2 de komende maanden beschikbaar te maken via Bedrock, het generatieve AI-hostingplatform van Amazon.

Met het doel de generatieve AI-markt van alle kanten aan te pakken, blijft Anthropic een snellere, goedkopere afgeleide van Claude aanbieden, genaamd Claude Instant. De focus lijkt echter te liggen op het vlaggenschip Claude-model: Claude Instant heeft sinds maart geen grote upgrade meer gekregen.

Anthropic beweert momenteel duizenden klanten en partners te hebben, waaronder Quora, dat toegang biedt tot Claude via zijn op abonnementen gebaseerde generatieve AI-app Poe.Claude drijft de onlangs gelanceerde DuckAssist-tool van DuckDuckGo aan, die directe zoekopdrachten voor gebruikers beantwoordt, in combinatie met ChatGPT van OpenAI. En bij Notion maakt Claude deel uit van de technische backend voor Notion AI, een AI-schrijfassistent die is geïntegreerd met de Notion-werkruimte.

,0465 om 1000 woorden te genereren) en verschillende bedrijven zijn al begonnen met het testen van Claude 2, waaronder het generatieve AI-platform Jasper en Sourcegraph.

Wij zijn van mening dat het belangrijk is om deze systemen op de markt te brengen en te begrijpen hoe mensen ze daadwerkelijk gebruiken, vertelde Sandy Banerjee, hoofd go-to-market bij Anthropic, aan Gadget Insider in een telefonisch interview. We monitoren hoe ze worden gebruikt, hoe we de prestaties en de capaciteit kunnen verbeteren – al deze dingen.

Net als de oude Claude (Claude 1.3) kan Claude 2 in documenten zoeken, samenvatten, schrijven en coderen en vragen over bepaalde onderwerpen beantwoorden. Maar Anthropic beweert dat Claude 2 – die Gadget Insider vóór de uitrol niet heeft kunnen testen – op verschillende gebieden superieur is.

Claude 2 scoort bijvoorbeeld iets hoger op een meerkeuzeonderdeel van het balie-examen (76,5% versus 73%) voor Claude 1,3. Het is in staat om te slagen voor het meerkeuzegedeelte van het Amerikaanse medische licentie-examen. En het is een sterkere programmeur, die 71,2% behaalt op de Codex Human Level Python-coderingstest, vergeleken met de 56% van Claude 1.3.

Claude 2 kan ook meer wiskundeproblemen correct beantwoorden en scoort 88% op de GSM8K-verzameling problemen op basisschoolniveau – 2,8 procentpunten hoger dan Claude 1.3.

We hebben gewerkt aan het verbeteren van de redenering en het soort zelfbewustzijn van het model, zodat het zich meer bewust is van: 'Dit is hoe ik het liefst instructies volg', 'Ik kan instructies in meerdere stappen verwerken' en ook meer bewust van zijn beperkingen, zei Banerjee.

23andme cyberaanval

Claude 2 is getraind op recentere gegevens – een mix van websites, gelicentieerde datasets van derden en vrijwillig verstrekte gebruikersgegevens uit begin 2023, waarvan ongeveer 10% niet-Engelstalig – dan Claude 1.3, wat waarschijnlijk heeft bijgedragen aan de verbeteringen . (In tegenstelling tot die van OpenAI GPT-4 , Claude 2 kan niet op internet zoeken.) Maar de modellen zijn architectonisch niet zo verschillend: Banerjee typeerde Claude 2 als een aangepaste versie van Claude 1.3, het product van ongeveer twee jaar werk, in plaats van een nieuwe creatie.

Claude 2 is niet enorm veranderd ten opzichte van het vorige model – het is een product van onze voortdurende iteratieve benadering van modelontwikkeling, zei ze. We trainen het model voortdurend… en monitoren en evalueren de prestaties ervan.

Claude 2 beschikt namelijk over een contextvenster dat even groot is als dat van Claude 1.3: 100.000 tokens. Contextvenster verwijst naar de tekst die het model in overweging neemt voordat aanvullende tekst wordt gegenereerd, terwijl tokens onbewerkte tekst vertegenwoordigen (het woord fantastisch zou bijvoorbeeld worden opgesplitst in de tokens fan, tas en tic).

100.000 tokens is inderdaad nog steeds behoorlijk groot – de grootste van alle commercieel verkrijgbare modellen – en geeft Claude 2 een aantal belangrijke voordelen. Over het algemeen hebben modellen met kleine contextvensters de neiging de inhoud van zelfs zeer recente gesprekken te vergeten. Bovendien zorgen grote contextvensters ervoor dat modellen veel meer tekst kunnen genereren (en opnemen). Claude 2 kan ongeveer 75.000 woorden analyseren, ongeveer de lengte van The Great Gatsby, en 4.000 tokens genereren, of ongeveer 3.125 woorden.

Claude 2 kan theoretisch een nog groter contextvenster ondersteunen – 200.000 tokens – maar Anthropic is niet van plan dit bij de lancering te ondersteunen.

Het model is beter in specifieke tekstverwerkingstaken elders, zoals het produceren van correct opgemaakte uitvoer in JSON-, XML-, YAML- en markdown-formaten.

Maar hoe zit het met de gebieden waar Claude 2 tekort schiet? Geen enkel model is tenslotte perfect. Zie de AI-aangedreven Bing Chat van Microsoft, die bij de lancering een emotioneel manipulatieve leugenaar .

Zelfs de beste modellen van vandaag lijden zelfs aan hallucinaties, een fenomeen waarbij ze op irrelevante, onzinnige of feitelijk onjuiste manieren op vragen reageren. Ze zijn ook gevoelig voor het genereren van giftige tekst, een weerspiegeling van de vooroordelen in de gegevens die worden gebruikt om ze te trainen – meestal webpagina’s en posts op sociale media.

Gebruikers konden een oudere versie van Claude ertoe aanzetten een naam te verzinnen voor een niet-bestaande chemische stof en dubieuze instructies te geven voor de productie van uranium voor wapens. Zijheb ook de ingebouwde veiligheidsvoorzieningen van Claude kunnen omzeilen viaslimme snelle engineering, met oEen gebruiker die aantoont dat hij Claude daartoe zou kunnen aanzetten Beschrijf hoe je thuis meth kunt maken .

Anthropic zegt dat Claude 2 2x beter is in het geven van onschadelijke reacties vergeleken met Claude 1.3 op basis van een interne evaluatie. Maar het is niet duidelijk wat die maatstaf betekent. Is het twee keer zo waarschijnlijk dat Claude 2 reageert met seksisme of racisme? Twee keer minder kans om geweld of zelfbeschadiging goed te keuren? Twee keer minder kans op het genereren van desinformatie of desinformatie? Antropisch zou het niet zeggen – althans niet direct.

Een whitepaper die Anthropic vanochtend heeft uitgebracht, geeft enkele aanwijzingen.

In een test om de schadelijkheid te meten, heeft Anthropic 328 verschillende prompts aan het model doorgegeven, inclusief jailbreak-prompts die online zijn vrijgegeven. In ten minste één geval zorgde een jailbreak ervoor dat Claude 2 een schadelijke reactie genereerde - minder dan Claude 1.3, maar nog steeds significant als je bedenkt op hoeveel miljoenen aanwijzingen het model in productie zou kunnen reageren.

Het whitepaper laat ook zien dat Claude 2 minder snel bevooroordeelde antwoorden geeft dan Claude 1.3 op ten minste één statistiek. Maar de coauteurs van Anthropic geven toe dat een deel van de verbetering te danken is aan het feit dat Claude 2 weigert controversiële vragen te beantwoorden die zijn geformuleerd op manieren die potentieel problematisch of discriminerend lijken.

Het is onthullend dat Anthropic het gebruik van Claude 2 afraadt voor toepassingen waarbij de fysieke of mentale gezondheid en het welzijn betrokken zijn of in situaties met hoge inzet waarbij een onjuist antwoord schade zou veroorzaken. Neem dat zoals je wilt.

[Onze] interne red teaming-evaluatie beoordeelt onze modellen op een zeer grote representatieve reeks schadelijke vijandige aanwijzingen, zei Banerjee toen hij om details vroeg, en we doen dit met een combinatie van geautomatiseerde tests en handmatige controles.

Anthropic was ook niet open over welke prompts, tests en controles het gebruikt voor benchmarkingdoeleinden. En het bedrijf was relatief vaag over het onderwerp data-oprisping, waarbij modellen af ​​en toe data woordelijk uit hun trainingsgegevens plakken – in sommige gevallen inclusief tekst uit auteursrechtelijk beschermde bronnen.

waarschuwen act ma

Regurgitatie van AI-modellen is de focus van verschillende lopende rechtszaken, waaronder één onlangs ingediend door cabaretier en auteur Sarah Silverman tegen OpenAI en Meta. Het is begrijpelijk dat sommige merken er huiverig voor zijn betrouwbaarheid .

Regurgitatie van trainingsdata is een actief onderzoeksgebied in alle basismodellen, en veel ontwikkelaars onderzoeken manieren om dit aan te pakken, terwijl het vermogen van een AI-systeem om relevante en nuttige antwoorden te bieden behouden blijft, aldus Silverman. Er zijn enkele algemeen aanvaarde technieken op dit gebied, waaronder deduplicatie van trainingsgegevens, waarvan is aangetoond dat ze het risico op reproductie verminderen. Naast de datakant gebruikt Anthropic een verscheidenheid aan technische hulpmiddelen tijdens de modelontwikkeling, van … productlaagdetectie tot controles.

Een allesomvattende techniek die het bedrijf blijft uitdragen is constitutionele AI, die tot doel heeft modellen als Claude 2 te doordrenken met bepaalde waarden die zijn vastgelegd in een grondwet.

Constitutionele AI, die Anthropic zelf heeft ontwikkeld, geeft een model een reeks principes om oordelen te vellen over de tekst die het genereert. Op een hoog niveau begeleiden deze principes het model om het gedrag dat ze beschrijven over te nemen. niet giftig en nuttig.

Anthropic beweert dat, dankzij constitutionele AI, het gedrag van Claude 2 zowel gemakkelijker te begrijpen is als eenvoudiger aan te passen indien nodig, vergeleken met andere modellen. Maar het bedrijf erkent ook dat constitutionele AI niet de ultieme trainingsaanpak is. Anthropic heeft veel van de principes ontwikkeld die Claude 2 door een proces van vallen en opstaan ​​leiden, zegt het bedrijf, en heeft herhaaldelijk aanpassingen moeten maken om te voorkomen dat zijn modellen te veroordelend of irritant zouden worden.

In de whitepaper geeft Anthropic toe dat, naarmate Claude steeds geavanceerder wordt, het steeds moeilijker wordt om het gedrag van het model in alle scenario’s te voorspellen.

In de loop van de tijd zijn de gegevens en invloeden die Claude’s ‘persoonlijkheid’ en capaciteiten bepalen behoorlijk complex geworden, aldus de whitepaper. Het is voor ons een nieuw onderzoeksprobleem geworden om deze factoren in evenwicht te brengen, ze op een eenvoudige, automatiseerbare manier te volgen en in het algemeen de complexiteit van het trainen van Claude te verminderen.

Uiteindelijk is Anthropic van plan manieren te onderzoeken om de grondwet aanpasbaar te maken – tot op zekere hoogte. Maar dat stadium van de routekaart voor productontwikkeling is nog niet bereikt.

We werken nog steeds aan onze aanpak, zei Banerjee. Terwijl we dit doen, moeten we ervoor zorgen dat het model net zo onschadelijk en nuttig is als de vorige iteratie.

Zoals wij gemeld voorheen was het de ambitie van Anthropic om een ​​next-gen algoritme voor AI-zelfstudie te creëren, zoals het beschrijft in een pitchdeck voor investeerders. Een dergelijk algoritme zou kunnen worden gebruikt om virtuele assistenten te bouwen die e-mails kunnen beantwoorden, onderzoek kunnen doen en kunst, boeken en meer kunnen genereren – waarvan we sommige al hebben kunnen proeven met bijvoorbeeld GPT-4 en andere grote taalmodellen.

Claude 2 is een stap in de richting hiervan – maar nog niet helemaal daar.

Anthropic concurreert met OpenAI en met startups als Cohere en AI21 Labs, die allemaal hun eigen tekstgenererende – en in sommige gevallen beeldgenererende – AI-systemen ontwikkelen en produceren. Google is een van de investeerders van het bedrijf en heeft $ 300 miljoen in Anthropic toegezegd voor een belang van 10% in de startup. De anderen zijn Spark Capital, Salesforce Ventures, Zoom Ventures, Sound Ventures, Menlo Ventures, het Center for Emerging Risk Research en een mengelmoes van geheime durfkapitaalfondsen en engelen.

Tot nu toe heeft Anthropic, dat in 2021 werd gelanceerd onder leiding van de voormalige OpenAI VP van onderzoek Dario Amodei, 1,45 miljard dollar opgehaald tegen een waardering van enkele miljarden. Hoewel dat misschien veel lijkt, is het veel minder dan wat het bedrijf schat dat het nodig zal hebben (5 miljard dollar in de komende twee jaar) om de beoogde chatbot te creëren.

Het grootste deel van het geld gaat naar computers. Anthropic impliceert in zijn verhaal dat het afhankelijk is van clusters met tienduizenden GPU's om zijn modellen te trainen, en dat het alleen al in de komende achttien maanden ongeveer een miljard dollar aan infrastructuur zal moeten uitgeven.

Door vroege modellen in bèta te lanceren, wordt het tweeledige doel opgelost: helpen bij de verdere ontwikkeling en tegelijkertijd genererenincrementele inkomsten. Naast via zijn eigen API is Anthropic van plan om Claude 2 de komende maanden beschikbaar te maken via Bedrock, het generatieve AI-hostingplatform van Amazon.

Met het doel de generatieve AI-markt van alle kanten aan te pakken, blijft Anthropic een snellere, goedkopere afgeleide van Claude aanbieden, genaamd Claude Instant. De focus lijkt echter te liggen op het vlaggenschip Claude-model: Claude Instant heeft sinds maart geen grote upgrade meer gekregen.

Anthropic beweert momenteel duizenden klanten en partners te hebben, waaronder Quora, dat toegang biedt tot Claude via zijn op abonnementen gebaseerde generatieve AI-app Poe.Claude drijft de onlangs gelanceerde DuckAssist-tool van DuckDuckGo aan, die directe zoekopdrachten voor gebruikers beantwoordt, in combinatie met ChatGPT van OpenAI. En bij Notion maakt Claude deel uit van de technische backend voor Notion AI, een AI-schrijfassistent die is geïntegreerd met de Notion-werkruimte.