SambaNova, een AI-chipstartup die tot nu toe meer dan 1,1 miljard dollar aan durfkapitaalgeld heeft opgehaald, mikt op OpenAI – en rivalen – met een nieuw generatief AI-product gericht op zakelijke klanten.
Samba Nova heeft vandaag Samba-1 aangekondigd, een AI-aangedreven systeem dat is ontworpen voor taken als het herschrijven van tekst, coderen, taalvertaling en meer. Het bedrijf noemt de architectuur een samenstelling van experts – een jargonnaam voor een bundel generatieve open source AI-modellen, 56 in totaal.
powertaal.co.uk/wordle
Rodrigo Liang, medeoprichter en CEO van SambaNova, zegt dat Samba-1 bedrijven in staat stelt meerdere AI-gebruiksscenario's te verfijnen en aan te pakken, terwijl ze de uitdagingen van het ad hoc implementeren van AI-systemen vermijden.
Samba-1 is volledig modulair, waardoor bedrijven asynchroon nieuwe modellen kunnen toevoegen … zonder hun eerdere investeringen te elimineren, vertelde Liang in een interview aan Gadget Insider. Op dezelfde manier zijn ze iteratief, uitbreidbaar en gemakkelijk te updaten, waardoor onze klanten de ruimte krijgen om zich aan te passen wanneer nieuwe modellen worden geïntegreerd.
Liang is een goede verkoper, en wat hij zegt geluiden veelbelovend. Maar is Samba-1 Echt superieur aan de vele, vele andere AI-systemen voor zakelijke taken die er zijn, en in het minst de modellen van OpenAI?
Het hangt af van de gebruikssituatie.
gym pact
Het ogenschijnlijke grote voordeel van Samba-1 is dat klanten, omdat het een verzameling modellen is die onafhankelijk zijn getraind in plaats van één groot model, controle hebben over hoe prompts en verzoeken ernaar worden gerouteerd. Een verzoek aan een groot model als de GPT-4 gaat in één richting: via GPT-4. Maar een verzoek aan Samba-1 reist er één van 56 richtingen (naar een van de 56 modellen waaruit Samba-1 bestaat), afhankelijk van de regels en het beleid dat een klant specificeert.
Deze multi-modellenstrategie verlaagt ook de kosten van het afstemmen van de gegevens van een klant, beweert Liang, omdat klanten zich alleen maar zorgen hoeven te maken over het afstemmen van individuele of kleine groepen modellen in plaats van over een enorm model. En – in theorie – zou het kunnen resulteren in betrouwbaardere (bijvoorbeeld minder door hallucinaties veroorzaakte) reacties op prompts, zegt hij, omdat antwoorden van het ene model kunnen worden vergeleken met de antwoorden van de andere – zij het ten koste van extra rekenkracht.
project Nesie
Met deze architectuur hoef je grotere taken niet in kleinere op te delen en kun je dus veel kleinere modellen trainen, zei Liang, eraan toevoegend dat Samba-1 op locatie of in een gehoste omgeving kan worden ingezet, afhankelijk van de behoeften van de klant. . Met één groot model is uw rekenkracht per [verzoek] hoger, waardoor de trainingskosten hoger zijn. De architectuur van [Samba-1] doet de kosten van training dalen.
Ik zou tegenwerpen dat veel leveranciers, waaronder OpenAI, aantrekkelijke prijzen bieden voor het verfijnen van grote generatieve modellen, en dat verschillende startups, Mars- en AI-chips, om AI-toepassingen te bouwen. En voor sommige ondernemingen kan dat aantrekkelijker zijn dan wat er nog meer op tafel ligt.
Samba-1 geeft elke onderneming zijn eigen aangepaste GPT-model, ‘geprivatiseerd’ op basis van hun gegevens en aangepast aan de behoeften van hun organisatie, zei Liang. De modellen zijn getraind op de privégegevens van onze klanten, gehost op één enkel [server] rack, met een tiende van de kosten van alternatieve oplossingen.