DynamoFL, dat software aanbiedt om grote taalmodellen (LLM's) naar bedrijven te brengen en die modellen op gevoelige gegevens te verfijnen, heeft vandaag aangekondigd dat het ,1 miljoen heeft opgehaald in een Series A-financieringsronde, mede geleid door Canapi Ventures en Nexus Venture Partners.
De tranche, met deelname van Formus Capital en Soma Capital, brengt het totaal opgehaalde bedrag van DynamoFL op ,3 miljoen. Mede-oprichter en CEO Vaikkunth Mugunthan zegt dat de opbrengst zal worden besteed aan het uitbreiden van het productaanbod van DynamoFL en het uitbreiden van het team van privacyonderzoekers.
Alles bij elkaar stelt het productaanbod van DynamoFL ondernemingen in staat particuliere en compatibele LLM-oplossingen te ontwikkelen zonder concessies te doen aan de prestaties, vertelde Mugunthan aan Gadget Insider in een e-mailinterview.
Het in San Francisco gevestigde DynamoFL werd in 2021 opgericht door Mugunthan en Christian Lau, beiden afgestudeerd aan de afdeling Elektrotechniek en Computerwetenschappen van MIT. Mugunthan zegt dat ze gemotiveerd waren om het bedrijf te lanceren door een gedeelde wens om kritieke kwetsbaarheden op het gebied van gegevensbeveiliging in AI-modellen aan te pakken.
Generatieve AI heeft nieuwe risico’s op de voorgrond gebracht, waaronder de mogelijkheid voor LLM’s om gevoelige trainingsgegevens te ‘onthouden’ en deze gegevens te lekken naar kwaadwillende actoren, zei Mugunthan. Bedrijven zijn slecht toegerust om deze risico's aan te pakken, omdat het op de juiste manier aanpakken van deze LLM-kwetsbaarheden het rekruteren van teams van zeer gespecialiseerde privacy-machine learning-onderzoekers zou vereisen om een gestroomlijnde infrastructuur te creëren voor het voortdurend testen van hun LLM's op opkomende kwetsbaarheden op het gebied van gegevensbeveiliging.
Bedrijven worden zeker geconfronteerd met uitdagingen – vooral op het gebied van compliance – bij het adopteren van LLM’s voor hun doeleinden. Bedrijven maken zich zorgen dat hun vertrouwelijke gegevens terechtkomen bij ontwikkelaars die de modellen hebben getraind op basis van gebruikersgegevens; de afgelopen maanden hebben grote bedrijven, waaronder Apple, Walmart en Verizon, werknemers verboden tools als ChatGPT van OpenAI te gebruiken.
In een recent rapport heeft Gartner zes juridische en compliancerisico’s geïdentificeerd die organisaties moeten evalueren op verantwoord LLM-risico, waaronder het potentieel van LLM’s om vragen onnauwkeurig te beantwoorden (een fenomeen dat bekend staat als hallucinatie), gegevensprivacy en vertrouwelijkheid en modelvooroordelen (bijvoorbeeld wanneer een model associeert bepaalde geslachten stereotiep met bepaalde beroepen). Het rapport merkt op dat deze vereisten kunnen variëren afhankelijk van de staat en het land, wat de zaken ingewikkelder maakt; Californië schrijft bijvoorbeeld voor dat organisaties openbaar moeten maken wanneer een klant met een bot communiceert.
Beeldcredits: DynamoFL
DynamoFL, dat wordt ingezet in de virtuele privécloud van een klant of op locatie, probeert deze problemen op verschillende manieren op te lossen, onder meer met een LLM-penetratietesttool die LLM-gegevensbeveiligingsrisico's detecteert en documenteert, zoals of een LLM gegevens heeft onthouden of gevoelige gegevens kunnen lekken. Verschillende studies hebben aangetoond dat LLM’s, afhankelijk van hoe ze zijn opgeleid en gevraagd, persoonlijke informatie kunnen vrijgeven – een voor de hand liggend gruwel voor grote bedrijven die met bedrijfseigen gegevens werken.
snapchat a.i-verhaal
Daarnaast biedt DynamoFL een LLM-ontwikkelingsplatform dat technieken omvat die gericht zijn op het beperken van risico's op het lekken van modelgegevens en beveiligingsproblemen. Met behulp van het platform kunnen ontwikkelaars verschillende optimalisaties in modellen integreren, waardoor ze kunnen worden uitgevoerd op omgevingen met beperkte hardware, zoals mobiele apparaten en edge-servers.
Voor de duidelijkheid: deze mogelijkheden zijn niet bijzonder uniek – althans niet op het eerste gezicht. Startups als OctoML, Seldon en Deci bieden tools om AI-modellen te optimaliseren zodat ze efficiënter op verschillende hardware kunnen draaien. Anderen, zoals Contextual AI, zijn gericht op privacy en compliance en bieden privacybeschermende manieren om LLM’s te trainen op het gebied van first-party data.
Dus wat is de onderscheidende factor van DynamoFL? De grondigheid van zijn oplossingen, betoogt Mugunthan. Dat omvat onder meer het samenwerken met juridische experts om op te stellen hoe DynamoFL kan worden gebruikt om LLM's te ontwikkelen in overeenstemming met de Amerikaanse, Europese en Aziatische privacywetten.
De aanpak trok verschillende Fortune 500-klanten aan, vooral in de financiële, elektronica-, verzekerings- en automobielsector.
Hoewel er tegenwoordig producten bestaan om persoonlijk identificeerbare informatie uit zoekopdrachten die naar LLM-diensten worden gestuurd, te redigeren, voldoen deze niet aan strikte wettelijke vereisten in sectoren als de financiële dienstverlening en verzekeringen, waar geredigeerde persoonlijk identificeerbare informatie vaak opnieuw wordt geïdentificeerd door middel van geavanceerde kwaadaardige aanvallen, zei hij. DynamoFL heeft gebruik gemaakt van de expertise van zijn team op het gebied van AI-privacykwetsbaarheden om de meest uitgebreide oplossing te bouwen voor ondernemingen die willen voldoen aan de wettelijke vereisten voor LLM-gegevensbeveiliging.
is Lorex een Chinees bedrijf
DynamoFL pakt een van de meest lastige problemen met de LLM's van vandaag niet aan: IP- en auteursrechtrisico's. Commerciële LLM's zijn getraind in het omgaan met een grote hoeveelheid internetgegevens, en soms braken ze deze gegevens uit, waardoor elk bedrijf dat deze gegevens gebruikt het risico loopt het auteursrecht te schenden.
Maar Mugunthan zinspeelde op een uitgebreide reeks instrumenten en oplossingen die zouden komen, aangewakkerd door de recente financiering van DynamoFL.
Het aanpakken van de eisen van toezichthouders is een cruciale verantwoordelijkheid voor managers op C-suiteniveau op de IT-afdeling, vooral in sectoren als financiële dienstverlening en verzekeringen, zei hij. Het niet naleven van de regelgeving kan resulteren in onherstelbare schade aan het vertrouwen van klanten als gevoelige informatie uitlekt, leidt tot zware boetes en kan resulteren in grote verstoringen van de activiteiten van een onderneming. Het privacy-evaluatiepakket van DynamoFL biedt kant-en-klare tests voor kwetsbaarheden in de gegevensextractie en geautomatiseerde documentatie die nodig is om aan de beveiligings- en compliance-eisen te voldoen.
DynamoFL, dat momenteel een team van ongeveer 17 medewerkers heeft, verwacht tegen het einde van het jaar 35 medewerkers te hebben.