DynamoFLが「コンプライアンス上の」LLMの採用を支援するために1,510万ドルを調達

image credit:DynamoFL

DynamoFLが「コンプライアンス上の」LLMの採用を支援するために1,510万ドルを調達

uniqorns編集チーム 2023.08.16

DynamoFLは、企業が大規模言語モデル(LLMs)を採用し、機微なデータを用いてこれらのモデルを調整するためのソフトウェアを提供する企業だ。今回、Canapi VenturesとNexus Venture Partnersが共同主導したシリーズAの資金調達で1510万ドルを調達したことを発表した。

Formus CapitalとSoma Capitalも参加しており、これまでに調達した資金総額は1930万ドルになる。

サンフランシスコに本拠を置くDynamoFLは、2021年にMITの電気工学・コンピュータ科学部門出身のMugunthan氏とChristian Lau氏によって設立された。Mugunthan氏によると、彼らはAIモデルの「重大な」データセキュリティの脆弱性に対処することを望む共通の欲求によって、会社を立ち上げることになったとのことだ。

企業は、主に適合性に関連する問題に直面している。企業は、ユーザーデータを訓練データとして使用した開発者に機密データが漏洩することを懸念している。最近では、Apple、Walmart、Verizonなどの大手企業が、OpenAIのChatGPTなどのツールの使用を禁止している。

Gartnerの最近のレポートによれば、企業が「責任ある」LLMリスクを評価するために評価する必要がある6つの法的およびコンプライアンスリスクには、LLMsが不正確に回答する可能性がある(幻覚という現象)、データプライバシーと機密性、モデルの偏り(例えば、モデルが特定の職業に特定の性別を関連づけるなど)が含まれる。この要件は、州や国によって異なる場合があるため、問題が複雑になる。例えば、カリフォルニア州では、顧客がボットと通信している場合に開示する必要があることを義務付けている。

DynamoFLは、顧客の仮想プライベートクラウドまたはオンプレミスに展開され、LLMのデータセキュリティリスク(LLMが機密データを覚えているか、漏洩する可能性があるかどうかなど)を検出および文書化するLLM侵入テストツールなど、さまざまな方法でこれらの問題を解決しようとしている。いくつかの研究によれば、LLMsは、トレーニング方法とプロンプトによっては、個人情報を露出する可能性がある。

また、DynamoFLは、モデルのデータ漏洩リスクやセキュリティ上の脆弱性を緩和するための技術を組み込んだLLM開発プラットフォームを提供している。

このプラットフォームを使用すると、開発者は、様々な最適化をモデルに統合することが可能だ。これにより、モバイルデバイスやエッジサーバーなどのリソース制限のある環境で実行できるようになる。

これらの機能は、正直なところ、特にユニークではない。OctoML、Seldon、Deciなどのスタートアップ企業は、AIモデルをより効率的に実行するためのツールを提供している。

LlamaIndexやContextual AIなどは、プライバシーとコンプライアンスに焦点を当てており、第一者データを使用してLLMsをトレーニングするプライバシー保護方法を提供している。
では、DynamoFLの差別化要因は何でだろうか?Mugunthan氏は、彼らのソリューションの「徹底性」が差別化要因であると主張している。これには、米国、欧州、アジアのプライバシー法に適合した方法で、DynamoFLを使用してLLMsを開発するための法的専門家と協力することも含まれる。

このアプローチは、金融、エレクトロニクス、保険、自動車業界など、いくつかのフォーチュン500社の顧客を引き付けた。

ただし、DynamoFLは、今日のLLMsに関するより厄介な問題の1つである知的財産権および著作権のリスクに対処していない。商用LLMsは大量のインターネットデータをトレーニングデータとして使用し、時には著作権侵害のリスクに陥ることがある。

DynamoFLは現在、約17人のチームを雇用しており、年末までに35人のスタッフを雇用する予定だ。