Liquid AI 紹介
Liquid AIは、非トランスフォーマーアーキテクチャを使用して革新的なLiquid Foundation Models(LFMs)を開発し、より小さなメモリフットプリントとより効率的な推論で最先端のAIパフォーマンスを実現するMITのスピンオフ企業です。
もっと見るLiquid AIとは
MIT CSAILの研究者であるRamin Hasani、Mathias Lechner、Alexander Amini、Daniela Rusによって設立されたLiquid AIは、ボストンに拠点を置くAI企業で、3760万ドルのシード資金を得てステルスモードから登場しました。同社は、従来の生成事前学習トランスフォーマー(GPT)を超える新世代の基盤モデルを作成することを専門としています。彼らのアプローチは、生物学、物理学、神経科学、数学、コンピュータサイエンスの基本原則の統合に基づいており、彼らのフラッグシップ製品であるLiquid Foundation Models(LFMs)の開発につながっています。
Liquid AIはどのように機能しますか?
Liquid AIの技術は、ミミズの「脳」に触発された液体ニューラルネットワークに基づいており、動的で適応的な学習システムを特徴としています。従来のトランスフォーマーベースのモデルとは異なり、LFMsは、特徴化相互接続を持つ深さグループに配置されたカスタム計算ユニットを使用しており、ビデオ、オーディオ、テキスト、時系列、信号など、さまざまなタイプの逐次データを処理することができます。同社は、効率的なパフォーマンスを達成するために独自のアーキテクチャを利用したLFMsの3つのバリアント(1B、3B、40B)を発表しました。これらのモデルは、動的システム、数値線形代数、信号処理を組み込んだ独自の設計のおかげで、重要なメモリ影響を与えることなく、最大100万トークンを効率的に処理できます。
Liquid AIのメリット
Liquid AIの技術の主な利点は、従来のモデルと比較して大幅にメモリ要件が削減されていること(GPT-3のようなモデルの700GBに対して1GB未満)、Raspberry Piのような小型デバイスでの展開を可能にする低い電力消費、明示的なトレーニングなしでも変化する状況に対する適応性の向上です。これらのモデルは、最先端のパフォーマンスを維持しながら、解釈可能性と信頼性を向上させています。この効率性とスケーラビリティにより、LFMsはリソースが制約された環境に特に適しており、より大きな言語モデルと比較しても競争力のあるパフォーマンスを提供し、さまざまなアプリケーションや業界でAIを展開する方法を革命的に変える可能性があります。
Liquid AI の月間トラフィック傾向
Liquid AIは、トラフィックが60.1%減少し、訪問数が123.7Kまで落ち込みました。従来の大規模言語モデルを上回る性能を持つLiquid Foundation Models (LFMs)を最近発表したにもかかわらず、この大幅なトラフィック減少は、市場がこれらの新しいモデルをまだ十分に受け入れていない可能性を示唆しています。GoogleやNvidiaなどの確立されたプレーヤーからの市場競争、およびサプライチェーンの問題や投資家の懸念などの幅広い業界トレンドが、この減少に影響を与えた可能性があります。
過去のトラフィックを表示
もっと見る