Liquid AI 介紹
Liquid AI 是一家從 MIT 分離出來的公司,開發了創新性的 Liquid Foundation Models (LFMs),使用非變換器架構,以較小的記憶體佔用和更高效的推理實現最先進的 AI 性能。
查看更多什麼是 Liquid AI
由 MIT CSAIL 研究員 Ramin Hasani、Mathias Lechner、Alexander Amini 和 Daniela Rus 創立的 Liquid AI 是一家總部位於波士頓的 AI 公司,最近以 3760 萬美元的種子資金脫離隱秘模式。該公司專門研發新一代基礎模型,超越傳統的生成預訓練變換器(GPTs)。他們的方法基於生物學、物理學、神經科學、數學和計算機科學的基本原理的整合,開發出其旗艦產品 - Liquid Foundation Models (LFMs)。
Liquid AI 如何運作?
Liquid AI 的技術基於液態神經網絡,這些網絡受到線蟲『大腦』的啟發,具有動態、自適應的學習系統。與傳統的變換器基模型不同,LFMs 使用自定義計算單元,按深度組排列,並具有特徵化器互連,使它們能夠處理包括視頻、音頻、文本、時間序列和信號在內的各種類型的序列數據。該公司已推出三種 LFM 變體(1B、3B 和 40B),利用其專有架構實現高效性能。這些模型可以高效處理多達 100 萬個令牌,而不會對記憶體產生顯著影響,這要歸功於其獨特的設計,融合了動態系統、數值線性代數和信號處理。
Liquid AI 的好處
Liquid AI 技術的主要優勢包括與傳統模型相比顯著降低了記憶體需求(小於 1GB,而像 GPT-3 這樣的模型需要 700GB),更低的功耗使得可以在小型設備如 Raspberry Pi 上部署,以及在沒有明確訓練的情況下仍能適應不斷變化的環境。這些模型提供了增強的可解釋性和可靠性,同時保持了最先進的性能。這種效率和可擴展性使 LFMs 尤其適合資源受限的環境,同時仍能提供與大型語言模型競爭的性能,有可能改變 AI 在各種應用和行業中的部署方式。
Liquid AI 每月流量趨勢
Liquid AI 的流量經歷了60.1%的下降,訪問量降至123.7K。儘管最近推出了優於傳統大型語言模型的Liquid Foundation Models (LFMs),但顯著的流量下降表明市場可能尚未完全接受這些新模型。來自 Google 和 Nvidia 等知名企業的市場競爭,以及供應鏈問題和投資者擔憂等更廣泛的行業趨勢,可能都是導致這種下降的因素。
查看歷史流量
查看更多