Liquid AI 介绍
Liquid AI 是一家从 MIT 分拆出来的公司,开发了创新的 Liquid 基础模型(LFMs),使用非变换器架构实现最先进的 AI 性能,同时具有更小的内存占用和更高效的推理。
查看更多什么是 Liquid AI
由 MIT CSAIL 研究人员 Ramin Hasani、Mathias Lechner、Alexander Amini 和 Daniela Rus 创立的 Liquid AI 是一家位于波士顿的 AI 公司,最近从隐身模式中脱颖而出,获得了 3760 万美元的种子资金。该公司专注于创建超越传统生成预训练变换器(GPTs)的新一代基础模型。他们的方法基于生物学、物理学、神经科学、数学和计算机科学的基本原理的整合,从而开发出他们的旗舰产品——Liquid 基础模型(LFMs)。
Liquid AI 是如何工作的?
Liquid AI 的技术基于液体神经网络,这些网络受到线虫‘大脑’的启发,具有动态、自适应的学习系统。与传统的基于变换器的模型不同,LFMs 使用自定义计算单元,这些单元按深度组排列,并通过特征提取器互连,使它们能够处理各种类型的顺序数据,包括视频、音频、文本、时间序列和信号。公司已经推出了三种变体的 LFMs(1B、3B 和 40B),这些变体利用其专有架构实现高效性能。这些模型可以高效处理多达 100 万个标记,而不会对内存产生显著影响,这得益于其独特的设计,结合了动态系统、数值线性代数和信号处理。
Liquid AI 的优势
Liquid AI 技术的关键优势包括与传统模型相比显著减少了内存需求(小于 1GB,而像 GPT-3 这样的模型需要 700GB),更低的功耗允许在小型设备(如 Raspberry Pi)上部署,以及在没有明确训练的情况下对变化情况的更好适应性。这些模型提供了增强的可解释性和可靠性,同时保持了最先进的性能。这种效率和可扩展性使 LFMs 特别适合资源受限的环境,同时仍然提供与大型语言模型相当的性能,有可能彻底改变 AI 在各种应用和行业中的部署方式。
Liquid AI 月度流量趋势
Liquid AI 的流量下降了 60.1%,访问量降至 123.7K。尽管最近推出的 Liquid Foundation Models (LFMs) 性能优于传统大语言模型,但显著的流量下降表明市场可能尚未完全接受这些新模型。来自谷歌和英伟达等老牌企业的市场竞争,以及供应链问题和投资者担忧等更广泛的行业趋势,可能都是导致这种下降的因素。
查看历史流量
查看更多