Liquid AI Введение
Liquid AI — это компания-спин-офф MIT, разрабатывающая инновационные Liquid Foundation Models (LFMs) с использованием архитектуры, не основанной на трансформерах, для достижения передовых показателей ИИ с меньшим объемом памяти и более эффективной обработкой.
Посмотреть большеЧто такое Liquid AI
Основанная исследователями MIT CSAIL Рамином Хасани, Матиасом Лехнером, Александром Амини и Даниэлой Рус, Liquid AI — это бостонская компания в области ИИ, вышедшая из режима скрытой разработки с привлечением 37,6 миллиона долларов в виде начального финансирования. Компания специализируется на создании нового поколения базовых моделей, которые выходят за рамки традиционных генеративных предобученных трансформеров (GPT). Их подход основан на интеграции фундаментальных принципов биологии, физики, нейронауки, математики и информатики, что привело к разработке их флагманского продукта — Liquid Foundation Models (LFMs).
Как работает Liquid AI?
Технология Liquid AI основана на жидких нейронных сетях, которые вдохновлены 'мозгами' круглых червей и включают динамические, адаптивные системы обучения. В отличие от традиционных моделей на основе трансформеров, LFMs используют пользовательские вычислительные блоки, расположенные в глубинных группах с интерконнектами фичерайзеров, что позволяет им обрабатывать различные типы последовательных данных, включая видео, аудио, текст, временные ряды и сигналы. Компания запустила три варианта LFMs (1B, 3B и 40B), которые используют их собственную архитектуру для достижения эффективной производительности. Эти модели могут обрабатывать до 1 миллиона токенов эффективно без значительного влияния на память, благодаря их уникальному дизайну, который включает динамические системы, численную линейную алгебру и обработку сигналов.
Преимущества Liquid AI
Ключевые преимущества технологии Liquid AI включают значительно уменьшенные требования к памяти по сравнению с традиционными моделями (менее 1 ГБ против 700 ГБ для моделей, таких как GPT-3), меньшее потребление энергии, позволяющее развертывание на малых устройствах, таких как Raspberry Pi, и улучшенную адаптивность к изменяющимся обстоятельствам даже без явного обучения. Модели предлагают улучшенную интерпретируемость и надежность, сохраняя передовые показатели. Эта эффективность и масштабируемость делают LFMs особенно подходящими для ресурсно-ограниченных сред, при этом сохраняя конкурентоспособную производительность по сравнению с более крупными моделями языка, потенциально революционизируя способы развертывания ИИ в различных приложениях и отраслях.
Тенденции ежемесячного трафика Liquid AI
Liquid AI испытал 60.1% падение трафика, при этом количество посещений снизилось до 123.7K. Несмотря на недавний запуск Liquid Foundation Models (LFMs), которые превосходят традиционные большие языковые модели, значительное падение трафика предполагает, что рынок, возможно, еще не полностью принял эти новые модели. Рыночная конкуренция со стороны признанных игроков, таких как Google и Nvidia, а также более широкие отраслевые тенденции, такие как проблемы с цепочками поставок и опасения инвесторов, могли способствовать этому снижению.
Посмотреть историю трафика
Похожие статьи
Популярные статьи
Claude 3.5 Haiku: Самая быстрая AI-модель от Anthropic уже доступна
Dec 13, 2024
Uhmegle против Chatroulette: Битва платформ случайных чатов
Dec 13, 2024
Обновление Google Gemini 2.0 основывается на Gemini Flash 2.0
Dec 12, 2024
ChatGPT в настоящее время недоступен: Что случилось и что дальше?
Dec 12, 2024
Показать больше