Liquid AI 소개
Liquid AI는 비변환기 아키텍처를 사용하여 혁신적인 Liquid Foundation Models (LFM)을 개발하여 더 작은 메모리 풋프린트와 더 효율적인 추론으로 최첨단 AI 성능을 달성하는 MIT 스핀오프 회사입니다.
더 보기Liquid AI이란?
MIT CSAIL 연구원인 Ramin Hasani, Mathias Lechner, Alexander Amini, Daniela Rus에 의해 설립된 Liquid AI는 3,760만 달러의 시드 자금을 확보하고 스텔스 모드에서 벗어난 보스턴 기반 AI 회사입니다. 이 회사는 전통적인 생성적 사전 훈련 변환기(GPT)를 넘어서는 새로운 세대의 기초 모델을 만드는 데 전문화되어 있습니다. 그들의 접근 방식은 생물학, 물리학, 신경 과학, 수학 및 컴퓨터 과학의 기본 원리를 통합하는 데 기반을 두고 있으며, 이를 통해 그들의 주력 제품인 Liquid Foundation Models (LFM)을 개발하게 되었습니다.
Liquid AI은 어떻게 작동하나요?
Liquid AI의 기술은 액체 신경망에 기반하고 있으며, 이는 선충의 '뇌'에서 영감을 받아 동적이고 적응적인 학습 시스템을 특징으로 합니다. 전통적인 변환기 기반 모델과 달리 LFM은 피처라이저 상호 연결이 있는 깊이 그룹으로 배열된 사용자 정의 계산 단위를 사용하여 비디오, 오디오, 텍스트, 시계열 및 신호를 포함한 다양한 유형의 순차적 데이터를 처리할 수 있습니다. 이 회사는 효율적인 성능을 달성하기 위해 독점 아키텍처를 활용하는 LFM의 세 가지 변형(1B, 3B 및 40B)을 출시했습니다. 이러한 모델은 동적 시스템, 수치 선형 대수 및 신호 처리를 통합한 독특한 설계 덕분에 상당한 메모리 영향을 주지 않고 최대 100만 개의 토큰을 효율적으로 처리할 수 있습니다.
Liquid AI의 이점
Liquid AI 기술의 주요 이점은 전통적인 모델에 비해 메모리 요구 사항이 크게 줄어든 점(예: GPT-3와 같은 모델의 경우 700GB에 비해 1GB 미만), Raspberry Pi와 같은 소형 장치에서 배포할 수 있도록 하는 낮은 전력 소비, 명시적인 훈련 없이도 변화하는 상황에 대한 적응력이 향상된 점입니다. 이 모델은 최첨단 성능을 유지하면서 해석 가능성과 신뢰성을 향상시킵니다. 이러한 효율성과 확장성 덕분에 LFM은 자원이 제한된 환경에 특히 적합하며, 여전히 더 큰 언어 모델에 비해 경쟁력 있는 성능을 제공합니다. 이는 AI가 다양한 응용 프로그램과 산업 전반에 걸쳐 배포되는 방식을 혁신할 가능성이 있습니다.
Liquid AI 월간 트래픽 동향
Liquid AI는 트래픽이 60.1% 감소하여 방문자 수가 123.7K로 떨어졌습니다. 기존의 대규모 언어 모델보다 성능이 우수한 Liquid Foundation Models (LFMs)의 최근 출시에도 불구하고, 큰 폭의 트래픽 감소는 시장이 아직 이러한 새로운 모델을 완전히 수용하지 않았을 수 있음을 시사합니다. Google과 Nvidia와 같은 기존 업체들의 시장 경쟁과 공급망 문제 및 투자자 우려와 같은 광범위한 산업 트렌드가 이러한 감소에 영향을 미쳤을 수 있습니다.
과거 트래픽 보기
더 보기