Liquid AI Giới thiệu
Liquid AI là một công ty khởi nghiệp từ MIT phát triển các Mô hình Nền tảng Lỏng (LFMs) sáng tạo sử dụng kiến trúc không phải transformer để đạt được hiệu suất AI hàng đầu với yêu cầu bộ nhớ nhỏ hơn và suy diễn hiệu quả hơn.
Xem thêmLiquid AI là gì
Được thành lập bởi các nhà nghiên cứu MIT CSAIL Ramin Hasani, Mathias Lechner, Alexander Amini, và Daniela Rus, Liquid AI là một công ty AI có trụ sở tại Boston, đã ra mắt từ chế độ bí mật với 37,6 triệu đô la tài trợ ban đầu. Công ty chuyên tạo ra một thế hệ mô hình nền tảng mới vượt qua các Generative Pre-trained Transformers (GPTs) truyền thống. Cách tiếp cận của họ dựa trên việc tích hợp các nguyên tắc cơ bản trong sinh học, vật lý, thần kinh học, toán học và khoa học máy tính, dẫn đến sự phát triển của sản phẩm chủ lực của họ - Mô hình Nền tảng Lỏng (LFMs).
Liquid AI hoạt động như thế nào?
Công nghệ của Liquid AI dựa trên mạng nơ-ron lỏng, được lấy cảm hứng từ 'não' của giun tròn và có các hệ thống học tập động, thích ứng. Khác với các mô hình dựa trên transformer truyền thống, LFMs sử dụng các đơn vị tính toán tùy chỉnh được sắp xếp theo các nhóm độ sâu với các kết nối tính năng, cho phép chúng xử lý nhiều loại dữ liệu tuần tự khác nhau bao gồm video, âm thanh, văn bản, chuỗi thời gian và tín hiệu. Công ty đã ra mắt ba biến thể của LFMs (1B, 3B và 40B) sử dụng kiến trúc độc quyền của họ để đạt được hiệu suất hiệu quả. Những mô hình này có thể xử lý lên đến 1 triệu token một cách hiệu quả mà không ảnh hưởng đáng kể đến bộ nhớ, nhờ vào thiết kế độc đáo của chúng kết hợp các hệ thống động, đại số tuyến tính số và xử lý tín hiệu.
Lợi ích của Liquid AI
Những lợi thế chính của công nghệ Liquid AI bao gồm yêu cầu bộ nhớ giảm đáng kể so với các mô hình truyền thống (dưới 1GB so với 700GB cho các mô hình như GPT-3), tiêu thụ điện năng thấp cho phép triển khai trên các thiết bị nhỏ như Raspberry Pi, và khả năng thích ứng cải thiện với các hoàn cảnh thay đổi ngay cả khi không có đào tạo rõ ràng. Các mô hình cung cấp khả năng giải thích và độ tin cậy cao hơn trong khi vẫn duy trì hiệu suất hàng đầu. Hiệu quả và khả năng mở rộng này làm cho LFMs đặc biệt phù hợp cho các môi trường bị hạn chế tài nguyên trong khi vẫn cung cấp hiệu suất cạnh tranh so với các mô hình ngôn ngữ lớn hơn, có khả năng cách mạng hóa cách AI có thể được triển khai trên nhiều ứng dụng và ngành công nghiệp khác nhau.
Xu hướng Lưu lượng Truy cập Hàng tháng của Liquid AI
Liquid AI đã trải qua sự sụt giảm 60,1% về lưu lượng truy cập, với số lượt truy cập giảm xuống còn 123,7K. Mặc dù gần đây đã ra mắt Các Mô hình Nền tảng Liquid (LFMs), vượt trội hơn các mô hình ngôn ngữ lớn truyền thống, sự sụt giảm đáng kể về lưu lượng truy cập cho thấy thị trường có thể chưa hoàn toàn chấp nhận những mô hình mới này. Cạnh tranh thị trường từ các công ty lớn như Google và Nvidia, cũng như các xu hướng ngành rộng hơn như vấn đề chuỗi cung ứng và những lo ngại của nhà đầu tư, có thể đã góp phần vào sự sụt giảm này.
Xem lịch sử lưu lượng truy cập
Bài viết liên quan
Bài viết phổ biến
Claude 3.5 Haiku: Mô hình AI nhanh nhất của Anthropic đã ra mắt
Dec 13, 2024
Uhmegle và Chatroulette: Cuộc chiến của các nền tảng trò chuyện ngẫu nhiên
Dec 13, 2024
Bản cập nhật Google Gemini 2.0 xây dựng trên nền tảng Gemini Flash 2.0
Dec 12, 2024
ChatGPT Hiện Đang Không Khả Dụng: Chuyện Gì Đã Xảy Ra và Điều Gì Tiếp Theo?
Dec 12, 2024
Xem thêm