Liquid AI Introduction
Liquid AI adalah perusahaan spin-off MIT yang mengembangkan Model Fondasi Cair (LFM) yang inovatif menggunakan arsitektur non-transformer untuk mencapai kinerja AI yang mutakhir dengan jejak memori yang lebih kecil dan inferensi yang lebih efisien.
Lihat Lebih BanyakApa itu Liquid AI
Didirikan oleh peneliti MIT CSAIL Ramin Hasani, Mathias Lechner, Alexander Amini, dan Daniela Rus, Liquid AI adalah perusahaan AI yang berbasis di Boston yang muncul dari mode stealth dengan pendanaan awal sebesar $37,6 juta. Perusahaan ini mengkhususkan diri dalam menciptakan generasi baru model dasar yang melampaui Transformer Generatif yang telah dilatih sebelumnya (GPT). Pendekatan mereka didasarkan pada integrasi prinsip-prinsip dasar di seluruh biologi, fisika, ilmu saraf, matematika, dan ilmu komputer, yang mengarah pada pengembangan produk unggulan mereka - Model Fondasi Cair (LFM).
Bagaimana cara kerja Liquid AI?
Teknologi Liquid AI didasarkan pada jaringan saraf cair, yang terinspirasi oleh 'otak' cacing bundar dan memiliki sistem pembelajaran dinamis dan adaptif. Tidak seperti model berbasis transformer tradisional, LFM menggunakan unit komputasi kustom yang diatur dalam kelompok kedalaman dengan interkoneksi fitur, memungkinkan mereka untuk memproses berbagai jenis data berurutan termasuk video, audio, teks, deret waktu, dan sinyal. Perusahaan telah meluncurkan tiga varian LFM (1B, 3B, dan 40B) yang memanfaatkan arsitektur kepemilikan mereka untuk mencapai kinerja yang efisien. Model-model ini dapat menangani hingga 1 juta token secara efisien tanpa dampak memori yang signifikan, berkat desain unik mereka yang menggabungkan sistem dinamis, aljabar linier numerik, dan pemrosesan sinyal.
Manfaat dari Liquid AI
Keuntungan utama dari teknologi Liquid AI termasuk kebutuhan memori yang secara signifikan lebih rendah dibandingkan dengan model tradisional (kurang dari 1GB dibandingkan 700GB untuk model seperti GPT-3), konsumsi daya yang lebih rendah yang memungkinkan penerapan pada perangkat kecil seperti Raspberry Pi, dan peningkatan adaptabilitas terhadap keadaan yang berubah bahkan tanpa pelatihan eksplisit. Model-model ini menawarkan interpretabilitas dan keandalan yang lebih baik sambil mempertahankan kinerja yang mutakhir. Efisiensi dan skalabilitas ini membuat LFM sangat cocok untuk lingkungan yang terbatas sumber daya sambil tetap memberikan kinerja yang kompetitif dibandingkan dengan model bahasa yang lebih besar, yang berpotensi merevolusi cara AI dapat diterapkan di berbagai aplikasi dan industri.
Tren Traffic Bulanan Liquid AI
Liquid AI mengalami penurunan lalu lintas sebesar 60,1%, dengan kunjungan turun menjadi 123,7 ribu. Meskipun baru-baru ini meluncurkan Liquid Foundation Models (LFMs), yang kinerjanya melampaui model bahasa besar tradisional, penurunan lalu lintas yang signifikan ini menunjukkan bahwa pasar mungkin belum sepenuhnya mengadopsi model-model baru ini. Persaingan pasar dari pemain mapan seperti Google dan Nvidia, serta tren industri yang lebih luas seperti masalah rantai pasokan dan kekhawatiran investor, mungkin telah berkontribusi pada penurunan ini.
Lihat riwayat traffic
Artikel Terkait
Lihat Selengkapnya