Cerebras Introduction
Cerebras Systems adalah perusahaan komputasi AI perintis yang membangun prosesor AI terbesar dan tercepat di dunia - Wafer Scale Engine (WSE) - yang dirancang untuk mempercepat pelatihan dan beban kerja inferensi AI.
Lihat Lebih BanyakApa itu Cerebras
Didirikan pada tahun 2015, Cerebras Systems adalah perusahaan kecerdasan buatan Amerika yang berkantor pusat di Sunnyvale, dengan kantor di San Diego, Toronto, dan Bangalore. Perusahaan ini mengkhususkan diri dalam mengembangkan chip komputer skala wafer yang revolusioner dan sistem AI untuk aplikasi pembelajaran mendalam yang kompleks. Produk unggulan mereka, Cerebras Wafer Scale Engine (WSE), adalah chip komputer terbesar yang pernah dibangun, sekitar ukuran piring makan malam, yang mengandung lebih dari 1,2 triliun transistor. Perusahaan baru-baru ini mengajukan permohonan untuk IPO dan dinilai lebih dari $4 miliar, menandai posisinya yang signifikan di pasar perangkat keras AI.
Bagaimana cara kerja Cerebras?
Teknologi Cerebras berpusat pada Wafer Scale Engine (WSE) dan sistem CS-nya, yang mengintegrasikan komputasi, memori, dan jaringan interkoneksi ke dalam satu chip besar. Berbeda dengan GPU tradisional yang kesulitan memindahkan data antara memori dan inti komputasi, arsitektur Cerebras menyimpan semua lapisan model langsung di chip, memungkinkan pemrosesan yang jauh lebih cepat. Chip WSE-3 terbaru memberikan 125 petaflops daya komputasi dan memiliki 44GB memori SRAM on-chip dengan bandwidth 21 PB/s. Melalui layanan Inferensi Cerebras mereka, mereka menawarkan akses ke teknologi mereka melalui API, memungkinkan pengembang menjalankan model AI seperti LLaMA 3.1 dari Meta dengan kecepatan hingga 2.100 token per detik - jauh lebih cepat dibandingkan solusi berbasis GPU.
Manfaat Cerebras
Solusi Cerebras menawarkan beberapa keuntungan utama: ia memberikan kinerja hingga 20x lebih cepat dibandingkan alternatif berbasis GPU sambil menggunakan hanya satu per enam konsumsi daya; ia mempertahankan akurasi mutakhir dengan tetap berada di domain 16-bit untuk inferensi; ia menghilangkan kompleksitas komputasi terdistribusi karena seluruh model muat di satu chip; dan ia menyediakan solusi yang hemat biaya dengan biaya inferensi yang dilaporkan sepertiga dari platform cloud tradisional. Keuntungan ini membuatnya sangat menarik bagi pengembang yang bekerja pada aplikasi AI waktu nyata atau volume tinggi, terutama di sektor seperti kesehatan, energi, dan komputasi ilmiah.
Artikel Terkait
Artikel Populer
Black Forest Labs Memperkenalkan FLUX.1 Tools: Toolkit Generator Gambar AI Terbaik
Nov 22, 2024
Microsoft Ignite 2024: Memperkenalkan Azure AI Foundry Membuka Revolusi AI
Nov 21, 2024
OpenAI Meluncurkan ChatGPT Advanced Voice Mode di Web
Nov 20, 2024
Platform Chat Multi-AI AnyChat Menampilkan ChatGPT, Gemini, Claude dan Lainnya
Nov 19, 2024
Lihat Selengkapnya