Cerebras Giới thiệu
Cerebras Systems là một công ty tiên phong trong lĩnh vực tính toán AI, xây dựng bộ xử lý AI lớn nhất và nhanh nhất thế giới - Wafer Scale Engine (WSE) - được thiết kế để tăng tốc độ đào tạo và khối lượng công việc suy diễn AI.
Xem thêmCerebras là gì
Được thành lập vào năm 2015, Cerebras Systems là một công ty trí tuệ nhân tạo của Mỹ có trụ sở tại Sunnyvale, với các văn phòng ở San Diego, Toronto và Bangalore. Công ty chuyên phát triển các chip máy tính quy mô wafer cách mạng và các hệ thống AI cho các ứng dụng học sâu phức tạp. Sản phẩm chủ lực của họ, Cerebras Wafer Scale Engine (WSE), là chip máy tính lớn nhất từng được chế tạo, có kích thước khoảng bằng một đĩa ăn tối, chứa hơn 1,2 triệu bóng bán dẫn. Công ty gần đây đã nộp đơn IPO và được định giá hơn 4 tỷ đô la, đánh dấu vị trí quan trọng của nó trong thị trường phần cứng AI.
Cerebras hoạt động như thế nào?
Công nghệ của Cerebras tập trung vào Wafer Scale Engine (WSE) và các hệ thống CS, tích hợp tính toán, bộ nhớ và vải kết nối vào một chip khổng lồ duy nhất. Khác với các GPU truyền thống gặp khó khăn trong việc di chuyển dữ liệu giữa bộ nhớ và lõi tính toán, kiến trúc của Cerebras giữ tất cả các lớp mô hình được lưu trữ trực tiếp trên chip, cho phép xử lý nhanh hơn nhiều. Chip WSE-3 mới nhất cung cấp 125 petaflops sức mạnh tính toán và có 44GB bộ nhớ SRAM trên chip với băng thông 21 PB/s. Thông qua dịch vụ Suy diễn của Cerebras, họ cung cấp quyền truy cập vào công nghệ của họ qua API, cho phép các nhà phát triển chạy các mô hình AI như LLaMA 3.1 của Meta với tốc độ lên tới 2.100 token mỗi giây - nhanh hơn đáng kể so với các giải pháp dựa trên GPU.
Lợi ích của Cerebras
Giải pháp của Cerebras mang lại một số lợi thế chính: nó cung cấp hiệu suất nhanh hơn tới 20 lần so với các lựa chọn dựa trên GPU trong khi chỉ tiêu tốn một phần sáu mức tiêu thụ điện năng; nó duy trì độ chính xác tiên tiến nhất bằng cách giữ trong miền 16-bit cho suy diễn; nó loại bỏ sự phức tạp của tính toán phân tán vì toàn bộ mô hình vừa vặn trên một chip; và nó cung cấp các giải pháp tiết kiệm chi phí với chi phí suy diễn được báo cáo là một phần ba so với các nền tảng đám mây truyền thống. Những lợi ích này khiến nó trở nên đặc biệt hấp dẫn đối với các nhà phát triển làm việc trên các ứng dụng AI thời gian thực hoặc khối lượng lớn, đặc biệt trong các lĩnh vực như chăm sóc sức khỏe, năng lượng và tính toán khoa học.
Bài viết liên quan
Bài viết phổ biến
Black Forest Labs Ra Mắt FLUX.1 Tools: Bộ Công Cụ Tạo Ảnh AI Tốt Nhất
Nov 22, 2024
Microsoft Ignite 2024: Giới thiệu Azure AI Foundry Mở khóa Cuộc cách mạng AI
Nov 21, 2024
OpenAI Ra Mắt ChatGPT Advanced Voice Mode Trên Nền Tảng Web
Nov 20, 2024
Nền tảng đa trí tuệ nhân tạo AnyChat tích hợp ChatGPT, Gemini, Claude và nhiều hơn nữa
Nov 19, 2024
Xem thêm