Imarena.AI
LMArena.ai(前身為 Chatbot Arena)是一個開放的基準測試平台,通過匿名、群眾外包的成對比較和社群投票來評估和比較大型語言模型。
https://lmarena.ai/?utm_source=aipure

產品資訊
更新時間:2025年08月22日
Imarena.AI 每月流量趨勢
Imarena.AI 在7月份達到了780萬訪問量,增長率達67.1%。1億美元種子輪融資和更名為LMArena可能促進了用戶參與度,而新模型和功能的加入,如盲測PK和手動PK,進一步提升了平台的吸引力。
什麼是 Imarena.AI
LMArena.ai 是由加州大學柏克萊分校 SkyLab 的研究人員創建的一個開放平台,使每個人都能夠訪問、探索和與世界領先的人工智慧模型互動。該平台作為大型語言模型 (LLM) 的透明評估系統,通過促進並排比較和收集社群通過投票方式提供的回饋。最初被稱為 Chatbot Arena,它已成為人工智慧行業中的一個重要平台,OpenAI、Anthropic 和 Google 等主要公司通過提供其模型進行評估來參與其中。
Imarena.AI 的主要功能
Imarena.AI(也稱為 LMArena.ai 或 Chatbot Arena)是由加州大學柏克萊分校 SkyLab 研究人員開發的開放基準測試平台,使用戶能夠透過匿名、群眾外包的成對比較和投票來評估和比較大型語言模型。該平台包含主要人工智慧公司的模型,如 GPT-4、Gemini 和 Claude,提供了一個中立的環境,透過社群回饋來測試和排名人工智慧模型。
匿名模型比較: 使用戶能夠並排比較兩個 AI 模型,而無需在投票後才知道它們的身份,從而確保公正的評估
群眾外包投票系統: 收集使用者投票和回饋,以產生不同 AI 模型的綜合效能指標和排名
綜合排行榜: 根據超過 350 萬張使用者投票和多個評估標準,顯示詳細的效能指標和排名
多模式測試: 支援評估各種 AI 功能,包括文字、視覺和圖像編輯功能
Imarena.AI 的使用案例
AI 模型評估: 研究人員和公司可以測試其人工智慧模型,並與市場上其他領先模型進行基準測試
產品開發: 人工智慧公司可以使用該平台進行預覽發布,並在正式發布之前測試即將推出的模型
研究與分析: 學術研究人員可以透過標準化的比較方法來研究和分析人工智慧模型的效能
優點
開放且透明的評估系統
龐大的使用者社群提供回饋
支援多種 AI 模式和功能
缺點
評估方法在學術分析中存在一些已識別的限制
可能在複雜的提示下出現效能問題
如何使用 Imarena.AI
訪問平台: 在您的網頁瀏覽器中前往 lmarena.ai(前身為 Chatbot Arena)
選擇評估模式: 在並排比較模式或其他可用模式(文字、圖像、視覺)之間進行選擇
輸入提示: 輸入您的提示,以隨機戰鬥格式同時測試兩個匿名人工智慧模型
檢閱回應: 檢查兩個人工智慧模型生成的回應,而不知道它們的身份
對效能進行投票: 為提供更好回應的模型投下您的一票
查看結果: 投票後,查看您剛剛比較的模型的身份
查看排行榜: 訪問排行榜部分,以查看基於群眾外包投票的不同人工智慧模型的總體排名
為研究做出貢獻: 繼續參與,通過集體回饋幫助推進人工智慧研究(注意:避免分享個人或敏感資訊)
Imarena.AI 常見問題
Imarena.AI(也稱為 LMArena.ai、LM Arena AI 或 Chatbot Arena,前身為 LMSYS)是一個開放平台,用於通過人類偏好和眾包基準測試來評估 AI,最初由加州大學伯克利分校 SkyLab 的研究人員創建。
官方貼文
載入中...相關文章
Imarena.AI 網站分析
Imarena.AI 流量和排名
7.8M
每月訪問量
#6114
全球排名
#148
類別排名
流量趨勢:Aug 2024-Jul 2025
Imarena.AI 用戶洞察
00:08:22
平均訪問時長
7.02
每次訪問的頁面數
26.44%
用戶跳出率
Imarena.AI 的主要地區
RU: 12.69%
US: 11.38%
IN: 11.13%
CN: 9.66%
PL: 7.59%
Others: 47.55%