什麼是 Collaborative Language Model Runner
Petals 是一個創新的框架,允許使用者協作運行和微調參數超過 1000 億的大型語言模型(LLMs)。作為 BigScience 專案的一部分開發,Petals 旨在通過建立一個去中心化的網絡,使用者可以在其中貢獻其計算資源,從而實現對 BLOOM-176B 等強大 LLMs 的民主化訪問。該系統克服了通常阻止個別研究人員使用如此龐大模型的硬體限制,使先進的 NLP 能力更易於廣泛受眾使用。
Collaborative Language Model Runner 如何運作?
Petals 通過將大型語言模型分割成較小的部分,並將其分散到多個使用者的設備上來運作。當使用者想要運行推理或微調模型時,他們只需在本地加載模型的一小部分,並與其他使用者托管的剩餘部分連接。這創建了一個協作的快速互動模型執行管道。該系統透明地處理形成服務器鏈、維護緩存和從故障中恢復的複雜性。Petals 建立在 PyTorch 和 Hugging Face Transformers 之上,允許使用者採用各種微調和採樣方法,執行自定義模型路徑,並訪問隱藏狀態——提供了類似 API 的便利性和本地執行的靈活性。
Collaborative Language Model Runner 的好處
Petals 為從事大型語言模型研究與開發的研究人員和開發者提供了多項關鍵優勢。它使得使用者無需昂貴的硬體即可接觸到最先進的大型語言模型(LLMs),從而實現了人工智慧研究的民主化。該系統提供的靈活性超過了典型的 API,允許使用者微調模型、訪問內部狀態並實施自定義演算法。Petals 支援推理和訓練任務,使其適用於各種自然語言處理(NLP)應用。透過利用分散式計算,它相比於卸載技術實現了更快的處理速度。此外,Petals 培育了一個協作生態系統,使用者可以在其中貢獻資源並可能共同改進模型,推動自然語言處理領域的發展。
查看更多