
OpenAI WebSocket Mode for Responses API
Chế độ OpenAI WebSocket cho API Phản hồi là một giải pháp dựa trên kết nối liên tục, cho phép các quy trình làm việc đại lý chạy dài, độ trễ thấp với các đầu vào gia tăng và xử lý lệnh gọi công cụ hiệu quả.
https://developers.openai.com/api/docs/guides/websocket-mode?ref=producthunt&utm_source=aipure

Thông tin Sản phẩm
Đã cập nhật:Mar 2, 2026
OpenAI WebSocket Mode for Responses API là gì
Chế độ OpenAI WebSocket là một chế độ truyền tải chuyên dụng trong API Phản hồi được thiết kế cho các quy trình làm việc AI phức tạp, đòi hỏi tương tác mô hình-công cụ thường xuyên. Nó thiết lập kết nối WebSocket liên tục đến điểm cuối /v1/responses, cho phép các nhà phát triển duy trì giao tiếp liên tục giữa các ứng dụng của họ và các mô hình của OpenAI. Chế độ này hoàn toàn tương thích với các tùy chọn Zero Data Retention (ZDR) và store=false, làm cho nó phù hợp cho cả triển khai có trạng thái và không trạng thái trong khi vẫn duy trì các yêu cầu về quyền riêng tư dữ liệu.
Các Tính năng Chính của OpenAI WebSocket Mode for Responses API
Chế độ WebSocket của OpenAI cho API Phản hồi là một giao thức giao tiếp chuyên biệt cho phép các kết nối liên tục cho các quy trình làm việc kéo dài và sử dụng nhiều lệnh gọi công cụ. Nó duy trì bộ nhớ cache cục bộ kết nối trong bộ nhớ cho phản hồi gần đây nhất, cho phép khách hàng chỉ gửi các đầu vào gia tăng với previous_response_id thay vì gửi lại toàn bộ ngữ cảnh mỗi lần. Chế độ này có thể cải thiện tốc độ thực thi từ đầu đến cuối lên đến 40% cho các quy trình làm việc với hơn 20 lệnh gọi công cụ trong khi vẫn tương thích với các tùy chọn Zero Data Retention (ZDR) và store=false.
Kết nối Liên tục: Duy trì một kết nối WebSocket duy nhất trong tối đa 60 phút, loại bỏ nhu cầu thiết lập các kết nối HTTP mới cho mỗi tương tác
Xử lý Đầu vào Gia tăng: Cho phép chỉ gửi các mục đầu vào mới cộng với previous_response_id thay vì gửi lại toàn bộ ngữ cảnh hội thoại
Bộ nhớ Cache Cục bộ Kết nối: Duy trì trạng thái phản hồi gần đây nhất trong bộ nhớ để truy cập nhanh hơn trong khi vẫn tương thích với các yêu cầu Zero Data Retention
Yêu cầu Khởi động Tùy chọn: Hỗ trợ các yêu cầu generate:false để chuẩn bị trạng thái phía máy chủ trước, giảm độ trễ cho các lượt tiếp theo
Các Trường hợp Sử dụng của OpenAI WebSocket Mode for Responses API
Phát triển Mã được Hỗ trợ bởi AI: Cho phép các quy trình làm việc hỗ trợ mã hóa hiệu quả, trong đó các tác nhân AI thực hiện nhiều lệnh gọi công cụ tuần tự để đọc tệp, viết mã và kiểm tra
Quy trình Tự động hóa Phức tạp: Hỗ trợ các tác vụ tự động hóa kéo dài yêu cầu nhiều tương tác công cụ và các bước điều phối với độ trễ giảm
Hệ thống Suy luận Đa bước: Tạo điều kiện cho các tình huống giải quyết vấn đề phức tạp, trong đó AI cần đưa ra nhiều quyết định tuần tự và lệnh gọi công cụ
Quy trình làm việc của Tác nhân theo Thời gian Thực: Cung cấp năng lượng cho các tác nhân AI tương tác cần duy trì ngữ cảnh trong khi thực hiện nhiều hành động để đáp ứng đầu vào của người dùng
Ưu điểm
Giảm đáng kể độ trễ cho các quy trình làm việc sử dụng nhiều công cụ (nhanh hơn đến 40%)
Giảm mức sử dụng băng thông bằng cách chỉ gửi các bản cập nhật gia tăng
Tương thích với các tính năng bảo mật hiện có như ZDR và store=false
Nhược điểm
Giới hạn thời lượng kết nối 60 phút yêu cầu kết nối lại
Không hỗ trợ xử lý phản hồi song song trong một kết nối duy nhất
Yêu cầu xử lý lỗi bổ sung để quản lý và khôi phục kết nối
Cách Sử dụng OpenAI WebSocket Mode for Responses API
Cài đặt các phụ thuộc cần thiết: Cài đặt thư viện websocket-client cho Python bằng cách sử dụng: pip install websocket-client
Nhập thư viện: Nhập các thư viện cần thiết: websocket, json và os cho các biến môi trường
Tạo kết nối WebSocket: Thiết lập kết nối WebSocket đến điểm cuối OpenAI 'wss://api.openai.com/v1/responses' với khóa API trong tiêu đề
Gửi sự kiện Tạo phản hồi ban đầu: Gửi sự kiện response.create đầu tiên với model, cờ store, thông báo đầu vào ban đầu và mảng tools. Không bao gồm các trường stream hoặc background
Tùy chọn: Khởi động trạng thái yêu cầu: Tùy chọn gửi response.create với generate:false để chuẩn bị trạng thái máy chủ cho các yêu cầu sắp tới mà không tạo ra đầu ra
Tiếp tục cuộc trò chuyện: Gửi các sự kiện response.create tiếp theo với previous_response_id và chỉ các mục đầu vào mới (đầu ra công cụ, tin nhắn mới)
Xử lý giới hạn kết nối: Theo dõi giới hạn kết nối 60 phút và kết nối lại khi cần thiết. Chỉ có thể có một phản hồi đang hoạt động tại một thời điểm
Xử lý kết nối lại: Khi kết nối lại: tiếp tục với previous_response_id (nếu store=true), bắt đầu phản hồi mới hoặc sử dụng ngữ cảnh được nén từ /responses/compact
Xử lý lỗi: Xử lý các lỗi previous_response_not_found và websocket_connection_limit_reached một cách thích hợp
Đóng kết nối: Đóng kết nối WebSocket khi hoàn tất bằng cách sử dụng ws.close()
Câu hỏi Thường gặp về OpenAI WebSocket Mode for Responses API
Chế độ WebSocket là một tính năng của API Phản hồi của OpenAI cho phép các kết nối liên tục cho các quy trình làm việc kéo dài và sử dụng nhiều lệnh gọi công cụ. Lợi ích chính của nó bao gồm giảm chi phí tiếp tục trên mỗi lượt và cải thiện độ trễ đầu cuối trên các chuỗi dài. Đối với các quy trình làm việc với hơn 20 lệnh gọi công cụ, nó có thể đạt được tốc độ thực thi đầu cuối nhanh hơn tới 40%.
Video OpenAI WebSocket Mode for Responses API
Bài viết phổ biến

Hướng dẫn sử dụng Atoms 2026: Xây dựng Bảng điều khiển SaaS hoàn chỉnh trong 20 phút (Thực hành với AIPURE)
Mar 2, 2026

Các Công Cụ AI Phổ Biến Nhất Năm 2025 | Bản Cập Nhật 2026 từ AIPURE
Feb 10, 2026

Moltbook AI: Mạng xã hội Dành cho AI Thuần túy Đầu tiên của Năm 2026
Feb 5, 2026

ThumbnailCreator: Công cụ AI giải quyết nỗi lo lắng về hình thu nhỏ trên YouTube của bạn (2026)
Jan 16, 2026







