OpenAI近日在其“OpenAI 12天”系列活動中迎來了第九天的重大更新,正式向部分開發者開放了其名為o1的“推理”人工智能模型API。同時,該公司還發布了一系列其他開發者工具的更新,包括GPT-4o、實時API以及微調API等。
據悉,首批獲得o1 API訪問權限的開發者為OpenAI的“第五級”用戶,這一級別要求開發者在平臺上累計消費至少1000美元,并且賬戶自首次成功付款以來已超過30天。o1 API的推出取代了之前的o1-preview模型,標志著OpenAI在推理模型技術上的進一步推進。
o1模型的一大特點是其自我事實核查能力,這使它能夠有效避免一些常見的人工智能錯誤。然而,這種推理模型也伴隨著較高的計算成本和更長的響應時間。OpenAI對o1的收費政策是,每分析約75萬字收取15美元,每生成約75萬字則收取60美元,這一費用是其最新“非推理”模型GPT-4o的六倍。
與o1-preview相比,o1 API在功能和可定制性上有了顯著提升。新增的功能包括函數調用、開發者消息以及圖像分析等,這使得模型能夠更靈活地適應各種應用場景。o1還提供了一個名為“reasoning_effort”的API參數,允許開發者控制模型在回答問題前的思考時間,從而進一步優化輸出結果。
OpenAI表示,o1模型已經過“新近的后訓練”,并發布了版本號“o1-2024-12-17”。與兩周前在ChatGPT中發布的o1模型相比,新版本在多個方面進行了改進,但具體細節并未透露。OpenAI正在逐步擴大訪問權限,并計劃覆蓋更多用戶級別,同時提高速率限制。公司表示,最新的o1模型在編程和商業相關問題上能夠提供更全面、更準確的回答,并且不太可能錯誤地拒絕請求。
在實時API方面,OpenAI也發布了新版本的GPT-4o和GPT-4o mini模型。這些模型作為實時API的一部分,旨在構建具有低延遲、人工智能生成語音響應的應用程序。新模型擁有更高的數據效率和可靠性,并且使用成本更低。實時API目前仍處于測試階段,但已經獲得了多項新功能,如并發的帶外響應和WebRTC支持。
WebRTC的集成使得OpenAI能夠在網絡質量不穩定的情況下,實現流暢且響應迅速的交互。這一功能對于基于瀏覽器的客戶端、智能手機和物聯網設備上的實時語音應用程序尤為重要。OpenAI在12月初聘請了WebRTC的創建者Justin Uberti,以加強其在實時通信技術方面的實力。
最后,OpenAI還為其微調API引入了偏好微調功能。這一功能通過比較模型響應的配對,來教導模型區分對問題的首選答案和“非首選”答案。公司還推出了針對Go和Java的官方軟件開發工具包“早期訪問”測試版,以進一步擴展其開發者生態。