2 月 1 日消息,雖然 AI 研究公司 OpenAI 通過 AI 聊天機器人 ChatGPT 激發了公眾的想象力,但歸根結底,這項技術可能不會改變科技巨頭之間的力量平衡。谷歌等科技巨頭將從所謂的生成式 AI(AIGC)中獲益更多,而不是 OpenAI 這樣的創企。

圖源 Pexels
以下是翻譯內容:
在斥資數十億美元進行 AI 研發和收購之后,谷歌將風頭拱手讓給了 OpenAI。這家 AI 領域的后起之秀發布了令人驚訝的 AI 聊天機器人 ChatGPT,其公開測試激發了公眾無窮的想象力。谷歌現在擔心 ChatGPT AI 可能會重塑被其視為基石的搜索業務。
但早在 2017 年,谷歌就宣稱自己是一家“AI 優先”公司,可能繼續在 AI 領域占據重要地位。谷歌對 AI 的投資可以追溯到 21 世紀初,此舉可能會為其帶來豐厚回報,甚至可能推動該公司下一個 25 年高速增長。谷歌今年已經成立 25 年。
OpenAI 通過讓自然語言處理(NLP)模型變得更強大,并向它們提供大量的訓練數據,從而增強了自然語言處理模型的能力。這些數據是從互聯網上的免費電子書、維基頁面、討論板和同人小說中挑選出來的。不過,OpenAI 并沒有發明支持 ChatGPT 的 NLP 模型。GPT 是“生成性預先訓練轉換器”(generative pretrained transformer)的縮寫,谷歌在 2018 年以 BERT(雙向編碼器)為基礎開發了轉換器語言模型,現在使用它來增強其搜索和翻譯能力。
但在 BERT 之后,谷歌并沒有停止對 NLP 的研究。事實上,谷歌聲稱其已經開發出名為 LaMDA 的 NLP 聊天機器人,它比 ChatGPT 更強大,谷歌工程師甚至稱其擁有感知能力。谷歌姊妹公司 DeepMind 也在考慮在今年晚些時候發布名為 Sparrow 的 AI 聊天機器人,谷歌的 AI 圖像生成器 Imagen 據說將與 OpenAI 的 Dall-E 2 競爭。
到目前為止,谷歌在向公眾提供這些 AI 工具方面始終較為謹慎。這并不令人感到特別驚訝。畢竟,谷歌的規模比 OpenAI 大得多,任何 AI 失誤都會給谷歌帶來更大的損失。谷歌認為,生成式 AI 依然是一項不成熟的技術,其風險仍有待評估。該公司擔心,如果其 AI 工具侵犯某人的隱私或版權,抑或是造成某種形式的壟斷,可能會引發反壟斷訴訟,并需要承擔法律責任。
但谷歌也從 AI 研究中獲益良多,并已著手提供新的、基于 AI 技術支持的功能。該公司的做法始終是使用其基礎型 AI 模型在后臺運行,以更好地支持其應用程序和服務。
重塑搜索功能
搜索就是個很好的例子。谷歌已經在使用 BERT 語言模型來解釋用戶在搜索欄中鍵入關鍵字和短語背后的意圖。BERT 被設計從文本中推斷含義,但更高級的語言模型(如生成式 AI 模型)可以用 ChatGPT 生成用戶問題文本答案的方式構建搜索結果。谷歌搜索可能不再僅僅提供一長串相關性較低的鏈接(伴隨著廣告),而是生成一段完整的敘述直接回答搜索者的問題,輔之以圖片、視頻、統計數據和鏈接等。
事實上,谷歌很久之前就致力于研究這種生成式搜索方法了,其多任務統一模型(MUM)旨在幫助用戶處理復雜或多方面的搜索請求。例如,用戶可能會說或輸入“去西藏旅行需要做哪些準備?”MUM 將推斷查詢中包含的所有問題,然后生成多媒體信息包,里面包括解決所有問題和更多問題的方案。
谷歌還有一個優勢,它擁有對網絡及其海量內容進行長期抓取和編目的經驗。該公司或許能夠讓其模型訪問更多、更高質量的培訓數據,這可能有助于開發令人印象深刻的 AI 應用程序和服務,而不會產生錯誤或有毒的內容。
Google Brain 團隊前負責人、AI 創企 Landing AI 創始人兼首席執行官吳恩達說:“我確實認為像 ChatGPT 這樣的大型語言模型可能會顛覆網絡搜索業務。”但他隨后立即補充說,讓搜索變成與 AI 模型自由對話模式并非易事:如何利用網上海量的內容培訓真正有用的 NLP 模型?如何開發用于培訓模型的數據?還有如何貨幣化的問題。
吳恩達繼續稱:“谷歌商業模式的核心動力是提供鏈接,并在結果旁邊安置廣告鏈接。那么,如果谷歌現在只是直接通過 AI 模型提供答案,這對廣告商業模式會有什么影響?我認為這些都是非常復雜的問題。”
對于谷歌來說,將生成式 AI 模型整合到其生產力應用中可能更為簡單。例如,這項技術可以用來幫助 Gmail 用戶起草消息,或幫助 Docs 用戶撰寫文檔或演示文稿,抑或為 Meet 用戶提供視頻聊天摘要。
OpenAI 與微軟合作
直到最近,OpenAI 和谷歌之間的競爭看起來還像是大衛與巨人歌利亞的戰斗:一個靈活的小公司用新穎的顛覆性技術威脅著長期存在的科技巨頭。OpenAI 可能已經決定向公眾開放 ChatGPT,希望保持這種印象,并提高公眾形象,或許還能吸引更多的投資資金。
這一策略似乎奏效了。OpenAI 已經與微軟建立了分銷合作伙伴關系,后者最近宣布擴大合作關系,額外追加 100 億美元投資。微軟現在擁有 OpenAI 的大量股份,并打算將這項技術內置到其必應搜索引擎以及生產力應用程序中。
正因為如此,Index Ventures 合伙人邁克?沃爾皮(Mike Volpi)指出,我們現在討論的不再是大衛和歌利亞的戰斗。他說:“OpenAI 不再是個小公司,它基本上成為了微軟的子公司,大部分資金來自微軟,因此我認為將其視為微軟的延伸更合適。在這種背景下,許多其他事情變得非常清楚。必應在搜索廣告市場的份額與谷歌相比很小,因此微軟肯定想要顛覆這一市場。”
云計算至關重要
微軟將 OpenAI 視為通過其 Azure 云平臺提供高級生成性 AI 服務的一種方式,Azure 的規模在云計算市場上僅次于亞馬遜 AWS。微軟還可能利用其與 OpenAI 的合作來增強其說法的可信度,即在托管高級 AI 模型方面,Azure 比其他云服務更合適。
Azure AI 平臺副總裁埃里克?博伊德(Eric Boyd)本月在一篇博客文章中寫道:“Azure 為計算密集型 AI 培訓和推理工作負載提供了一流的性能和擴展性。這就是世界領先的 AI 公司(包括 OpenAI、meta、Hugging Face 等)繼續選擇 Azure 來推進他們 AI 創新的原因。”
谷歌正在努力推廣自己的云計算服務,而且該項業務正在走向盈利,但其仍遠遠落后于 Azure 和亞馬遜 AWS。增加了 OpenAI 服務,Azure 可能會讓谷歌追趕的努力變得更加困難。
AI 領域競爭更激烈
要了解谷歌管理層對 OpenAI 的看法可能很困難。去年 12 月中旬,谷歌 AI 業務首席執行官杰夫?迪恩(Jeff Dean)表示,如果倉促之間推出一款容易犯錯或發布有毒內容的生產式 AI 工具,谷歌將蒙受更大損失。但該公司正在認真對待 OpenAI 在該領域有關主導地位的競標。據報道,谷歌甚至請來了已經退休的創始人拉里?佩奇(Larry Page)和謝爾蓋?布林(Sergey Brin),討論如何對抗 OpenAI。
在去年 12 月份的一次戰略會議上,谷歌曾表示,在發布新的面向公眾的創新型 AI 工具時,將“重新調整”其愿意承擔的風險水平。
換句話說,ChatGPT 可能已經掀起了新的 AI 競賽。現在看來,谷歌今年很可能會推出多款新的 AI 功能和產品。其中有些工具將面向開發者:谷歌可能會開發像 GitHub Copilot 這樣的工具,它針對數百萬或數十億行代碼進行培訓,可以直觀地判斷開發者的需求,并就新的代碼提供建議。
Index Ventures 的沃爾皮認為,谷歌很可能會發布看起來和行為都很像 ChatGPT 的自然語言聊天機器人,DeepMind 也可能發布其 Sparrow 聊天機器人,谷歌搜索可能會為某些類型的搜索提供聊天式體驗。
明年,OpenAI 可能看起來更像是生成式 AI 領域的先行者,但其模型可能不像現在看起來那么新奇。歸根結底,OpenAI 可能不會顯著改變大型科技公司之間的力量平衡。沃爾皮說:“我不確定它是否會改變現有格局。谷歌將推出自己的 NLP 聊天產品,亞馬遜也將推出類似工具。我敢肯定,蘋果會繼續改進 Siri 以做同樣的事情。最終,我的猜測是,你會看到這個領域的競爭更加激烈。”
普通人可以安靜地坐在旁邊,看著這些公司一決雌雄,并享受它們的研究成果。但這里也存在風險因素。在 ChatGPT 之后,AI 的發展步伐可能會加快。隨著競爭的加劇,保密性也可能會增強。而隨著大型科技公司在 AI 研發上投入更多資金,它們可能不太愿意在發表的研究論文中透露其模型的細節以及它們的工作原理。
斯坦福大學以人為本 AI 基礎模型研究中心主任珀西?梁(Percy Liang)表示,過去一年,AI 研究領域的正常合作和科學開放性已經有所下降。重要的是,科技公司公開他們的模型、培訓方法和政策細節,這樣其他研究人員就可以重新創建模型和他們的輸出,從而驗證這項研究。OpenAI 確實發表了關于其開發新模型的論文,但梁教授稱,該公司并不總是提供足夠的細節來說明其方法。
梁教授解釋稱:“對于最新的 OpenAI 模型,我們完全不知道它們背后是什么。直到最近,我們甚至不知道它們的大小,它們接受過哪些數據培訓,是否與我們使用 API 訪問和測試的模型相同。自那以后,他們只發布了簡短博客文章對此進行了解釋,雖然這是朝著正確方向邁出的一小步,但仍然缺乏透明度。”
在梁教授看來,AI 模型的最終輸出很大程度上受到人類施加的下游微調和過濾的影響。開發者必須這樣做,以防止模型輸出不正確、有毒或偏向某些用戶的文本或圖像。例如,如果你讓 OpenAI 的 GPT-3 模型的早期版本寫一篇關于醫生的簡短故事,會發現醫生的角色永遠是男性。到 ChatGPT 發布時,這種偏見已經消失,可能通過額外培訓進行了修復。但這只是一個例子,很可能還有數百個這樣的問題需要解決。
梁教授表示:“OpenAI 喜歡談論價值匹配,所以這些模型將與人類的價值觀保持一致,因此它們也不會做壞事。但我們談論的是誰的價值觀?這些價值觀到底是什么?OpenAI 沒有公布有關這些價值觀的細節,這也是某種決策過程不透明的體現。”
在 ChatGPT 測試版向公眾開放的同時,OpenAI 自愿修復了許多漏洞。該公司甚至推出了“偏見獎勵”計劃,用戶可以報告不正確或有偏見的輸出,以換取贏得價值 500 美元 API 積分的獎勵。與之相比,谷歌始終不愿曝光存在此類漏洞的 AI 產品和功能。但 AI 發展步伐的加快可能會給谷歌和所有大型科技公司帶來壓力,要求他們在所有問題解決之前推出新模型。
而在這方面,普通公眾可能成為輸家,人們可能會看到生成式 AI 工具在我們的網絡生活中添加更多虛假、有毒和有偏見的內容。