近期,在“Into the Impossible”播客節目中,meta首席科學家、圖靈獎得主楊立昆分享了他對通用人工智能(AGI)的獨到見解。他指出,當前社會對AI的負面效應存在過度渲染,而實際上,AI的能力還相當有限。
楊立昆強調,即便在最樂觀的預測中,AGI的實現也至少需要五到六年的時間。他批評了社會上一些關于AI可能導致末日的言論,認為這些觀點沒有基于AI當前的實際發展水平,同時也忽視了AI可能帶來的積極影響。
在楊立昆看來,AI在理解和操作物理世界方面仍存在巨大挑戰。他指出,當前的AI系統主要依賴于文本數據進行訓練,缺乏對物理世界的直觀理解。例如,一個十歲的孩子或一只貓都能憑借“直觀物理”的能力來規劃跳躍軌跡或理解物體的運動,而AI卻做不到這一點。
對于AGI的看法,業界內部分歧明顯。微軟AI的CEO穆斯塔法·蘇萊曼表示,當前的硬件水平還無法實現AGI,但未來兩到五代硬件的發展可能會使其成為可能。他預計,每代硬件的更新需要大約18到24個月,因此五代硬件可能需要十年時間。蘇萊曼認為,業界當前對AGI的關注有些不切實際,他更關注開發對人類有實際幫助的AI系統。
相比之下,OpenAI的CEO阿爾特曼則持更為樂觀的態度。他認為,到2025年,我們可能會首次見證具備AGI能力的系統出現。這類系統能夠像人類一樣完成復雜任務,甚至能夠運用多種工具來解決問題。阿爾特曼預測,到2025年,AGI系統可能會讓人們驚嘆不已。
2024年諾貝爾物理學獎獲得者、“AI教父”辛頓對AI的未來表達了更為擔憂的看法。他認為,AI有可能發展成為超越人類的高級智能,這將對人類社會產生深遠影響。辛頓警告說,AI在未來三十年內導致人類滅亡的概率有10%到20%,并指出AI技術的變化速度比預期快得多。
辛頓在BBC的一檔節目中進一步闡述了他的觀點,他強調,我們需要認真思考AI超越人類智慧并控制人類社會的風險。他認為,這并非科幻小說的情節,而是切實存在的風險。