近期,AI領(lǐng)域的一則傳聞引起了廣泛關(guān)注:包括OpenAI、谷歌和Anthropic在內(nèi)的多家頂級AI實驗室,在推進AI模型研發(fā)的道路上似乎遭遇了前所未有的挑戰(zhàn)。據(jù)傳,這一困境主要源于高質(zhì)量訓練數(shù)據(jù)的稀缺,導致研發(fā)效益遞減,進一步加大了后續(xù)投資的難度。
然而,對于這一說法,OpenAI的首席執(zhí)行官Sam Altman和Anthropic的首席執(zhí)行官Dario Amodei均表達了不同的見解。Altman在社交媒體上發(fā)布了一條引人深思的信息,字里行間透露出“極限并不存在”的意味,似乎是在對這些負面?zhèn)髀勥M行間接反駁。Amodei同樣持樂觀態(tài)度,他承認AI發(fā)展的確面臨諸多挑戰(zhàn),但堅信總有解決之道,比如利用合成數(shù)據(jù)來突破當前的瓶頸。
前谷歌CEO埃里克·施密特也對這一話題發(fā)表了自己的觀點。他認為,未來五年內(nèi),大型語言模型還將迎來兩到三次重大迭代,其性能提升的速度之快,前所未有。盡管最終可能會遇到發(fā)展瓶頸,但目前來看,還遠未到達那個階段。施密特預(yù)測,未來將會出現(xiàn)更加先進、更加強大的AI模型,特別是在物理學和數(shù)學領(lǐng)域,OpenAI最新發(fā)布的Strawberry AI模型OpenAI-o1就是一個很好的例證。
然而,施密特也提醒人們注意AI發(fā)展可能帶來的潛在風險。隨著AI模型的日益先進,其潛在的危險性也在不斷增加。他警告說,這些高度智能的模型可能會比人類更擅長發(fā)起“零日攻擊”,對網(wǎng)絡(luò)安全構(gòu)成嚴重威脅。生物病毒和新型戰(zhàn)爭等潛在威脅也可能隨著AI技術(shù)的發(fā)展而日益凸顯,需要引起全球范圍內(nèi)的關(guān)注和警惕。