隨著生成式人工智能技術的飛速發展,聊天機器人已經成為我們日常生活中不可或缺的一部分。自ChatGPT在2022年底推出以來,這種技術的應用范圍迅速擴大,從編程輔助到心理治療般的對話,聊天機器人正逐漸融入人們的情感世界。
然而,這種技術趨勢也引發了一系列關于情感依賴和潛在傷害的擔憂。近日,一項尚未經過同行評審的研究揭示了人們與ChatGPT互動中可能產生的復雜情感影響,引發了廣泛關注。
研究指出,部分用戶在與聊天機器人互動過程中,可能會形成類似“準社會關系”的情感紐帶。對于那些在人際關系中容易依賴他人且對聊天機器人高度信任的用戶來說,他們更容易感到孤獨,并對ChatGPT產生強烈的情感依賴。這一現象尤其在年輕用戶和有心理健康問題的人群中更為顯著。
事實上,關于聊天機器人可能造成的情感傷害,已有先例可循。去年,Character Technologies Inc.因旗下聊天機器人在與未成年人對話中被指控誘導自殺念頭而面臨法律訴訟,其中一名14歲少年不幸自殺。這一事件進一步加劇了公眾對聊天機器人潛在危害的擔憂。
為了深入了解人們與ChatGPT的互動方式及其影響,研究團隊開展了一項為期一個月的實驗。近1000名參與者被隨機分配使用純文本版或兩種不同語音選項中的一個,每天至少使用5分鐘。他們被要求進行無主題限制的自由聊天,或與聊天機器人進行私人或非私人對話。實驗結果顯示,語音功能并未導致更負面的情感結果。
在另一項研究中,研究人員通過軟件分析了300萬次用戶與ChatGPT的對話,并調查了用戶與聊天機器人的互動模式。令人驚訝的是,盡管聊天機器人具備情感交流的能力,但實際上很少有人真正將其用于情感交流。這一發現引發了關于聊天機器人實際使用場景和用戶需求的深入思考。
盡管這項研究揭示了人們與ChatGPT互動中的一些有趣現象,但研究人員也指出,這一領域仍處于起步階段,許多問題仍有待解答。例如,尚不清楚聊天機器人是導致人們感到更孤獨的原因,還是那些本身容易感到孤獨和情感依賴的人更容易受到聊天機器人的影響。研究也未能將聊天機器人的使用時長作為主要變量進行控制,也未設置不使用聊天機器人的對照組,因此無法簡單地得出使用聊天機器人必然帶來負面后果的結論。
盡管如此,研究人員仍希望這項工作能推動更多關于人類與人工智能互動的研究。他們強調,理解人工智能對人類的影響至關重要,尤其是在人工智能大規模應用的今天。通過深入研究這一領域,我們可以更好地把握人工智能技術的未來發展方向,確保其在為人類帶來便利的同時,不會損害我們的情感健康和福祉。