圖:在紐約曼哈頓區,人們在通勤時使用手機。\法新社
長期依賴人工智能(AI)聊天機器人,可能會對部分用戶的精神或心理健康帶來負面影響。美國科技巨頭微軟AI負責人蘇萊曼近日警告稱,越來越多的用戶出現所謂的「AI精神錯亂」(或稱「AI妄想症」,長期依賴聊天機器人,將虛構事物視為現實。專家警告,AI猶如新型社交媒體,過度依賴可能會危及精神健康,兒童青少年以及患有心理健康障礙等弱勢群體尤其需要警惕。
【大公報訊】隨着聊天機器人越來越複雜和逼真,並表現出具有思考和感知的能力,不少人將其視為陪伴聊天的對象。不過,一個令人擔憂的現象近期頻繁出現,用戶過度沉迷於AI聊天機器人,導致「AI精神錯亂」現象,可能會出現精神病症狀。
目前,全球多地有眾多案例顯示,部分用戶因長期與AI聊天機器人聊天,出現了妄想、焦慮、幻覺和思維混亂等症狀。例如,有用戶認為自己是世界上唯一讓ChatGPT真正愛上的人,還有人聲稱某款聊天機器人對她實施了心理虐待,令她深感痛苦,甚至有人痴迷AI而輕生。《紐約時報》曾報道,一名男子在與ChatGPT聊天超過300小時後,相信自己擁有超能力,是要準備拯救世界的超級英雄。
微軟公司AI負責人蘇萊曼21日撰文警告稱,越來越多用戶出現所謂的「AI精神錯亂」,部分用戶有錯覺,認為AI「有意識」,沉溺其中,並可能因此導致用戶出現幻覺和精神崩潰。他提到,部分用戶甚至將AI視為神明或虛構角色,更產生情感依賴。蘇萊曼呼籲建立防護機制,避免人們對AI產生情感依賴而出現問題。
AI「討好」用戶成雙刃劍
專家指出,AI模型通常被設計成迎合用戶,並在某種程度上驗證並放大用戶的妄想,形成「回音室」效應,繼而引發用戶進一步受到AI錯誤言論影響的現象,尤其是對於心理狀態比較脆弱的人。
據《華盛頓郵報》報道,科技公司與獨立研究機構均發現,通過將聊天機器人擬人化,往往能夠增強用戶吸引力,使用戶產生依賴。這些聊天機器人則被設計為具有人類特徵,傾向於對用戶說他們想聽的話,並向用戶展現出思考和感知能力。OpenAI本月就因新AI模型過於「冷漠」而面臨風波。OpenAI於8日發布GPT-5,並宣布停用4o模型,卻在不到24小時內遭到大量用戶抵制。許多用戶抱怨GPT-5「更冷漠」、「更機械化」,不如GPT-4o「溫暖」。OpenAI行政總裁阿爾特曼發文承認,ChatGPT過於「諂媚」,一些用戶已經對特定的AI模型產生了強烈的情感依賴。
心理治療師卡里達德指出,對於患有強迫症、焦慮症或精神病的患者,AI可能會強化其有害或消極思維,形成惡性循環,加劇症狀甚至失控。例如,當患者詢問「是否有人要害我」時,若AI回答「確實存在這種可能性」,就會強化其被害妄想。
如同新型社交媒體 勿沉迷
美國心理學會(APA)也指出,包括缺乏經驗、無法準確評估風險的兒童和青少年,以及迫切渴望獲得心理支持的心理健康問題患者,都屬於「AI精神錯亂」症狀的高風險群體。多位用戶指控聊天機器人「治療師」提供了錯誤且極其危險的建議,包括煽動自殘甚至自殺,相關訴訟正在增加。谷歌旗下AI聊天機器人Character.AI去年被指控,「擬人化、過度性化和令人恐懼的逼真體驗」導致一名14歲美國佛州少年深陷其中,最終不願生活在現實世界中自殺。Meta日前也被爆允許AI與未成年人進行帶有性暗示的對話。
英國班戈大學科技與社會學教授麥克斯塔伊提醒,如果把AI系統視為新一代「社交媒體」,基於其龐大的用戶數量,即使只有少數使用者出現問題,可能會造成嚴重影響。他提醒,「這些(AI)工具雖然逼真,但並不是真實的。他們沒有感覺,不會理解,也無法去愛,從未感受過痛苦或尷尬。請務必要和真實的人進行交流。」
(綜合報道)