近日,美國哈佛大學商學院發布報告,指出當前美國人對ChatGPT等「生成式AI」最普遍的用途是尋找心理治療和陪伴。AI的優勢在於記憶超群,不用休假,沒有健康問題拖累,可以一周七天,一天二十四小時在線服務,能彌補人類治療師數量不足的缺憾,也比人工廉價。好的AI能同時擔任保護人、支持者、思考夥伴等角色。包括筆者任教大學在內的很多機構已開始提供AI心理治療的選項,但這也引起不少擔憂。
如,AI會「撒謊」,提供不實信息、建議。另外,它們更多傾向於同意你的觀點,最大限度表示支持、鼓勵,不利於那些需要被質疑、挑戰的病人。
還有,十八到二十五歲的人群中三分之一有心理問題,而超過百分之五十的青少年都從AI那裏尋找心理治療,他們要是不理解虛擬世界的局限,會產生更大的心理問題,甚至發生自殺等悲劇。
業內人士最不放心的是:如果習慣了百依百順、以人為中心的AI陪伴,我們會覺得人際關係充滿矛盾、混亂,和人交往「性價比」太低。加深人際紐帶的最佳途徑是暴露自己的弱點,容忍暫時的不適。一旦沉醉於AI提供的「虛假親密」,人際聯繫弱化,人的情感、溝通「肌肉」也會退化。
而且,人際關係建立在有來有往的基礎上,人和AI的「友誼」只能是單向的。如果過分依賴AI,不能容忍不同的觀點、聲音,不但人際關係受到損害,整個民主社會都會面臨風險。
所以,哪怕AI在某種程度上緩解了現代社會的「孤獨流行病」,我們也應該建立規則和邊界,多訓練AI整合人類社會的複雜、矛盾和挑戰才是長久之道。