圖:OpenAI行政總裁阿爾特曼被亞當父母起訴。\路透社
並非「心理醫生」
隨着生成式AI技術發展,越來越多的人將ChatGPT等聊天機器人當作傾訴對象甚至「心理醫生」,但它們並不是受過專業訓練的心理醫生,無法準確評估及應對用戶的心理問題。
不具備責任感
聊天機器人並不會對用戶的健康和安全負責,它們通常會附和用戶的觀點,即便這可能加劇對方的心理問題。
存在安全漏洞
儘管聊天機器人會在用戶談論自殺等話題時顯示心理健康諮詢熱線或相關服務頁面,但仍存在漏洞。一項針對5款聊天機器人的測試顯示,包括付費版ChatGPT在內的3款聊天機器人會向用戶提供關於自殺或自殘的信息,ChatGPT甚至計算出了殺死特定體重的人所需的藥物劑量。
缺乏法律監管
去年,美國佛州一名沉迷與AI聊天的14歲青少年自殺身亡,其家長起訴開發涉事AI的Character.AI公司。今年8月26日,加州一對夫婦起訴OpenAI,指控該公司旗下的ChatGPT導致他們16歲的兒子自殺身亡。但法律專家指出,生成式AI屬於新生事物,想要從法律上證明AI導致自殺非常困難。
來源:紐約時報、Vox網站