圖:AI陪伴功能爭議多
難區分現實與虛擬過度情感依賴
•AI的陪伴功能可能導致用戶對AI本身形成不健康的情感依賴,模糊了虛擬與真實的界限,用戶可能甚至把AI當作真實存在的人,影響現實中的人際交往。
數據安全和隱私憂患
•AI聊天機器人會收集用戶的大量個人數據,也引發數據安全和隱私問題。意大利數據保護機構在今年5月宣布,AI陪伴初創公司Replika因違反用戶個人數據保護規則,處以500萬歐元罰款。
軟色情等倫理問題
•路透社此前調查揭露了美國科企Meta內部指導原則允許其AI聊天機器人與兒童進行「浪漫」和「感性」對話,引發爭議。此外,不少AI陪伴機器人的營利模式,需要用戶不斷支付更多的費用,才能解鎖部分功能(比如色情內容),而AI聊天機器人也存在「軟色情」和「內容擦邊」等問題。
傳播錯誤信息
•許多用戶,尤其是未成年用戶,傾向於將ChatGPT等聊天機器人當作傾訴對象甚至「心理醫生」,但AI並不是受過專業訓練的心理醫生,無法準確評估及應對用戶的心理問題,很可能出現向未成年人傳播不良信息,甚至作出錯誤誘導的情況,影響未成年人身心健康。
監管法規落後
•全球針對AI的相關立法,仍處於落後狀態。今年5月,加州參議院通過了一項AI聊天機器人監管法案,要求必須至少每隔3小時提醒用戶,陪聊對象「不是人類」。軟件的開發必須設有防自殺機制和遵守數據透明等相關規定。