圖:加州大學洛杉磯分校(UCLA)一名學生在畢業禮上用電腦展示他用ChatGPT協助撰寫畢業論文。\網絡圖片
作弊、抄襲、剽竊爭議
•學生在完成作業和寫論文時是否使用AI,是否屬於作弊或者抄襲,目前尚無明確定論。很多學校目前鼓勵學生使用AI輔助學習,但需要在校方和老師的指導下,合理使用。AI生成的文本可能無意中複製其訓練數據庫中的受版權保護內容,但卻未註明來源,無意中構成剽竊;也有部分人士認為,研究人員將AI工具生成的文本當成自己的作品也構成抄襲。
影響審稿質量與公正性
•學術界近期討論使用大型語言模型(LLM)輔助審稿的可能性。部分學者認為,AI審稿具有局限性,AI本身無法判斷研究的創新性或倫理合規性。另外,如果AI生成的評審意見存在錯誤或不公正的情況,但審稿人在使用AI輔助審稿時卻並未聲明,導致期刊難以追溯責任,進行有效的監督和糾正。
數據洩露風險
•研究人員輸入資料可能被AI工具存取甚至使用,從而導致機密資料和隱私信息洩露。比如說,如果將一些醫學研究中的患者數據輸入AI進行分析或處理,可能會對患者隱私造成嚴重威脅。