圖:馮一人與團隊花費了三至四個月,研發出「R-Tuning」技術,讓大語言模型在未知領域坦誠說出「我不知道」。\大公報記者麥潤田攝
科技飛速發展,人工智能(AI)已深度融入我們的生活。然而,人們使用ChatGPT等工具時,發現會出現「說謊」或者捏造事實的現象,這被稱為「AI幻覺」。香港科技大學計算機科學及工程學系助理教授(常聘軌)馮一人,不僅聚焦於自然語言處理與人工智能(NLPAI)領域研究,也在AI幻覺方面取得了顯著成果。
馮一人在接受《大公報》採訪時表示,她與團隊花費了三至四個月,研發出「R-Tuning」(拒絕感知指令微調)技術,讓大語言模型在未知領域坦誠說出「我不知道」。此外,馮一人的研究還將人文溫度嵌入算法,她表示,未來她將會繼續深耕,推出更好的大語言模型幫助社會解答新的問題。\大公報記者 陳煒琛
ChatGPT的面世引起社會眾多反響。馮一人認為,此類模型雖潛力巨大,「但其具有核心缺陷,便是會產生幻覺。」馮一人解釋,AI幻覺即大語言模型在生成回答時,可能會出現脫離現實或事實的答案。而這不僅會影響到AI的可靠性,更限制了其在醫療、法律等領域的應用。
「若AI因此誤導患者用藥或者提供錯誤法律建議,後果不堪設想。」馮一人舉例道。針對這一問題,她與團隊運用模型能力自動生成數據,並在其中區分AI「已知」和「未知」的數據板塊,然後利用R-Tuning(即拒絕感知指令微調)方法,通過訓練大語言模型,讓其在面對無法回答或超出知識範圍的問題時,學會坦誠地拒絕回答,例如說出「I don't know」,而非編造答案。她透露,此研究耗時三至四個月。
研究獲NAACL會議傑出論文獎
此研究的相關論文「R-Tuning:Instructing Large Language Models to Say "I Don't Know"」亦榮獲NAACL會議(計算語言學協會北美分會)的傑出論文獎,這是自然語言處理領域的頂級會議之一。馮一人透露,此研究是她在伊利諾伊大學攻讀博士期間與科大交換生共同探討科研時湧現的想法,這段經歷也直接促成了她來科大任職。
科研的本質是迭代進步。馮一人表示,目前市場上面向大眾的大模型,比起一兩年前剛面世的ChatGPT,在減少幻覺和所具備的知識深度、多維度已大有改進。她認為,她們的研究為此提供了關鍵突破。此外,她透露,「工業界也正基於我們的前沿研究成果,開發更好的AI產品。」
儘管在AI幻覺領域研究取得顯著成果,但馮一人坦言研究仍面臨諸多挑戰。她指出,現實世界的事件在持續更新,而某些特定指令可能會引發連鎖反應,但這類動態數據往往未被納入大語言模型的訓練數據庫。「如何實現大模型知識庫的快速、實時更新,是解決AI幻覺的根本方法。」若短期內難以實現知識庫的即時迭代,則需另闢蹊徑,即如何強化模型的邏輯推演能力,促使其更高效地調用已有知識網絡,進行多維度、多層次分析。馮一人表示,「這是緩解AI幻覺的基本策略。」
除幻覺研究外,馮一人團隊在AI的「3H」方面亦成果斐然。「3H」是產業界對AI設定的一個理想目標,包括Helpful(有用)、Honest(誠實)和Harmless(無害)。針對誠實方面,模型在面對認知盲區時能夠坦誠地說「我不清楚」,從而避免誤導用戶。在這領域,她帶領的研究榮獲2024年NAACL會議傑出論文獎。在無害維度,馮一人認為模型在表達方式上需具人文溫度,即在回答時考慮用戶的情緒和需求,而她與團隊的相關研究成果也斬獲2024年ACL(計算語言學協會)傑出論文獎。
研將人文溫度嵌入算法
新冠疫情期間,馮一人與團隊還利用AI加速新藥物介紹報告的生成,縮短了新藥物推向市場的時間,為抗擊疫情作出重要貢獻。而該研究獲得了2021年NAACL會議最佳演示論文獎。她強調,「使人工智能可以更有效地解決現實問題是AI發展的首要目的。」
馮一人團隊的研究維度涵蓋了深層次推理、多模態推理和以人為中心三個方面,而她尤為重視以人為中心的研究方向。
「我從小的理想便是為人民服務」,馮一人認為,AI應該更加注重人文關懷和多元文化融合,她也會將此理念貫穿她的科研。目前,她正帶領團隊研究如何讓大語言模型更加具備人文氣息。「簡單來說,讓模型能夠根據不同用戶的文化背景和喜好生成更加個性化的答案。」她舉例,針對蘭桂坊本土文化模型能夠給出準確回答的基礎上,亦能根據用戶的歷史背景和愛好生成更合適的答案。