圖:機器生成的文本可能會製造出更多錯誤和虛假信息,存在倫理失範及行為失控的風險。
臨近夏天尾聲,接二連三的颱風和暴雨,全港多區大規模水浸、山泥傾瀉和道路坍塌,狼狽之情罕見。突如其來的挑戰再次提醒大家,防患未然是化解危機的最佳策略,尤其是對一些不斷變化的新事物——如足以顛覆世界的生成式人工智慧(生成式AI),大家喜迎潛在發展機遇的同時,也非常關注其所衍生的一連串安全、監管和政策問題,如何營造一種既包容又兼顧安全和發展的環境是全球面對的一項大挑戰。
生成式AI誤變誘騙工具
由ChatGPT引發生成式AI熱潮起,不少專家已關注其所衍生關於資訊保安、私隱保護、倫理道德及智識產權等問題,主要是擔心隨着新技術向各行各業滲透,給人類帶來的福祉和風險會同步放大。因為早在ChatGPT推出之前,已經有研究揭示了一些大模型內部的行為異常,包括生成有害內容,強化偏見和傳播虛假資訊。ChatGPT令大語言模型變得普遍,但目前其思考過程不透明,人類對它的推理過程並不完全掌握,機器生成的文本可能會製造出更多錯誤和虛假信息,存在倫理失範及行為失控的風險。
此外,輸入到生成式AI工具中的資訊可以成為其訓練集的一部分,這意味着敏感或機密資訊最終可能會輸出給其他用戶。生成式AI工具亦有機會在不事先通知的情況下,與第三方(如供應商或服務提供者)共用使用者資訊,這有可能違反許多司法管轄區的隱私法;而使用這些工具的用戶亦可能因使用了輸出結果,無意中侵犯了其他使用者的私隱和知識產權。
更值得關注的是,駭客也在測試新技術,目前已發生了一些惡意軟體和勒索軟體代碼的例子,都是通過誘騙AI生成的。還有「及時注入」攻擊,誘騙生成式AI工具洩露它們不應該洩露的資訊,這導致了高級網絡釣魚攻擊的工業化,構成重大網絡安全隱患。
繼今年3月逾千名人工智能領域的專家聯署,呼籲各大人工智能實驗室暫停開發比GPT-4更強大的人工智能系統至少6個月。5月時,再有逾350名從事AI工作的科學家與科技巨擘高層,在美國人工智能安全中心網站聯署,促請各國關注AI對人類帶來的潛在威脅。他們擔心AI可被武器化或生成錯誤訊息去左右意識形態,有機會破壞社會穩定。
中國、歐盟和美國都加快了對AI的監管和立法進程。中國網信辦早於4月提出利用生成式AI產品向公眾提供服務前,應當向國家網信部門申報安全評估,並履行演算法備案和變更、登出備案手續,還需要向相關部門申報安全評估。科技部亦提出了人工智能企業,應該接受科技倫理審查,並由審查主體設立科技倫理(審查)委員會。
8月15日實施的《生成式人工智能服務管理暫行辦法》,從生成式AI服務提供者的演算法設計與備案、訓練數據、模型,到用戶隱私、商業秘密的保護,監督檢查和法律責任等方面都作出了規範。同時鼓勵生成式AI基礎設施和公共訓練數據資源平台建設,促進算力資源協同共用;並推動公共數據分類分級有序開放,擴展高質量的公共訓練數據資源。
香港需要急起直追
針對生成內容的真實性問題,新例要求服務提供者採取有效措施,提升生成式AI服務的透明度,提高生成內容的準確性和可靠性。另外,也有專門針對個人隱私、商業秘密等保護的規範,例如參與生成式AI服務安全評估和監督檢查的相關機構和人員,對在履行職責中知悉的國家秘密、商業秘密、個人隱私和個人資訊應當依法予以保密,不得洩露或者非法向他人提供等。還特別提及,須採取有效措施防範未成年人用戶過度依賴或者沉迷生成式AI服務。
各國監管機構相繼採取行動,以努力平衡科技發展及其帶來的新挑戰,足證這是一個必須及正視的問題。但香港作為重要的國際金融中心、貿易中心,也正在加大對數位技術的投入和布局,最新的財政預算案亦撥款研究籌建自己的超算中心,卻至今仍未就監管AI技術表態,確實有必要急起直追。
技術創新中從來有很多不確定性,有的問題在發展中出現,需要邊發展邊解決,但更加多是可以預判在前,就必須防患於未然,否則在這場極速發展的AI競賽中就可能失去先機。當然業界更期待各國在國家層面制訂相關條例之餘,也能考慮國際合作或擬定國際或地區通用的條例,通過技術與法制相輔為生成式AI服務的健康發展提供法制框架,減少研發者及相關企業需要像環球製藥業般每一個國家或地區去申請的苦惱。