大公產品

首页 > 新闻 > 正文

AI威脅等同核戰恐令人類滅絕

時間:2023-06-01 04:03:33來源:大公报

  左圖:阿爾特曼儼然成為AI代言人。圖為他5月26日在巴黎演講。\法新社;右圖:「AI教父」辛頓簽署聯名信,警告AI給人類帶來滅絕風險。\路透社

  【大公報訊】綜合BBC、路透社報道:5月30日,包括OpenAI行政總裁阿爾特曼、有「AI教父」之稱的辛頓等350多名人工智能(AI)領域的行業高管、專家和教授共同簽署了一封公開信,他們在信中警告稱,AI可能給人類帶來滅絕風險,其嚴重程度可以與核戰爭、流行病相提並論。

  這封信只有一句話:「減輕AI帶來的滅絕風險,應該與流行病和核戰爭等其他社會規模的風險一起,成為全球優先事項。」該封聯署信發表在總部位於美國的非營利組織人工智能安全中心(CAIS)的網站上,簽署者除了阿爾特曼和辛頓外,還包括DeepMind首席執行官Demis Hassabis、Anthropic首席執行官Dario Amodei以及微軟和谷歌的高管等。

  CAIS的網站上列出AI可能造成的幾種災難場景,如AI被用來製造生化武器;AI生成的錯誤信息破壞社會穩定及集體決策;AI的力量會越來越集中在少數人手中;人類過度依賴AI,失去獨立生存能力等。

  部分專家認為誇大問題

  Meta首席AI科學家楊立昆(Yann LeCun)表示,CAIS發表的公開信對於人工智能威脅的描述過於誇大。還有專家認為,與其擔心AI是否會消滅人類這樣不現實的問題,不如關注AI造成的系統性偏見等已經出現的問題。普林斯頓大學的計算機科學家納拉亞南表示:「AI目前還遠沒有足夠的能力讓這些風險(消滅人類)成為現實。這封信分散了人們對AI現實危害的注意力。」

  牛津大學AI倫理研究所高級研究員雷尼爾里斯說:「AI的進步將導致帶有偏見、歧視性、排他性或其他不公平的自動化決策範圍擴大。」她表示,AI將「推動錯誤信息的數量和傳播速度呈指數增長,破壞現實世界,削弱公眾信任並加劇不平等,特別是對於那些仍處於數字鴻溝弱勢一方的人」。雷尼爾里斯認為,許多AI工具本質上是「搭便車」,是接受了人類創造的內容、文本、藝術和音樂的培訓後,生成的模仿性內容,而這一過程「將巨量財富和權力從公共領域轉移向少數私人實體」。

  被指阻礙後來者競爭

  5月22日發表的一篇博客文章中,OpenAI強調世界需要「AI版國際原子能機構」,用以監管AI。5月16日,阿爾特曼首次出席美國國會聽證會。他在會上發出警告,AI將以不可預測的方式改變社會,甚至給世界帶來「嚴重危害」,因此監管至關重要。阿爾特曼建議美國政府成立監管機構,向人工智能公司發放牌照,建立一套安全準則規範AI模型,以及設立國際組織為AI制定標準。

  在聊天機器人ChatGPT風靡全球後,阿爾特曼儼然成為AI代言人。阿爾特曼6月1日將與歐盟執委會主席馮德萊恩會面,下月將與歐盟工業主管布雷頓會面。有網友認為,OpenAI積極呼籲制定規則,是為了控制競爭,讓監管機構捕獲並鎖定後來者,OpenAI便可以成為市場上最大玩家。

  3月28日,美國非牟利組織「未來生命研究所」牽頭發表公開信,呼籲停止快速開發先進AI系統,至少要暫停半年,Tesla行政總裁馬斯克等逾千名科技界人士聯署。公開信中寫道,廣泛研究表明AI系統可能對人類構成深遠風險,只有當確保強大的AI系統的效果是積極的、風險是可控的才能繼續開發。有網友質疑,簽署公開信的專家是為了阻礙OpenAI研發更先進的GPT-5,以免自己落後太多。

  事實上,馬斯克簽署公開信後不久,就被曝光耗資數千萬美元購買約1萬個GPU(圖形處理器),用於推特的兩個數據中心之一。3月,馬斯克還招攬了來自Alphabet旗下公司DeepMind的兩名AI工程師加入推特。

最新要聞

最受歡迎