【人工智能】OpenAI成立災難應變部門,防範AI可能帶來的危險

商業熱話
【人工智能】OpenAI成立災難應變部門,防範AI可能帶來的危險

隨著AI科技迅猛發展,潛藏的風險也不斷增加。為此,OpenAI宣布成立一支名為「Preparedness」的專家團隊,以對抗包括核武和生化威脅在內的災難性風險。該團隊由麻省理工學院的Aleksander Madry領導,專責評估和防範未來AI可能帶來的危險,其中包括網絡安全、化學、生物及輻射等範疇。

OpenAI強調,隨著AI模型功能不斷增強,其潛在的好處伴隨著巨大的風險。公司積極開展風險研究,並設有獎金鼓勵開發者社群參與研究提案,有機會加入該團隊,共同開發風險減輕措施。

「Preparedness」計畫不僅聚焦於預測和保護,還將開發評估工具和監督機制,確保AI模型的安全發展。此舉得到國際關注,特別是在英國即將舉辦全球AI安全峰會之際,全球對於加強AI技術監管的呼聲愈發迫切。OpenAI始終專注於發展通用人工智慧(AGI),其執行長Sam Altman亦公開表達了對AI監管重要性的支持,並且提醒了監管失誤的風險。

馬斯克指出AI如同一把「雙刃劍」,既有可能為人類帶來至少 80% 的好處,也有 20% 可能導致威脅。他強調,人工智能可能成為人類面臨的「最大威脅」之一,呼籲必須有意識地引導其發展方向,以利於人類。此外,他提議為 AI 機器人設計「物理開關」,以防萬一失控,強調了對 AI 安全控制的重要性。


即刻follow我地Facebook同Instagram,隨時接收最新資訊!

你可能感興趣