越來越強大的籌備 AI 科技隱憂不容忽視,如果遭濫用,新團脅有機會發生毀滅性災難。隊對OpenAI 特地成立團隊評估防範問題,付A防潛確保 AI 科技不會造成災難。難預
OpenAI 團隊名為「Preparedness」(備戰),核武和生化威由麻省理工學院機器學習中心(Center for Deployable Machine Learning)主任 Aleksander Madry 領導。籌備團隊任務包括追蹤預測及防範 AI 系統可能的新團脅危險,特別是隊對系統對網路安全的潛在威脅。OpenAI 提及不同風險,付A防潛有化學、難預生物、核武和生化威輻射和核威脅等。籌備
OpenAI 舉辦挑戰賽邀請開發者社群提交風險研究提案,新團脅開發者不只可獲獎金,隊對還有機會加入 Preparedness 團隊。這活動要求參與者思考如果惡意使用者獲得 OpenAI 某些先進模型的不受限制權限,可能發生的最壞情況。
OpenAI 強調 AI 模型能力不斷提升,對全人類的潛在益處增加同時,也形成嚴重風險,故積極發展策略和基礎設施,以確保安全控制和部署高階 AI 系統。
- Frontier risk and preparedness
(本文由 Unwire HK 授權轉載;首圖來源:shutterstock)