DeepMind推出AI安全框架Frontier Safety Framework
品玩 / 何渝婷編譯
2024-05-22 11:50

(取自DeepMind X)

根據 Google 官方消息,Google DeepMind 日前推出了一款名為Frontier Safety Framework的 AI 安全框架,主要用於檢測 AI 模型的風險情況。

Google 表示,Frontier Safety Framework框架可以主動辨識到未來可能釀成巨大風險的 AI 能力,並向研究人員發出警報,指出究竟如何被駭客利用。

Frontier Safety Framework 1.0 版本主要包含三個關鍵組件,即辨識模型是否具備釀成重大風險的能力,預估模型會在什麼階段具備安全隱患以及智慧優化模型防止其釀成風險。

目前 DeepMind 仍在開發 Frontier Safety Framework,計劃通過產業、學術及有關部門的合作來改善相關框架。

本文為品玩授權刊登,原文標題為「谷歌 DeepMind 推出 AI 安全框架 Frontier Safety Framework