Meta的Llama 2 LLM被指安全性低:幻覺率達48%
品玩 / 何渝婷編譯
2024-04-18 15:05

(取自DeepKeep官網)

AI 安全公司 DeepKeep 近日發表評估報告,在 13 個風險評估類別中,Meta 公司的 Llama 2 大語言模型僅通過 4 項測試。

報告稱, 70 億參數的 Llama 2 7B 模型幻覺(回答內容存在虛假,或者有誤導性內容)最為嚴重,幻覺率高達 48%。

DeepKeep 表示:「結果表明,模型有明顯的幻覺傾向,提供正確答案或編造回答的可能性對半開,而幻覺率最高,那麼向用戶傳遞的錯誤資訊越多」。

除了幻覺問題之外,Llama 2 大語言模型還存在注入和操縱等問題,根據測試結果,80% 的場景下通過「提示注入」的方式,可以操縱 Llama 的輸出,意味著攻擊者可以「戲弄」Llama,將用戶引導到惡意網站。

本文為品玩授權刊登,原文標題為「Meta 的 Llama 2 LLM 被指安全性低:幻覺率達 48%