(示意圖/取自pixabay)
根據《站長之家》 10 月 17 日報導,專家們對熱門平台如 ChatGPT 等 AI 程式的幻覺現象提出了擔憂。
AI 幻覺是指資訊看似正確,但實際上是不準確的現象。
ChatGPT 等平台出現提供不準確資訊的情況,例如,杜克大學圖書館指出存在虛假引用的問題,富比士發表了一篇新聞報導,指出 ChatGPT 通過虛假摘要愚弄了科學家,而《財富》雜誌引用了一項研究,顯示 ChatGPT 在回答數學問題時的準確率從 98% 下降到僅為 2%。
針對是否 ChatGPT 是在編造訊息、錯誤解釋數據或依賴於錯誤資訊的問題,ChatGPT 的回應是,它的回應是基於其在截至 2021 年 9 月最後更新前所訓練數據和輸入的模式生成的。
然而,如果輸入數據或查詢存在缺陷,AI 模型可能會產生不正確或不準確的資訊,但這與傳統意義上的幻覺並不相同。
本文為巴比特授權刊登,原文標題為「專家對 ChatGPT 等平台中的 AI 幻覺表示擔憂」