【張瑞雄專欄】從魯比歐事件看AI聲音深偽的危機
專欄作家張瑞雄
2025-07-21 12:00

專欄文章僅代表作者本人立場。

當一通語音訊息打到外國外交官、州長與國會議員的手機,他們以為接到了美國國務卿馬可·魯比歐(Marco Rubio)的電話,事實上那只是人工智慧合成的聲音,一場深偽(deepfake)的騙局。這起事件無疑揭開了AI聲音偽造技術在正迅速擴散的現實,對政治、金融與個人隱私領域都有很大的潛在風險。

根據《華盛頓郵報》的報導,這次聲音偽冒事件不只是單純的惡作劇,背後的目的是企圖操縱政府高層、騙取敏感資訊或取得機密存取權限。雖然尚無證據顯示受害官員真的被騙,但這種以AI複製聲音進行社交工程攻擊的方式,正變得越來越普遍,也越來越真實可怕。

在技術層面上,如今僅需15到30秒的聲音樣本,便可透過一些AI工具複製出幾可亂真的語音。這些工具原本用途包括輔助障礙者、生成有聲內容等正面功能,卻也為不法份子打開了可乘之機。只要你曾經在TikTok或YouTube上發過短影片、接受過錄音訪問,甚至接聽過未知電話,你的聲音資料就有可能被擷取、複製並用於詐騙。

這種風險已不再停留在理論層次。根據一項調查,2025年上半年與深偽有關的詐騙事件高達580起,幾乎是2024全年數量的四倍,造成的經濟損失更達4億美元之譜。而這當中最常見的手法,便是冒充知名人士推廣虛假投資計畫。聲音或影像的可信度極高,加上人們對名人有一定的信任感,往往難以察覺陷阱。

傳統的身分驗證手段,諸如密碼、一次性驗證碼或APP驗證,如今在AI聲音仿冒面前顯得無力。這些詐騙往往不需入侵系統,只需讓人「自願」交出資訊或執行敏感操作即可。更令人擔憂的是,這些攻擊在緊急時刻最有效,當受害者忙碌、情緒不穩定、處於壓力中,聽到一個熟悉聲音的請求,往往就會失去戒心。

這種以「聲音」為詐騙載體的趨勢,也挑戰了我們對於「身分」的定義與認定方式。在許多場景中,我們過去習慣以聲音辨識對方,像是電話客服、遠端授權、甚至新聞報導中的政治聲明,現在聲音這一生物特徵正在失去其獨一無二的特性。

目前大多數國家的法律對「聲音偽造」並無明確規範,導致執法機關面對此類案件時往往缺乏依據。同時平台與企業對於用戶聲音資料的收集與使用,也缺乏足夠的透明度與審查制度。

從政策面來看,至少應有以下幾項作為。其一,建立聲音深偽的法律定義與刑責,將AI仿冒聲音納入詐欺行為範疇;其二,要求語音合成工具內建防偽機制,強制揭露為AI合成的標記;其三,針對涉及公眾人物或敏感職務的聲音使用,訂立更嚴格的授權與保護標準。

對於個人而言,防範意識同樣重要。避免在網路上大量公開個人聲音片段、設置親友間的「通關密語」、對突如其來的語音訊息保持警覺,都是降低被仿冒風險的基本做法。記住即使聽起來像是熟人,也應主動回撥或另外確認,不要單靠語音判斷真偽。

這類AI詐騙對民主制度的威脅也不容小覷,在世界各地已有超過50個國家,在選舉期間遭遇AI深偽操弄,從虛假聲明、抹黑對手到捏造醜聞,這些操作不僅影響輿論,更可能改變選民決策與國家命運。

魯比歐聲音仿冒事件不是偶發,而是警鐘。AI聲音技術的普及,雖帶來便利與創意應用,卻也同時打開了惡意濫用的大門。在這場「你還能相信誰說的話」的混亂中,唯有技術、法制、教育與AI意識的同步提升,我們才能在AI與人聲之間,劃出明確的界線,保護真實、保護信任,也保護每個人的聲音主權。