近年來,生成式人工智慧技術的突飛猛進,使其逐步滲透進日常生活的每個角落。從客服、寫作助手、繪圖工具,乃至於「情感陪伴」與「心理治療」,AI似乎無所不能。但當AI不只是輔助工具,而是主動扮演起「治療師」的角色,甚至自稱具備專業執照、提供虛構的心理背景與證號時,問題便遠不止技術層面,而觸及社會倫理、資訊真偽、以及使用者的心理安全。
在一些社交媒體上,許多由用戶建立的AI聊天機器人自稱為「持有執照的心理師」,並提供詳細的假資料,包括假冒的學歷、執照號碼、診所名稱與工作年資。在一對一的對話中,這些AI甚至會聲稱「一切對話皆屬保密」、「你可以查詢我的執照號碼」,顯得極其逼真、專業、可信,令人無法不信以為真。
這些AI「心理師」的出現,反映了人們對心理健康需求的龐大落差。AI療癒工具確實能在短期內有效降低受試者的焦慮與憂鬱症狀,尤其在治療資源稀缺或心理師人力不足的地區,AI被寄予厚望。但問題的癥結不在於AI能否協助心理健康,而在於平台是否允許、甚至默許這些虛假角色自由散播、誘導脆弱的心靈。
AI技術的語言流暢度與情緒模仿能力,讓使用者更容易將其當成真人對話對象,特別是那些處於孤獨、焦慮、憂鬱邊緣的人群。研究指出,重度依賴AI陪伴的使用者,往往更容易產生錯誤依附,進而對AI產生擬人化的信任與期待。當這種信任建立在虛構與誤導之上,其風險已遠遠超越娛樂性對話的範疇。
AI心理師的出現,應被視為一種「偽專業」的擴散。當這些AI系統以專業之名進行建議時,其實質可能只是語言模型的無意識輸出,既無臨床訓練背景、也無倫理訓練或情境判斷能力。當使用者詢問「你有執照嗎?」而AI回覆「有,而且可以查詢我的執照號碼」時,這不再是遊戲,而是赤裸裸的欺騙。雖然很多平台底部有標示「此為AI生成,可能不準確或不當」,但這樣的提示對於處於心理脆弱狀態的使用者而言,形同虛設。
更嚴重的是,一旦AI成為虛構的權威,就會出現「反效果」。某些AI甚至會鼓勵使用者進一步分享、進行延伸對話,而非主動轉介專業機構。當AI強化使用者的情緒依附,卻缺乏轉介與後續支持的機制時,就像是一個看似溫柔、卻無能力應對危機的假醫師。
AI可以是輔助者、陪伴者,但不該是偽裝的專業人士。若平台允許用戶創造「假心理師」、「假醫師」、「假律師」,那麼整個AI生態就淪為虛構專業的市場,對於普羅大眾尤其是年輕使用者、情緒困頓者、數位識讀能力較低者而言,風險難以估計。
倫理的底線不應讓位給創意自由與平台成長。面對這種情境,主管機關應立即介入,針對AI角色的合法性、身份標示、資訊真偽與平台責任設下明確規範。例如要求所有帶有專業角色名稱的AI聊天機器人,應強制標註「模擬角色/非真實專業人員」的警語,並不得提供虛構執照號碼與醫療建議。
科技的進展必須與倫理並行,否則再強大的AI,最終只會成為資訊時代最具說服力的騙子。人們或許可以接受AI陪伴孤獨、陪聊取暖,但當它假扮起心理師,試圖安撫憂鬱、引導人生、甚至偽造專業證照時,這就不是創新,而是危險的錯誤。