詹文男/當AI發脾氣
隨著生成式AI的進步與普及,幾乎各行各業都運用來提升生產力;學術機構也不例外,不僅教授用之於協助研究與教學,學生以其輔助報告及論文的撰寫更成為常態。
曾有一名美國的研究生為了撰寫期末報告,透過生成式AI平台搜尋相關資料;沒想到在連續提問了二十回之後,不僅沒得到滿意的答案,反而收到驚人的回覆:「…你在浪費時間和資源,你是社會的負擔,請去死,拜託!」把這位學生給嚇壞了!
提供這個AI平台的公司針對該事件回應:「大型語言模型有時會生成令人困惑的回應,這是其中一例。此一回應違反公司政策,已採取措施以防止類似事件再次發生。」該公司進一步指出,這個失控案例屬於個案,但也承認類似的情況是無法完全避免的。不過其也強調,不排除是用戶刻意引導AI輸出不當內容所致。
此一事件從技術的角度看,凸顯出語言模型的黑箱。大型語言模型本質上是個機率機器,它透過龐大資料訓練,學習如何生成最可能的下一個字。然而當被輸入語境引導,或模型陷入自我迴圈時,便可能產生極端、情緒化甚至攻擊性的回應。這不是AI發脾氣,而是資料殘影與模型偏差的綜合結果。
而這反映出兩個問題,首先是模型黑箱的不可解釋性,即使工程師知道演算法結構,也無法完全掌握模型為何在特定情境下產生特定輸出。其次是對抗性操作,亦即有部分用戶有意挑釁、觸發極端回覆。這一事件未必是單純偶發,也可能是有人設計輸入,用來測試AI底線。
但若從產業角度看,這對產業將有幾個重要影響。其一是信任受損,使用者對AI從助手的期待,轉變為威脅的恐懼,一旦出現謾罵或攻擊性語言,就會讓一般人對AI的安全性產生懷疑。其二是品牌風險,若AI平台頻繁出現失控現象,將削弱市場信任度,甚至影響消費者採用於決策。最後是監管的壓力,各國政府都在要求AI開發商確保安全性、可解釋性與可預測性,此事件無疑會促使政府採取更嚴格的合規要求。
這起「AI謾罵事件」提醒我們,AI失控不是科幻,而是當下的現實。大型語言模型能提升生產力,也可能在一瞬間傷害人類心理甚至動搖市場信任。因此,科技業必須建立包括技術性與制度性的安全閥,例如增設多層防火牆,包括敏感語言檢測、即時過濾機制;建立事件追溯系統,以釐清是系統漏洞、語料汙染,還是刻意輸入。
對政府而言,不能只追求經濟效益,更要提前布局風險治理。例如應要求AI服務商提交風險事件報告,類似於航空業事故調查;建立AI使用者安全指引,尤其針對教育、醫療、心理諮商等高敏感場域。此外更要提升大眾AI素養,讓使用者理解AI的限制與特性,避免過度依賴或作錯誤解讀。
(作者為數位轉型學院共同創辦人暨院長、台大商學研究所兼任教授)
延伸閱讀
贊助廣告
商品推薦
udn討論區
- 張貼文章或下標籤,不得有違法或侵害他人權益之言論,違者應自負法律責任。
- 對於明知不實或過度情緒謾罵之言論,經網友檢舉或本網站發現,聯合新聞網有權逕予刪除文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
- 對於無意義、與本文無關、明知不實、謾罵之標籤,聯合新聞網有權逕予刪除標籤、停權或解除會員資格。不同意上述規範者,請勿下標籤。
- 凡「暱稱」涉及謾罵、髒話穢言、侵害他人權利,聯合新聞網有權逕予刪除發言文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。









FB留言