台大研究:聊天機器人提供錯誤資訊 超過七成將被使用者記憶

台灣大學心理系副教授黃從仁的研究團隊今年11月20日在《美國心理學家》期刊發表最新的聊天機器人研究,研究發現,對話機器人的訊息中有77%的錯誤詞彙成為參與者的記憶。研究也發現,一次性的警語無法減少錯誤的記憶,即使預先頻繁、針對特定項目警告參與者,也無法阻止參與者記憶特定項目的錯誤資訊。
台灣科技媒體中心(SMC)邀請專家發表看法,此項研究作者之一黃從仁表示,聊天機器人會回答錯誤資訊已經不是新聞,但進到人們記憶中的錯誤資訊會影響人們的決策。這項研究證實,機器人提供的錯誤資訊中,有7、8成會變成人們的記憶,且即使機器人在提供錯誤的資訊前,已經抱持著自我懷疑、並提出警告,但這些警告只能增加人們的戒心,無法真正避免錯誤資訊成為記憶。
為了避免錯誤資訊仍被記憶的問題,黃從仁認為,聊天機器人應盡量不要輸出錯誤的資訊,例如透過人工檢核的方式剔除學習資料中的錯誤資訊,或是讓聊天機器人透過網路搜尋,先對答案進行事實查核。如果機器人真的無法確認答案的真確性,要直接回答「不知道」。
台大資訊工程學系副教授陳縕儂表示,現今生成式AI越來越普遍,由機器生成、帶有錯誤資訊的內容,是否會在人機互動中潛移默化影響使用者,是規範現代AI產品非常重要的考量。這項研究可以提供未來AI技術產品發展的指引,也能讓法規透過這個結論,來制定合適的規範策略。
另外,陳縕儂提醒,這則研究只探討了「錯誤資訊」造成的影響,但「偏頗資訊」的影響力可能更大,因為偏頗的訊息可能並非錯誤,所以使用者更難經由事實查核來驗證正確性。陳縕儂表示,我們在使用這些對話機器人時,需要對機器提供的資訊抱持懷疑,也需要具備自己的思辨能力與查核力,做出自我的最終判斷,才能避免AI機器影響人類想法言論。
▪當AI成為我的室友:大學生使用習慣揭密 5學生專訪吐心聲
▪沒有GPT畢不了業!旅法留學生笑談生成式AI:未來無法與它分離
▪科技一定冷漠?音樂劇少女用AI詮釋舞台情感:真情無法被取代
▪曾和AI談情說「愛」…社會學碩士生劃分界線:與人接觸才是真
▪別讓機器變傳聲筒! 台大中文系學生曝文組優勢:精準形容人性
▪人工智慧還能這樣玩!她設計AI幼兒、寫歌創作 拓展跨領域應用
延伸閱讀
贊助廣告
商品推薦
udn討論區
- 張貼文章或下標籤,不得有違法或侵害他人權益之言論,違者應自負法律責任。
- 對於明知不實或過度情緒謾罵之言論,經網友檢舉或本網站發現,聯合新聞網有權逕予刪除文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
- 對於無意義、與本文無關、明知不實、謾罵之標籤,聯合新聞網有權逕予刪除標籤、停權或解除會員資格。不同意上述規範者,請勿下標籤。
- 凡「暱稱」涉及謾罵、髒話穢言、侵害他人權利,聯合新聞網有權逕予刪除發言文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。










FB留言