聽新聞
test
0:00 /
0:00
AI資安風險猶存 專家:跟人工智慧談心不要說出祕密
不要跟聊天機器人說你的祕密!專家指出,生成式人工智慧有賴於數據訓練,但用戶透露的內容也會成為訓練數據,民眾想跟人工智慧談心,不僅得不到公允的回答,還有可能成為人工智慧的訓練材料。
不跟AI說祕密
《衛報》報導,牛津大學人工智慧教授伍德里吉指出,向聊天機器人分享私人資訊或談心是「非常不明智」的行為,因為任何資訊都會成為訓練AI的材料。他更補充說,用戶也不會期待會有什麼公允的回應,因為人工智慧常常只能「告訴你你想聽的」。
他強調,雖然人類試圖在人工智慧尋找「意識」的存在,但實際上相當徒勞,「因為人工智慧沒有同理心,更沒有同情心,該技術的根本就是告訴你,你想聽的話」。伍德里吉表示,考慮到人工智慧的工作原理,如果民眾向他吐露心事,就會成為訓練材料,且幾乎沒有辦法取回資料。
資安仍有風險
《衛報》報導,其他對人工智慧的擔憂,也包括 ChatGPT 等生成式人工智慧,可能會給使用者提供糟糕的醫療建議,或可能會在它們所訓練的資料中出現偏差。
伍德里吉認為,目前應對上述人工智慧風險的方式就是「鼓勵懷疑」,並確保足夠透明度與問責機制。
目前已經有不少公司在收集和使用資料時,出現隱私侵犯的疑慮。專家擔心,隨著人工智慧發展,這種情況可能會增加,尤其AI人工智慧平台仰賴工程師撰寫程式,並餵養大量資料,因此仍舊存在著資訊安全的漏洞。
大多數企業都試著強化自身的自安防衛措施,如強化檢測系統、引入「零信任」技術,在運用人工智慧時強化加密與數據保護。
延伸閱讀
贊助廣告
商品推薦
udn討論區
共 0 則留言
規範
- 張貼文章或下標籤,不得有違法或侵害他人權益之言論,違者應自負法律責任。
- 對於明知不實或過度情緒謾罵之言論,經網友檢舉或本網站發現,聯合新聞網有權逕予刪除文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
- 對於無意義、與本文無關、明知不實、謾罵之標籤,聯合新聞網有權逕予刪除標籤、停權或解除會員資格。不同意上述規範者,請勿下標籤。
- 凡「暱稱」涉及謾罵、髒話穢言、侵害他人權利,聯合新聞網有權逕予刪除發言文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
FB留言