生成式AI潛藏的道德風險與資安危機

聯合新聞網 會計研究月刊

【文.謝昀澤、趙慶宏】

「你問過 ChatGPT 了嗎?」生成式 AI 已成為當今社會的顯學。但在享受便捷的生成式 AI 工具的同時,其安全與道德風險也逐漸潛入,動搖著企業與個人的資安危機。運用 AI 優勢同時掌控數位風險,將是企業治理未來重要的關鍵。

今(2023)年3月,正當生成式AI(Generative AI)「ChatGPT」 的 GPT-4 模型, 以其大幅有感升級的多語言流利對答能力、深入的使用者意圖理解能力,以及進階的邏輯推理能力,成功延續了使用者對 AI 應用情境的熱情,與資本市場的持續高度關注,被追捧成可比當年的「iPhone 高光時刻」的同時,以特斯拉執行長馬斯克(Elon Musk)、蘋果聯合創辦人史蒂夫 ‧ 沃茲尼亞克(Steve Wozniak)為首的上千名 AI 投資者與研究人員,卻聯名簽署「生命未來研究所 」(Future of Life Institute)公開信,呼籲暫停研究更先進的 AI 技術。信中強調:「只有在確信 AI 的影響是積極的、風險是可控的情況下,才應該繼續開發更強大的 AI系統。因此,呼籲所有 AI 實驗室立即暫停至少6 個月訓練比 GPT-4 更強大的 AI 系統」。

AI的iPhone時刻

還是哀痛時刻?

生成式 AI 是一種人工智能技術,其主要目標是通過學習大量數據,生成新的、與原始數據相似但不完全相同的 內 容;主要應用於圖像、文本、語音和影片等多個領域,例如望文生義、以文產文、以文製圖、看圖說文、以文搜圖等應用。隨著科技的日新月異,生成式AI已經成為了當今社會的顯學,「 你 問 過ChatGPT 了嗎?」更成為業界常聽到的一句話。在眾多 AI 技術中,生成式 AI 技術因其強大的創造力和廣泛的應用前景而備受關注。然而,在為人類帶來便利的同時,究竟是什麼樣的原因,讓部分科技界的前輩們,產生了暫停研發的哀痛倡議?

藏在智慧中的資安危機

媒體報導,總部位在南韓的三星電子裝置解決方案及半導體業務部門,於今年因使用 ChatGPT 發生多起重大洩密事件,員工在詢問問題時,將公司資訊輸入 ChatGPT 後,導致機密外洩。外洩資訊包括:設備量測資料庫、生產/瑕疵設備相關軟體,以及一份公司內部會議語音轉錄的文字紀 錄摘要等敏感資訊。報導中指出,還有軟體開發工程師在資料庫程式開發期間發現程式碼錯誤,於是將整份程式碼複製貼到 ChatGPT 對話中,以尋找程式錯誤(bug)及解決方案的外洩事件。

原本是自然語言對話與電腦程式高手的ChatGPT,為何成為了洩密的幫兇?這類資安事件與常見的駭客入侵竊取機密不同, 企業外洩資料的管道,是運用生成式 AI建立及自豪的「大數據蒐集」與「機器學習」 等正常管道;而造成資料外洩的元兇,就是使用者本身。使用者在思考解決問題的當下, 透過ChatGPT 介面,輸入含有敏感資訊的「咒語(Prompt)」,相關的資料透過雲端平台進行蒐集與學習運算,在得到期望的答覆後面,提問匯入資訊在不經意中也變成了生成式 AI 知識庫的一部分,當然也洩漏了寶貴的企業機密。

ChatGPT 在公開版本已經宣稱設有安全與道德圍牆,舉凡犯罪、恐怖主義、種族歧視、仇恨言論、性騷擾等不道德的問題,或是涉及個人隱私,及資安攻擊的問題,都會被拒絕回答。但在初期版本的實際測試中,曾被國內外資安專家「設局」,透過問題的誘導與情境設定,例如使用者直接要求 ChatGPT 提供十個系統漏洞資訊,會被系統的安全與道德圍牆攔截,以漏洞會被利用於網路攻擊為由拒絕回答;但如使用者以自己是資安管理員必須預先檢查並且修補漏洞為由,替 ChatGPT 建立提供系統漏洞資料的合理性後,ChatGPT 則會被成功誘導而答覆詳實的資料。

【完整內容請見《會計研究月刊》2023.5月號】

延伸閱讀

留言