與其禁止 不如有效規範AI模型
中國杭州深度求索公司發布DeepSeek-R1模型,既供免費下載亦開放原始碼,引發熱潮。因此AI模型的功能極強,就不免有侵害隱私、資安外洩、智慧財產權侵害、言論自我審查等等疑慮,致有不少國家下令公部門禁止使用。惟這些質疑顯非DeepSeek所獨有,而是普遍存在於所有生成式AI上,故面對不斷推陳出新的AI模型,恐非禁止,而是如何以法律有效監管的問題。
任何生成式AI都須經過人類的訓練,這有賴於大量數據與資料。只是這些龐大的資訊不經由事先的合法授權或同意,就必會涉及個資及智慧財產權之侵害。在AI完成學習並已進入實用階段下,藉由其強大的搜尋與分析能力,也會涉及更大量、更廣泛的權利侵害。事實上,引領AI風潮的OpenAI在這幾年,即面對來自紐約時報、馬斯克等的集體求償訴訟。
其次,這些用以訓練AI的龐雜資訊勢必得先去除錯誤、偏見、歧視的訊息,但到底哪些資料該去除,卻又不脫人類的主觀判斷。現行AI仍須藉由人類訓練,就不可能是絕對客觀,故以DeepSeek為例,雖可指摘其帶有中國偏見,但同樣的指摘,亦可適用於ChatGpt帶有的美國偏見。更重要的是,只要這些AI開放原始碼,任何人都可以此為基礎,根據自己喜好而訓練出屬於自我特性之模型。
故在AI發展與使用不可逆的情勢下,各國勢必得有新的法制監管與因應。以全世界第一部AI法,即歐盟人工智慧法來說,將AI所可能帶來的危害加以層級化,即不可接受風險、高風險、有限風險與低風險,並因此為寬嚴密度的不同規範,其中自屬不可接受與高風險AI該如何規範,最應受關注。
所謂不可接受風險的AI系統,如使用欺瞞手段影響人類決定,或利用人性弱點影響人類做出傷害行為,甚或使用生物或人臉辨識系統來為種族、意識形態、政治傾向等之分類與探知,皆屬嚴重侵害人類權利,除少數為偵查特定犯罪之外,都應全面禁止。而此最高風險系統之禁止,也從今年二月二日開始生效,違者最高可處三千五百萬歐元罰金。
至於高風險的AI,如現今已被運用於醫療、教育、交通等事務者,只要能符合歐盟相關規範,就可進入市場,但業者須負有風險評估、人類可為控制、訓練學習與輸出的透明性等義務,以確保人類不受傷害;故歐盟的人工智慧法,似已為AI不能超越人類畫出一條紅線。
惟對於風險高低的界分仍屬模糊,勢必要有更具體的準則;至於對不可接受風險的AI,所謂禁止,到底是禁止運用,還是連開發都不行,恐也有其不確定性。更值思考的是,當AI的發展逐漸走向自主與獨立性,人類的法律,真能有效防止其反客為主?也肯定是一大疑問。
延伸閱讀
贊助廣告
商品推薦
udn討論區
- 張貼文章或下標籤,不得有違法或侵害他人權益之言論,違者應自負法律責任。
- 對於明知不實或過度情緒謾罵之言論,經網友檢舉或本網站發現,聯合新聞網有權逕予刪除文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
- 對於無意義、與本文無關、明知不實、謾罵之標籤,聯合新聞網有權逕予刪除標籤、停權或解除會員資格。不同意上述規範者,請勿下標籤。
- 凡「暱稱」涉及謾罵、髒話穢言、侵害他人權利,聯合新聞網有權逕予刪除發言文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
FB留言