AI伊甸園 應該有法定禁果

聯合報 楊哲銘/台北醫學大學醫療暨生物科技法律研究所、醫務管理學系教授(台北市)
人工智能(AI)。 路透

甫落幕的中美高峰會談,雙方領袖同意需要經由政府對話處理先進AI(人工智能)帶來的風險,凸顯AI的影響層面既深且廣。

十一月九日,美國好萊塢才剛結束史上最長的編劇罷工潮,在長達一一八天的談判中,最棘手的問題就是如何規範生成式AI對編劇的影響。最後達成的協議中,勞資雙方同意單純AI產生的文本不能引用為劇本的來源、不能因為使用AI而減少編劇的人力或減少編劇的報酬、保留挑戰使用編劇作品來訓練AI的法律權利。

電腦程式到底要發展到什麼狀態才算是AI?最常被引用的就是英國數學家圖靈在一九五○年代提出的「圖靈測試」,圖靈測試的基本假設是如果電腦可以反應、回應、互動如人類,就是跟人類一樣的人工智能。圖靈測試包含設計一些情境讓人跟電腦互動,如果人都無法分辨互動者是人還是電腦,這個電腦程式就算通過圖靈測試。最近很熱門的生成式AI,都號稱通過了圖靈測試。

AI的快速發展對人類是福是禍?今年以來,AI相關股票都是大漲,好像人類的未來因為AI而一片光明。但是福兮禍所倚,AI不可能只有百利而無一害,否則好萊塢編劇也不會這麼擔心。十一月初英國召開了「全球人工智能安全峰會」,會後發布了共同宣言,指出AI的前沿應用有潛在的災難性風險,應該要有跨國的合作來規畫出依風險程度制定的政策及法律管制架構。

前沿AI到底有何災難性的風險?我們能想像的多半來自科幻電影。科幻電影中常提到「機器人三法則」,這是廿世紀中葉的科幻作家Isaac Asimov在小說中創造出來的:第一條、機器人不可以傷害人類;第二條、機器人必須遵從人類的指示,除非這個指示違反了第一法則;第三條、機器人可以保護自己,但不可以違反第一跟第二法則。有點抽象沒有具體情境,但至少禁止傷害人類。

AI的應用無遠弗屆,充滿無限的可能是前沿科技的伊甸園,要立法正面表列允許的項目不可能,比較可行的應該是考慮負面表列禁止AI執行的項目。科學發明不一定見容於人類社會,例如我國人工生殖法第十六條規定有八款禁止執行的技術,禁止以無性生殖方式進行人工生殖,也就是複製人。援引類推,雖然目前以AI發展的醫療輔助決策系統如雨後春筍,但是否應該立法禁止AI做跟人類生命有關的醫療決定?

或許有人認為伊甸園有上帝的禁果,亞當跟夏娃還不是吃了?愈禁愈糟。往好處想,亞當跟夏娃至少想了好一陣子才偷嘗禁果。雖然法律沒有辦法完全避免人類啟動自我毀滅的可能,可是畫定禁區,至少警惕人們不要輕舉妄動,三思而後行。

風險 好萊塢 電影

延伸閱讀

留言