慎防人工智慧系統偏誤 國科會承諾積極推動倫理研究

聯合報 記者許維寧/台北即時報導

立法院今天舉行教育文化委員會審議國科會預算,立委指出,生成式人工智慧發展讓更直觀、更人性化的人機互動成為可能,但人工智慧機器系統發生的偏誤(Bias)對社會影響也愈來愈深,要求國科會需進行機器倫理研究,提供作為產業發展依據。國科會則表示,會積極推動倫理研究,於法制面和產業發展間取得平衡。

立委范雲表示,隨科技發展,人工智慧機器決策系統的偏誤也逐漸對社會產生影響,為了維持人機互動和諧,機器倫理(Machine Ethics)技術研究亦不可或缺。

范雲指出,國際上也不乏對人工倫理決策者的研究,更有學者提出Human in the loop、Society in the loop的模型,即是於機器訓練的決策迴圈中納入人與公眾社會的參與,讓決策和監督有更多多元價值。

國科會主委吳政忠則表示,人工智慧確實也可能危害社會,「我們非常注意。」機器倫理等議題歐盟等也非常重視。國科會已積極推動倫理相關研究,但也希望法制面不要太嚴苛,以免壓縮產業面發展。

另外,立委吳思瑤也表示,自2022年ChatGPT問世後,各國政府更加重視中大型語言模型研發,目前國際間大型語言模型,簡體中文訓練資料占比遠高於繁體中文,導致模型推論結果偏向中國大陸的生活用語與思想論述。

吳思瑤也指出,國科會「推動可信任生成式AI發展先期計畫」,計畫雖蒐整繁體中文資料庫訓練模型,包括教育部國語詞典、成語典和學術論文摘要等,但訓練資料內容仍偏重科技領域,內容對大型語言模型而言不僅不夠多元,數量也不足。

吳思瑤建議,文本訓練應擴大部會串接,且國科會應盤點各部會發行的期刊、文本和已建置雲端資料庫,如國家文化記憶庫等,廣泛納入訓練文本中,以提升訓練資料多元性。

立法院今天召開教育文化委員會審議國科會預算。立委指出,人工智慧機器系統發生的偏誤...

國科會則說明,生成式AI若於訓練階段需利用他人著作,必須依照著作權法規定辦理。文化部國家文化記憶有數種資料,部分如民眾上傳的素材因著作權因素無法再授權,其餘可公開文字目前則已取得4萬6440筆。

國科會 倫理 語言

延伸閱讀

留言