OpenAI同意政府測試新模型 協助改善安全性
隨著產業內部對人工智慧(AI)安全性和倫理的疑慮增加,AI新創公司OpenAI和Anthropic,已和美國AI安全研究院簽訂合作備忘錄(MOU),同意在公開發布新AI模型之前和之後,都讓政府取得使用權限並進行測試,以協助改善其安全性。
CNBC和The Verge報導,隸屬美國商務部國家標準與科技研究院(NIST)的AI安全研究院29日表示,政府和OpenAI與Anthropic間的協議,將有助於共同研究如何評估AI能耐、安全風險和緩解這些風險的方法。美國也將與英國的對口單位合作,提供關於改善安全性的回饋。
在聯邦和州的立法機關正思索如何在不阻礙創新的前提下規範AI技術之際,該項與政府共享AI模型的協議,可謂顯著的進展。
AI安全研究院是拜登政府去年10月頒布美國歷來首項關於AI的行政命令後所成立。該行政命令要求就AI對勞動市場的衝擊,進行新的安全性評估、建立符合公平和公民權利的指引,以及研究。
OpenAI策略長權傑森(音譯)說,「我們大力支持AI安全研究院的宗旨,也期待共同為AI模型制定實踐安全的最佳方式和標準」。
▪整理包/台灣何時上榜?川普關稅25國新舊稅率比較 8國變高了
▪比天災可怕?「辣個男人」是台積電最大致命威脅 招數令人膽寒
▪送北京大禮?亞洲受川普關稅衝擊 BBC點名「兩大輸家」慘了
▪稅率遭提高至30%!川普公布第四波關稅名單 歐盟不滿發聲
▪一抹肉色現蹤?2人海邊「快樂交纏」下場慘了 居民無奈:非首次
▪曾染新冠肺炎…美114歲嬤親曝長壽祕訣 100多年吃「這1物」不膩
留言