OpenAI同意政府測試新模型 協助改善安全性
隨著產業內部對人工智慧(AI)安全性和倫理的疑慮增加,AI新創公司OpenAI和Anthropic,已和美國AI安全研究院簽訂合作備忘錄(MOU),同意在公開發布新AI模型之前和之後,都讓政府取得使用權限並進行測試,以協助改善其安全性。
CNBC和The Verge報導,隸屬美國商務部國家標準與科技研究院(NIST)的AI安全研究院29日表示,政府和OpenAI與Anthropic間的協議,將有助於共同研究如何評估AI能耐、安全風險和緩解這些風險的方法。美國也將與英國的對口單位合作,提供關於改善安全性的回饋。
在聯邦和州的立法機關正思索如何在不阻礙創新的前提下規範AI技術之際,該項與政府共享AI模型的協議,可謂顯著的進展。
AI安全研究院是拜登政府去年10月頒布美國歷來首項關於AI的行政命令後所成立。該行政命令要求就AI對勞動市場的衝擊,進行新的安全性評估、建立符合公平和公民權利的指引,以及研究。
OpenAI策略長權傑森(音譯)說,「我們大力支持AI安全研究院的宗旨,也期待共同為AI模型制定實踐安全的最佳方式和標準」。
延伸閱讀
贊助廣告
商品推薦
udn討論區
共 0 則留言
規範
- 張貼文章或下標籤,不得有違法或侵害他人權益之言論,違者應自負法律責任。
- 對於明知不實或過度情緒謾罵之言論,經網友檢舉或本網站發現,聯合新聞網有權逕予刪除文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
- 對於無意義、與本文無關、明知不實、謾罵之標籤,聯合新聞網有權逕予刪除標籤、停權或解除會員資格。不同意上述規範者,請勿下標籤。
- 凡「暱稱」涉及謾罵、髒話穢言、侵害他人權利,聯合新聞網有權逕予刪除發言文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
FB留言