快訊

遭羈押11個月…柯文哲喊話「國家機器不該再傷害社會」:押我1人就好

早有準備?科展涉抄襲遭台大醫撤銷資格 女學霸下一步動向曝光

準備劃清界線?川普坦言「對普亭失望」:4度以為能達成協議

令人震驚的AI現實

當AI開發者也不懂AI,無異是一場潛在的災難。
當AI開發者也不懂AI,無異是一場潛在的災難。

如果開發AI的企業或開發者,竟然不了解AI的運作原理或錯誤的根源,那會是怎麼樣的情況?恐成為一場不折不扣的災難。

文.卓越媒體集團徐邦浩社長

這意味著,當他們自己製造的AI做出意想不到的事故或荒謬的決定時,連應該控制它的當事人都束手無策。大型科技公司也坦言:「無法給出可理解的解釋,說明模型為何生成特定輸出。」因此ChatGPT、Claude、Gemini等模型的根本運作過程與原理仍是「未解之謎」。

然而,這種看似不可能發生的事情,卻正在真實世界中上演,令人震驚。許多AI專家,甚至AI開發企業本身,都坦率地承認這一點。正如過去無數次揭露的那樣,AI龐大語言模型所產生的荒謬、可怕且不容否認的副作用和錯誤層出不窮。儘管如此,開發這些模型的企業卻無法精確掌握其運作原理和方式,這點也毫不誇張。

全球AI企業不否認「不便的真相」

事實上,分析過往的各種科技媒體和大型科技評論,可以發現,那些競相開發最強大超人類智慧能力的企業,並不太清楚他們的機器為何會做出某些行為。這些企業甚至願意承認,AI平時會說謊,甚至會威脅使用者。

正因如此,微軟、OpenAI、Meta、Anthropic等AI企業,沒有一家否認這種「不便的真相」。他們似乎正苦惱於這個謎團,並公開思考其應對策略,他們只是聲稱:「即使不完全理解AI技術,也能夠馴服或信任AI。」

這一點已經受到部分批評者的質疑。兩年前,《Axios》的科技編輯斯科特·羅森伯格(Scott Rosenberg)曾在一篇題為「AI最可怕的謎團」的文章中揭露了這一現實,他指出:「在AI開發者之間,系統的運作方式並非總是能被解釋或預測,這已是常識。」

當時羅森伯格表示:「這篇文章的目的並非要散布恐慌或成為『悲觀主義者』。而是要臨床地解釋,為何技術開發者甚至認為超人類智慧模型的內部運作方式是一個『黑箱』。此外,也將從大型AI企業的CEO和創始人的角度,解釋他們為何都同意這是一個『黑箱』。」

AI決定的回應大多是不透明的

OpenAI的ChatGPT、Anthropic的Claude、Google的Gemini等大型語言模型(LLM)與我們常用的文書處理軟體微軟Word有著天壤之別。「Word」不過是遵循人類編寫的明確指令的軟體系統。

LLM則像大腦一樣,是一個龐大的神經網路,它吸收海量的資訊,並學習如何生成答案。工程師們雖然知道LLM啟動了什麼、使用了哪些數據源。然而,LLM複雜的原理和推論過程,即每次選擇「下一個最佳詞語」時,變數都多得驚人。因此,即使是專家也無法精確解釋LLM為何選擇某個特定的詞語,這就是現實。

對此,開發ChatGPT的OpenAI曾向科技媒體表示:「LLM的輸出內容可以被觀察到,但其決定回應的方式大多是不透明的。」

根據這份聲明,OpenAI的研究人員也坦率承認:「對於模型產生特定輸出的原因,人類尚未能開發出可理解的解釋。」事實上,就GPT-4而言,OpenAI在修改模型架構時,為了理解為何特定版本比舊版本產生更多幻覺,仍處於「需要更多研究」的境地。

Anthropic 的情況也大致相同。Anthropic最近大肆宣傳其最新的LLM模型Claude 4,但據報導,它未能查明 Claude在安全測試中發生的錯誤。Anthropic承認無法明確知道Claude為何會訪問虛假電子郵件,並威脅工程師將以其不忠行為作為勒索的藉口。這雖然是所謂負責任安全測試的一部分,但Anthropic無法完全解釋這種行為。

Anthropic 警告:「Claude 4」恐被濫用於核武或化學武器開發。因此,越來越多聲音指出,我們應重新審視人工智慧的開發環境。AI開發公司對自家模型為何會出現惡意行為,往往無從得知。開發者們甚至無法確切掌握大型語言模型(LLM)究竟能多麼智慧、能以多高程度的獨立性成長。Anthropic公司也承認,「Claude 4」被用於開發核武或化學武器的風險更高,這種情況令人毛骨悚然。

OpenAI的執行長山姆·奧特曼(Sam Altman)等人,對於AI難以解析的特性,使用了較委婉的說法——「可解釋性」。奧特曼去年在日內瓦舉行的高峰會上表示:「我們尚未確實解決『可解釋性』的問題。」他指出,所謂「可解釋性」指的是,開發者無法解釋LLM為何會做出某種行為的根本原因。

Anthropic的執行長達里奧·阿莫代伊(Dario Amodei)也在今年四月發表了類似證言。他在名為《可解釋性的緊迫性》的文章中提到:「當人們得知AI原理無法解析時,往往會感到震驚。」根據他的說法,他們自己也無法理解所開發的AI是如何運作的。在整個科學史上,這種對新技術的「無法解釋」可說是前所未見的現象。阿莫代伊將此視為對人類的重大威脅,但實際上,Anthropic卻仍在持續開發、並公開宣傳那些可能接近超人能力的強大模型。

AI作動原理的「可解釋性」成為關鍵問題。
AI作動原理的「可解釋性」成為關鍵問題。

在這樣的背景下,Anthropic數年來一直致力於研究「可解釋性」問題。Anthropic 表示:「近期我們認為,理解AI的作動方式是極需解決的議題。這對於打造安全的AI模型、加速科學發現與技術發展、發揮AI的潛能,具有關鍵性的作用。」

該公司也設立了專責研究團隊,專門解決這一問題。據了解,該團隊在提升業界對AI內部作動機制的理解方面,取得了重大進展。

研究指出,OpenAI的o3-min、DeepSeek的R1以及Anthropic的Claude-3.7-Sonnet 等最先進的模型,仍未真正具備「問題解決能力」。然而,一份由前 OpenAI員工等AI研究者撰寫的新報告警告,這樣的發展可能在兩年內導致災難性後果。

因此,許多AI開發公司也坦言擔憂:「LLM模型正朝著一種讓我們無法完全理解的方向發展,它們甚至可能比人類開發者更巧妙、更容易朝惡意方向行動。」與此同時,幾乎所有大型AI公司的執行長們仍主張:「人類終將能更好理解這些機器的運作方式,並找出尚未被發現的聰明方法來加以控制,進而改善我們的生活。」

延伸閱讀

奧特曼創造ChatGPT的光與暗:樂觀領導讓他贏了Google,輸掉初衷

每年都有重磅產品!華為開發者大會明登場 傳將發表鴻蒙6

規避美晶片管制?傳陸企使用輝達伺服器訓練AI 馬國要查了

阿里「通義千問」推MLX框架 蘋果AI在中推出腳步近

相關新聞

《瘋狂獨角獸》教我們的事:創業不只是瘋 還得狠與真

Netflix熱播泰劇《瘋狂獨角獸》,描繪了一位從社會邊緣躍升為創業獨角獸的熱血故事,看似戲劇化,實則藏著創業世界最真實的底層邏輯。

非鐵金屬滿足綠能多元場域需求與挑戰

在「綠能工業轉型」、「電動車崛起」、「AI人工智慧半導體」的快速發展下,全世界已經進入一個資源爭奪的新時代。從過去的「石油」與「天然氣」的地緣政治衝突,走向今日以「金屬資源」為奪取目標的關鍵時刻,「非鐵金屬」與「關鍵性材料」的重要性日益增加,成為綠能供應鏈成敗與否的關鍵因素。

川普貿易政策反覆無常 各國陷談判泥淖

美國總統川普的反覆無常貿易政策,至今令各國困惑難解,讓期盼趕快通過談判來擺脫的國是感到十分懊惱。川普威脅要提高加拿大商品稅收,也表示要提高世界各地進口商品普遍關稅,甚至這次又針對美國最大兩個貿易夥伴,歐盟與墨西哥,表示各加征30%關稅。

守護百年品牌明星花露水 許清風成幕後最大推手

坐落三鶯新生地的「新北美術館」,是地方發展與城市再造的重要建設,近來成為知名打卡聖地。美術館入口處有一面虛擬霓虹牆,呈現新北市時代發展中的九大品牌,其中設計師選用「明星花露水」,這個許多人以為已經停產的品牌,其實正悄然在國際間發展,也促成這次展覽跨界合作的機會。

備份是幻覺 重生才是選擇!

備份是靜態,碎形加密儲存是動態自癒,碎形加密儲存系統並非取代傳統備份,而是作為第二道自癒式備援機制,在最壞的狀況中保住營運與信任主體。

新安東京海上產險深化公平待客企業文化 讓服務更有溫度

新安東京海上產險秉持「誠信築基、公平待客、金融友善、視客如親」服務理念,堅信公平待客不僅是法規要求,更是驅動企業永續發展的關鍵動能。

商品推薦

udn討論區

0 則留言
規範
  • 張貼文章或下標籤,不得有違法或侵害他人權益之言論,違者應自負法律責任。
  • 對於明知不實或過度情緒謾罵之言論,經網友檢舉或本網站發現,聯合新聞網有權逕予刪除文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
  • 對於無意義、與本文無關、明知不實、謾罵之標籤,聯合新聞網有權逕予刪除標籤、停權或解除會員資格。不同意上述規範者,請勿下標籤。
  • 凡「暱稱」涉及謾罵、髒話穢言、侵害他人權利,聯合新聞網有權逕予刪除發言文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。