人工智慧不應該是一個黑盒子 - FT中文網
登錄×
電子郵件/用戶名
密碼
記住我
請輸入郵箱和密碼進行綁定操作:
請輸入手機號碼,透過簡訊驗證(目前僅支援中國大陸地區的手機號):
請您閱讀我們的用戶註冊協議私隱權保護政策,點擊下方按鈕即視爲您接受。
爲了第一時間爲您呈現此資訊,中文內容爲AI翻譯,僅供參考。
FT商學院

人工智慧不應該是一個黑盒子

圍繞OpenAI的爭議事件凸顯了公司變得更加透明的必要性。
OpenAI首席執行長薩姆•奧爾特曼(Sam Altman)。研究人員曾經發表過關於他們工作的論文,但由於急於搶佔市場份額,這種披露已經終止

AI的支持者和反對者普遍認爲,這項技術將改變世界。OpenAI的薩姆•奧爾特曼等人預見到人類將會繁榮發展的未來;批評者則預言社會將面臨混亂和過度的企業權力。哪種預測會成爲現實,在一定程度上取決於今天所奠定的基礎。然而,OpenAI最近的爭議,包括其聯合創辦人和首席科學家的離職,表明關鍵的AI參與者已經變得對社會過於不透明,無法爲其設定正確的方向。

史丹佛大學(Stanford University)開發的一個指數發現,AI領軍企業谷歌(Google)、亞馬遜(Amazon)、Meta和OpenAI在透明度方面存在不足。儘管AI是透過跨平臺的研究人員和專家的合作而出現的,但自從OpenAI的ChatGPT引領了商業AI的繁榮以來,這些公司就閉口不談了。鑑於AI的潛在危險,這些公司需要回歸到更加開放的過去。

AI的透明度主要涉及兩個方面:輸入和模型。大型語言模型,如OpenAI的ChatGPT或谷歌的雙子座(Gemini),透過在網路上搜索並分析從Reddit論壇到畢加索繪畫作品等「數據集」來進行訓練。在AI的早期階段,研究人員通常會在科學期刊上披露他們的訓練數據,以便他人透過評估輸入的質量來診斷缺陷。

如今,關鍵參與者傾向於保留其數據的細節,以防止侵犯版權的訴訟並獲得競爭優勢。這使得評估由人工智慧生成的回應的真實性變得困難。同時,這也讓作家、演員和其他創作者無法瞭解自己的私隱或智慧財產是否被有意侵犯。

這些模型本身也缺乏透明度。一個模型如何解釋其輸入並生成語言取決於其設計。人工智慧公司往往將其模型的架構視爲其「祕密武器」:OpenAI的GPT-4或Meta的Llama的巧妙之處在於其計算的質量。人工智慧研究人員曾經發布有關其設計的論文,但是爲了爭奪市場份額,這種披露已經結束。然而,如果不瞭解模型的功能如何,很難評估人工智慧的輸出、限制和偏見。

所有這些不透明性使得公衆和監管機構難以評估人工智慧的安全性並防範潛在的危害。這更加令人擔憂的是,揚•雷克(Jan Leike)在本月離開公司後聲稱,OpenAI的領導層將「閃亮的產品」置於安全性之上,他曾協助領導OpenAI的超強人工智慧工具的發展。公司堅稱可以自行監管其產品,但其新的安全委員會將向同樣的領導層彙報。

去年在布萊切利公園(Bletchley Park)舉行的一次會議、喬•拜登(Joe Biden)總統的人工智慧行政命令以及歐盟的人工智慧法案(AI Act),爲人工智慧監管奠定了基礎。儘管這些措施受到歡迎,但它們更注重設置「安全防護措施」而非全面透明。事實上,大多數人工智慧專家都在公司內部工作,而技術的發展速度對於定期的安全測試來說過快。監管機構應呼籲模型和輸入的透明度,並且這些公司的專家需要與監管機構合作。

人工智慧有潛力改變世界,甚至可能比網路革命更具影響力和速度。公司可能會主張透明度要求會減緩創新並削弱他們的競爭優勢,但人工智慧的最近歷史表明情況並非如此。這些技術是在合作和共享研究的基礎上取得進展的。迴歸這些規範只會增加公衆的信任,並允許更快速但更安全的創新。

版權聲明:本文版權歸FT中文網所有,未經允許任何單位或個人不得轉載,複製或以任何其他方式使用本文全部或部分,侵權必究。

川普過渡團隊尋求在「第一天」讓美國退出世衛組織

美國的迅速退出將使全球衛生機構失去主要資金來源,並削弱其應對緊急情況的能力。

谷歌推動重新確立人工智慧領域的領先地位,提振了投資者信心

在經歷了過山車般的一年之後,人工智慧和量子計算領域的一系列突破帶來了轉機。

川普會如何解決烏克蘭戰爭?

基輔及其歐洲盟友認爲,他們有機會影響即將上任的總統結束戰爭的計劃。但他們在提出什麼建議上存在分歧。

馬蒂厄•布萊希,接手香奈兒的設計師

這位新任創意總監以強調工藝與合作而著稱。

必須阻止人工智慧對我們智慧財產的侵犯

作家不應承擔從竊取其作品的公司中「選擇退出」的負擔。

沙烏地曾就馬格德堡襲擊事件中被扣押的男子向德國發出警告

汽車衝入繁忙的聖誕市場,導致五人死亡,200多人受傷。
設置字型大小×
最小
較小
默認
較大
最大
分享×