人工智慧不應該是一個黑盒子 - FT中文網
登錄×
電子郵件/用戶名
密碼
記住我
請輸入郵箱和密碼進行綁定操作:
請輸入手機號碼,透過簡訊驗證(目前僅支援中國大陸地區的手機號):
請您閱讀我們的用戶註冊協議私隱權保護政策,點擊下方按鈕即視爲您接受。
爲了第一時間爲您呈現此資訊,中文內容爲AI翻譯,僅供參考。
FT商學院

人工智慧不應該是一個黑盒子

圍繞OpenAI的爭議事件凸顯了公司變得更加透明的必要性。
OpenAI首席執行長薩姆•奧爾特曼(Sam Altman)。研究人員曾經發表過關於他們工作的論文,但由於急於搶佔市場份額,這種披露已經終止

AI的支持者和反對者普遍認爲,這項技術將改變世界。OpenAI的薩姆•奧爾特曼等人預見到人類將會繁榮發展的未來;批評者則預言社會將面臨混亂和過度的企業權力。哪種預測會成爲現實,在一定程度上取決於今天所奠定的基礎。然而,OpenAI最近的爭議,包括其聯合創辦人和首席科學家的離職,表明關鍵的AI參與者已經變得對社會過於不透明,無法爲其設定正確的方向。

史丹佛大學(Stanford University)開發的一個指數發現,AI領軍企業谷歌(Google)、亞馬遜(Amazon)、Meta和OpenAI在透明度方面存在不足。儘管AI是透過跨平臺的研究人員和專家的合作而出現的,但自從OpenAI的ChatGPT引領了商業AI的繁榮以來,這些公司就閉口不談了。鑑於AI的潛在危險,這些公司需要回歸到更加開放的過去。

AI的透明度主要涉及兩個方面:輸入和模型。大型語言模型,如OpenAI的ChatGPT或谷歌的雙子座(Gemini),透過在網路上搜索並分析從Reddit論壇到畢加索繪畫作品等「數據集」來進行訓練。在AI的早期階段,研究人員通常會在科學期刊上披露他們的訓練數據,以便他人透過評估輸入的質量來診斷缺陷。

如今,關鍵參與者傾向於保留其數據的細節,以防止侵犯版權的訴訟並獲得競爭優勢。這使得評估由人工智慧生成的回應的真實性變得困難。同時,這也讓作家、演員和其他創作者無法瞭解自己的私隱或智慧財產是否被有意侵犯。

這些模型本身也缺乏透明度。一個模型如何解釋其輸入並生成語言取決於其設計。人工智慧公司往往將其模型的架構視爲其「祕密武器」:OpenAI的GPT-4或Meta的Llama的巧妙之處在於其計算的質量。人工智慧研究人員曾經發布有關其設計的論文,但是爲了爭奪市場份額,這種披露已經結束。然而,如果不瞭解模型的功能如何,很難評估人工智慧的輸出、限制和偏見。

所有這些不透明性使得公衆和監管機構難以評估人工智慧的安全性並防範潛在的危害。這更加令人擔憂的是,揚•雷克(Jan Leike)在本月離開公司後聲稱,OpenAI的領導層將「閃亮的產品」置於安全性之上,他曾協助領導OpenAI的超強人工智慧工具的發展。公司堅稱可以自行監管其產品,但其新的安全委員會將向同樣的領導層彙報。

去年在布萊切利公園(Bletchley Park)舉行的一次會議、喬•拜登(Joe Biden)總統的人工智慧行政命令以及歐盟的人工智慧法案(AI Act),爲人工智慧監管奠定了基礎。儘管這些措施受到歡迎,但它們更注重設置「安全防護措施」而非全面透明。事實上,大多數人工智慧專家都在公司內部工作,而技術的發展速度對於定期的安全測試來說過快。監管機構應呼籲模型和輸入的透明度,並且這些公司的專家需要與監管機構合作。

人工智慧有潛力改變世界,甚至可能比網路革命更具影響力和速度。公司可能會主張透明度要求會減緩創新並削弱他們的競爭優勢,但人工智慧的最近歷史表明情況並非如此。這些技術是在合作和共享研究的基礎上取得進展的。迴歸這些規範只會增加公衆的信任,並允許更快速但更安全的創新。

版權聲明:本文版權歸FT中文網所有,未經允許任何單位或個人不得轉載,複製或以任何其他方式使用本文全部或部分,侵權必究。

再次陷入危機的福斯汽車能走上改革之路嗎?

歐洲最大的汽車製造商正與工人和政界人士交戰,試圖渡過痛苦的電動汽車轉型期。

哈里斯的另一個大選對手:通貨膨脹

美國選民對高昂生活成本的不滿可能決定下週誰將贏得白宮。

Lex專欄:Meta和微軟透過季度理智檢查

科技巨擘今天吹捧真正的勝利,以證明明天的鉅額投資是合理的。投資者對此是支援的,但程度有限。

FT社評:英國工黨預算——雄心勃勃,前景不明

財政大臣蕾切爾•裏夫斯現在必須兌現她的投資計劃,否則稅收還將進一步增加。

Lex專欄:福斯汽車很難走出死衚衕

儘管這家汽車製造商計劃裁員和關閉工廠,但投資者的擔憂是可以理解的。

安謀如何成爲人工智慧投資熱潮中的意外贏家

這家由軟銀控股的英國晶片設計公司的股價在過去一年上漲了兩倍。但它的野心遠不止於此。
設置字型大小×
最小
較小
默認
較大
最大
分享×