00:00
尊敬的用戶您好,這是來自FT中文網的溫馨提示:如您對更多FT中文網的內容感興趣,請在蘋果應用商店或谷歌應用市場搜尋「FT中文網」,下載FT中文網的官方應用。
{"text":[[{"start":null,"text":"
OpenAI首席執行長薩姆•奧爾特曼(Sam Altman)。研究人員曾經發表過關於他們工作的論文,但由於急於搶佔市場份額,這種披露已經終止
"}],[{"start":5.78,"text":"AI的支持者和反對者普遍認爲,這項技術將改變世界。"},{"start":10.780000000000001,"text":"OpenAI的薩姆•奧爾特曼等人預見到人類將會繁榮發展的未來;批評者則預言社會將面臨混亂和過度的企業權力。"},{"start":20,"text":"哪種預測會成爲現實,在一定程度上取決於今天所奠定的基礎。"},{"start":25.009999999999998,"text":"然而,OpenAI最近的爭議,包括其聯合創辦人和首席科學家的離職,表明關鍵的AI參與者已經變得對社會過於不透明,無法爲其設定正確的方向。"}],[{"start":36.489999999999995,"text":"史丹佛大學(Stanford University)開發的一個指數發現,AI領軍企業谷歌(Google)、亞馬遜(Amazon)、Meta和OpenAI在透明度方面存在不足。"},{"start":45.08,"text":"儘管AI是透過跨平臺的研究人員和專家的合作而出現的,但自從OpenAI的ChatGPT引領了商業AI的繁榮以來,這些公司就閉口不談了。"},{"start":55.44,"text":"鑑於AI的潛在危險,這些公司需要回歸到更加開放的過去。"}],[{"start":60.269999999999996,"text":"AI的透明度主要涉及兩個方面:輸入和模型。"},{"start":64.42,"text":"大型語言模型,如OpenAI的ChatGPT或谷歌的雙子座(Gemini),透過在網路上搜索並分析從Reddit論壇到畢加索繪畫作品等「數據集」來進行訓練。"},{"start":75.4,"text":"在AI的早期階段,研究人員通常會在科學期刊上披露他們的訓練數據,以便他人透過評估輸入的質量來診斷缺陷。"}],[{"start":84.30000000000001,"text":"如今,關鍵參與者傾向於保留其數據的細節,以防止侵犯版權的訴訟並獲得競爭優勢。"},{"start":91.33000000000001,"text":"這使得評估由人工智慧生成的回應的真實性變得困難。"},{"start":95.42000000000002,"text":"同時,這也讓作家、演員和其他創作者無法瞭解自己的私隱或智慧財產是否被有意侵犯。"}],[{"start":103.53000000000002,"text":"這些模型本身也缺乏透明度。"},{"start":106.26000000000002,"text":"一個模型如何解釋其輸入並生成語言取決於其設計。"},{"start":110.75000000000001,"text":"人工智慧公司往往將其模型的架構視爲其「祕密武器」:OpenAI的GPT-4或Meta的Llama的巧妙之處在於其計算的質量。"},{"start":120.58000000000001,"text":"人工智慧研究人員曾經發布有關其設計的論文,但是爲了爭奪市場份額,這種披露已經結束。"},{"start":127.36000000000001,"text":"然而,如果不瞭解模型的功能如何,很難評估人工智慧的輸出、限制和偏見。"}],[{"start":133.75,"text":"所有這些不透明性使得公衆和監管機構難以評估人工智慧的安全性並防範潛在的危害。"},{"start":140.44,"text":"這更加令人擔憂的是,揚•雷克(Jan Leike)在本月離開公司後聲稱,OpenAI的領導層將「閃亮的產品」置於安全性之上,他曾協助領導OpenAI的超強人工智慧工具的發展。"},{"start":152.09,"text":"公司堅稱可以自行監管其產品,但其新的安全委員會將向同樣的領導層彙報。"}],[{"start":158.29,"text":"去年在布萊切利公園(Bletchley Park)舉行的一次會議、喬•拜登(Joe Biden)總統的人工智慧行政命令以及歐盟的人工智慧法案(AI Act),爲人工智慧監管奠定了基礎。"},{"start":167.68,"text":"儘管這些措施受到歡迎,但它們更注重設置「安全防護措施」而非全面透明。"},{"start":173.72,"text":"事實上,大多數人工智慧專家都在公司內部工作,而技術的發展速度對於定期的安全測試來說過快。"},{"start":181.32,"text":"監管機構應呼籲模型和輸入的透明度,並且這些公司的專家需要與監管機構合作。"}],[{"start":187.59,"text":"人工智慧有潛力改變世界,甚至可能比網路革命更具影響力和速度。"},{"start":193.18,"text":"公司可能會主張透明度要求會減緩創新並削弱他們的競爭優勢,但人工智慧的最近歷史表明情況並非如此。"},{"start":201.82,"text":"這些技術是在合作和共享研究的基礎上取得進展的。"},{"start":206.23,"text":"迴歸這些規範只會增加公衆的信任,並允許更快速但更安全的創新。"}]],"url":"https://creatives.ftacademy.cn/album/156972-cn-1717174751.mp3"}