登錄×
電子郵件/用戶名
密碼
記住我

為您推薦

人工智慧

小心AI帶來的戰略決策困境

希爾:一篇發人深省的新論文提醒管理者注意人工智慧的局限和風險。如果他們將太多決策委託給機器,他們將失去創新和承擔風險的能力。

最近,我主持了一個「戰略手術」,讓高管們把兩難困境都帶來,以進行「會診」,尋找處方來緩解他們的戰略痛苦。

英國《金融時報》125論壇(Financial Times 125 forum)主持了此次會議。該論壇的一位成員問道:「我的公司何時以及為什麼要偏離其戰略框架?」另一位與會者指出,戰略是「做出艱難選擇的藝術」。它可能是藝術,但科學正在選擇方面發揮越來越大的作用。

自從DeepMind的AlphaGo計算機系統學會如何擊敗純戰略遊戲圍棋的全球最佳人類玩家以來,三年多時間過去了。長期以來,對沖基金一直試圖用計算機代碼來表達成功的交易和投資策略,用橋水(Bridgewater)創始人雷•戴利奧(Ray Dalio)的話來說,「以超越我們對我們自己的結論的情感依戀」。

根據德克•林德鮑姆(Dirk Lindebaum)、米科•韋薩(Mikko Vesa)和弗蘭克•德恩杭德(Frank den Hond)的一篇發人深省的新論文,基於人工智慧的算法是戴利奧式決策的「超級航母」。如果沒有制衡的話,一個極端的結果將是某種策略奇點,其中對算法的盲從破壞了管理者評估計劃的能力。

該文從1909年出版的愛德華•摩根•福斯特(EM Forster)的反烏托邦短篇小說《機器休止》(The Machine Stops)中汲取了靈感。福斯特設想了衰弱的人們生活在地下蜂窩狀房間的世界,這是極權主義的技術依賴系統的一部分。他們依靠「機器」進行交流、娛樂、獲取精神和物質養料。大多數人的決策能力都出現了萎縮。那些反叛者被流放到地球表面。

當機器遭受一個災難性故障時,地下社會隨之崩潰。一線希望是,一個絕境中的人提出「人類吸取了教訓」。

對如今的戰略家來說,愛德華時代(指1901年至1910年愛德華七世在位的時期——譯者注)的科幻小說似乎是一個糟糕的指南。但林德鮑姆教授告訴我,他和他的合著者在不想妖魔化技術的情況下,希望用福斯特的故事來啟示管理者,讓他們注意到人工智慧的局限和風險。他警告管理者不要「因缺乏第一手經驗而陷入習得性無助的狀態」。如果他們將太多決策委託給機器,他們也將失去創新的能力,承擔進步所依賴的創造性風險的能力。

實際上,首先指出這些局限的人往往是機器學習的擁護者。

楊誠(David Yang)最新的企業是Yva,這是一個利用公司數據進行預測(比如關鍵員工是否可能辭職)的人工智慧引擎。他告訴我,從神經元的數量看,即使最複雜的AI也只是像蜜蜂一樣聰明。難怪他建議高管們將AI驅動的建議視為「第二醫學意見」,而不是依賴它確定戰略方向。

安德魯•麥卡菲(Andrew McAfee)和埃里克•布林約爾松(Erik Brynjolfsson)在他們最新合著的《機器、平台和群體》(Machine, Platform, Crowd)中指出了依照「薪酬最高的人的意見」進行決策的危險性。理論上,計算機提供了一種算法解藥;在實踐中,正如大量案例證明、而兩位作者也承認的那樣,算法也可能複製程序員或者他們所用的數據的偏見。甚至在他們對技術最為樂觀的論述中,麥卡菲和布林約爾松仍然建議將「人類智慧明智地加入」,即便只是為了在算法驅動的建議中注入常識。

老式的模擬戰略計劃可能鼓勵了類似的依賴。1994年,在數據分析的襁褓時代,管理學教授亨利•明茨伯格(Henry Mintzberg)撰寫了關於戰略規劃的陷阱和謬誤的論文:「正式系統當然可以處理(比人類)更多的訊息,至少是硬訊息;他們可以匯總、聚合、移動它。但他們永遠不會從內心領悟、理解和合成它。」

我問明茨伯格,25年來,他是否改變了這一觀點?他回答說,一點都沒有。複雜的戰略困境——他稱之為「令人費解的難題」——現在受制於過度精確的程序化解決方案。

換句話說,我們之所以仍然需要人類戰略家,正是為了決定何時以及為何偏離戰略框架,無論該框架是由人類委員會還是高智慧機器建立的。

林德鮑姆及其合著者表示,當法院首次判決醫生因忽視人工智慧診斷工具的建議而導致病人死亡的時候,人類決策的喪鐘將會敲響。擴展一下,留意首起股東起訴董事會推翻機器制定的戰略計劃的案件。

譯者/裴伴

版權聲明:本文版權歸FT中文網所有,未經允許任何單位或個人不得轉載,複製或以任何其他方式使用本文全部或部分,侵權必究。

讀者評論

FT中文網歡迎讀者發表評論,部分評論會被選進《讀者有話說》欄目。我們保留編輯與出版的權利。
用戶名
密碼
設置字號×
最小
較小
默認
較大
最大
分享×