登錄×
電子郵件/用戶名
密碼
記住我
人工智能

讓人類管好算法

弗洛里迪:我們都可能淪為算法錯誤的受害者,比如不公平的責任認定,或者其他一些“卡夫卡”式的由電腦造成的災難。

4月26日,英國下議院(House of Commons)科學技術委員會公布了其“決策中的算法”調查收到的回復。它們在長度、內容和角度上各有不同,但都有一個重要信念:就信賴算法作出的決定而言,人類的干預可能是不可避免的,的確,人類干預將是件好事。

自動化已徹底改變了農業和工業。如今,棕領和藍領工人是少數。約80%的美國就業崗位在服務業。我們大多數人會在工作中與數據和軟件打交道,而不是農作物或重型工具。問題是電腦在對付數據和軟件方面得心應手。數字革命正在威脅白領就業。

這不是因為數字讓技術變得智慧,而是因為它讓任務變得愚蠢,換句話說,成功執行這些任務不需要智慧。一旦這種情況出現,算法就能介入並取代我們。

後果可能是今天的大範圍失業,但可能也意味着明日的新就業崗位。例如,歐元區失業率仍高於9%。然而在德國,工程技術人員供不應求。英國也是如此。根據世界銀行(World Bank)的數據,到2030年,全球將需要8000萬醫療工作者,是2013年的兩倍。

在一個算法和其他自動化過程日益明顯的社會裡,下議院特別委員會聚焦的重要問題是,我們能夠在多大程度上信任這些無腦技術?如今做決定的經常是它們,而不是我們。

既然白領就業正在被取代,我們都可能淪為算法錯誤的受害者,比如不公平的責任認定,或者其他一些“卡夫卡”式的由電腦造成的災難。

防範這類失敗的最佳方法是讓人類智慧重新做主。

信任取決於任務的完成、透明度和問責制度。例如,如果你的醫生在盡心儘力,如果你看得到他們在做什麼,如果他們在出現問題時承擔責任,那麼你就會信任你的醫生。算法也是如此。如果它們完成的是應該完成的任務,如果它們在是否完成任務方面是透明的,如果在出現問題時,我們可以追究某人的責任,至少是道德上的責任(如果不是法律責任的話),我們就會信任它們。

這就是人類要介入的地方。首先,要設計正確的算法,以此降低風險。其次,即便是最好的算法有時也可能出錯,或者被導入錯誤的數據或者以其他方式被不當利用,因此我們需要確保不把所有決策都交給無腦的機器。第三,儘管一些關鍵決定可能的確過於複雜,人類無力應對,但我們應監督並管理這些決策過程。第四,儘管決定是由算法做出的,但在出現問題時,這不能成為無視只有人類能夠提供的洞見和理解的理由。

簡言之,我們需要一個由人類監督的設計、控制、透明度和問責體系。這不需要意味着拒絕數字技術提供的幫助。畢竟,儘管電腦下棋的技能可能超過人類,但人機合作才是無敵的。

顯然,下議院特別委員會調查收到的回復是好消息。它們表明,未來人類將有大量的智慧工作要做。但填補這些新崗位的不是白領員工。只有專家才能應對這種新的數字環境及其人工代理。算法將是新的羊群。我們未來的工作將是做行業的牧羊人。“綠領工人”時代正在到來。

本文作者是牛津大學(University of Oxford)哲學和信息倫理學教授

譯者/梁艷裳

FT中文網客戶端
點擊或掃描下載
FT中文網微信
掃描關注
FT中文網全球財經精粹,中英對照
設置字號×
最小
較小
默認
較大
最大
分享×