登錄×
電子郵件/用戶名
密碼
記住我
人工智能

人工智能發展面臨的法律挑戰

王新銳:監管部門和司法機關對透明性和舉證責任的要求,與機器學習結果的不確定性和算法保密要求之間,存在着一種結構性的緊張關系。

【編者按】人工智能(AI)的發展影響着每個人的日常生活,經歷了過去一年中對AI的憂慮和倫理討論之後,新的一年大家越來越關注AI領域的創業機會,人工智能隨之成為今年創投圈的新風口。那麼,國外的機器人產業的發展對中國有什麼樣的啟示?以及中國人工智能創業中需要注意什麼問題等,FT中文網近期組織人工智能專題,編輯事宜,聯系閆曼 man.yan@ftchinese.com。

觀察一個概念是不是在公眾視野中“紅了”,有一個判斷標準,就是看看在各大機場的書店裡有多少本關於這個主題的暢銷書。以這個標準來看,人工智能現在無疑“紅的發紫”,也還會繼續紅下去。

然而,科技領域的每一個新概念,從產生到具體在各行業中落地,都需要面對很多挑戰,既有技術和商業層面的,也有法律和公共政策層面的。

在過去的一年之間,人工智能的發展已經引起了很多國家、國際組織的重視,聯合國、美國、歐洲議會、英國、法國、電氣和電子工程師協會(IEEE)先後發布多份關於人工智能的報告,討論人工智能的影響和需要考慮的風險。這其中也包含了對於法律問題的討論。

筆者作為多家科技公司的顧問,也在業務實踐中遇到了很多和人工智能技術應用相關的法律問題,本文會結合實例討論人工智能發展在法律問題上可能會遇到哪些挑戰。

數據的收集、使用和安全

盡管人工智能從法律上很難準確定義,但從技術上來說,目前人工智能基本都會涉及機器學習技術 (Machine Learning),這意味着需要收集、分析和使用大量數據,其中很多信息由於具有身份的識別性(包括結合其他信息識別身份),屬於個人信息。按照個人信息保護方面的法律規定,這些行為應當取得用戶明確、充分且完備的授權,並應當明確告知用戶收集信息的目的、方式手段、內容、留存時限還有使用的范圍等。

早在2011年,Facebook就曾因其人臉識別和標記功能未按伊利諾伊州《生物信息隱私法案》(BIPA)要求告知用戶收集面部識別信息的期限和方式被訴,隨後又因採集面部特徵前未能明確提醒用戶並徵得用戶同意而遭到愛爾蘭和德國有關部門的調查。盡管Facebook辯稱默認開啟該功能是因為用戶通常不會拒絕進行人臉識別,並且用戶有權隨時取消這一功能,但德國漢堡市數據保護與信息安全局堅持Facebook的面部識別技術違反了歐洲和德國的數據保護法,Facebook應刪除相關數據。最終,Facebook被迫在歐洲地區關閉了人臉識別功能,並刪除了針對歐洲用戶建立的人臉數據庫。

當然也有對企業有利的案例。著名籃球游戲NBA2K提供了使用用戶面部識別信息建立角色模型的功能,部分用戶以游戲製造者未徵得其同意提起集體訴訟,法官認為被告收集信息最多是抽象的違反了BIPA,而沒有給原告造成具體而特定的損害,因此原告主體身份不適格,駁回了原告的訴請。

除了需要按告知的方式和范圍使用用戶數據,人工智能應用的開發者還可能面臨需要配合政府部門提供數據的情況。2016年阿肯色州發生的一起謀殺案中,警方希望獲取Alexa語音助手收集的語音數據,該請求遭到了亞馬遜公司的拒絕,理由是警方沒有出具有效的法律文件。但這種例子以後還會層出不窮。公權和私權的沖突,也許會因為人工智能技術的引入,出現新的形式。

FT中文網客戶端
點擊或掃描下載
FT中文網微信
掃描關注
FT中文網全球財經精粹,中英對照
設置字號×
最小
較小
默認
較大
最大
分享×