登錄×
電子郵件/用戶名
密碼
記住我

為您推薦

人工智慧

AlphaGo的自學能力更強了

如今,AlphaGo Master能夠從與自己對弈中學習,而不是需要從人類比賽中學習。其效率也更高。

谷歌(Google)電腦程序AlphaGo在三局比賽的第二局戰勝世界排名第一的圍棋選手,意味著人工智慧算法在這種極其複雜的棋盤遊戲領域大獲全勝。

中國圍棋冠軍柯潔周四投子認負,這場對弈中電腦和人腦都以創新的戰術給觀眾帶來了驚喜。

儘管古老的圍棋規則很少,但其複雜性意味著電腦擊敗世界冠軍曾被認為是難以想象的。然而,由谷歌旗下的DeepMind公司開發的AlphaGo去年擊敗了韓國圍棋大師李世石(Lee Se-dol)。

谷歌將AlphaGo帶到中國的目的是,挑戰柯潔並在為期5天的賽事中在中國專家和政府官員面前展示其在人工智慧領域的突破。自其搜索引擎7年前在中國被屏蔽以來,這是谷歌與中國政府合作舉辦的規模最大的活動。

DeepMind聯合創始人傑米斯•哈薩比斯(Demis Hassabis)解釋道,今年的版本名為AlphaGo Master,比去年的版本更為強大。

AlphaGo Master能夠從與自己對弈中學習,而不是需要從人類比賽中學習。其效率也更高,需要的計算能力是上一個版本的10分之一。

「主要的創新是AlphaGo已變成自己的老師,」AlphaGo首席程序員戴夫•西爾弗(Dave Silver)表示,「這令其能夠用更一般化的方式學習,意味著不僅棋藝增強,而且還能帶來更一般化的應用。」

AlphaGo Master的硬件也更好了。它使用「張量處理單元」,這是谷歌為用於人工智慧程序而設計的微晶片。據谷歌稱,「張量處理單元」每單位能量的性能優於常規晶片最多80倍。

柯潔也開始使用從觀看AlphaGo比賽中學到的戰術,表明人類也在模仿機器。

儘管IBM的「深藍」(Deep Blue)計算機在1997年擊敗了國際象棋冠軍加里•卡斯帕羅夫(Garry Kasparov),但要在攻克圍棋領域取得進展更為困難。

與國際象棋不同,圍棋不可能通過利用純粹的計算能力計算出全部可能的走法來輕易取勝。AlphaGo採用的學習模式是模仿神經元在人類大腦中的工作原理。

DeepMind現在正致力於開發程序來玩需要更複雜視覺輸入的遊戲,例如暴雪娛樂(Blizzard Entertainment)的在線策略遊戲《星際爭霸》(Starcraft)。

譯者/梁艷裳

版權聲明:本文版權歸FT中文網所有,未經允許任何單位或個人不得轉載,複製或以任何其他方式使用本文全部或部分,侵權必究。

讀者評論

FT中文網歡迎讀者發表評論,部分評論會被選進《讀者有話說》欄目。我們保留編輯與出版的權利。
用戶名
密碼
設置字號×
最小
較小
默認
較大
最大
分享×