2017年11月26日 星期日

古代荀子也懂AI?達芬奇的手術機器人有多神奇? 聽浙大吳飛扒一扒人工智慧的「古今中外」!

西周的印紙造文、三國的木牛流馬、希臘古城的黃金機器女僕……吳飛的演講,一下子將人工智慧的歷史拉到了2000年前……原來用機器替代勞動的想法古已有之,不得不說古代人民如此智慧!
那麼智慧的古代勞動人民究竟是如何定義人工智慧的呢?我們翻出國學經典,在荀子《正名》中就提出了「知有所合者謂之智、人知在人者謂之能、人有所合者謂之本正」,形象生動地將人工智慧的精髓表達了出來。
俗話說,不識廬山真面目,只緣生在此山中。很多時候,我們過多沉溺技術,只是通過五花八門的資訊讓頭腦裝滿了人工智慧的碎片,卻忘了站在高處,更加全面地思考。
吳飛就是站在更高處,從人工智慧的學科發展、方法研究以及歷史低谷等幾個角度出發,把問題剖析得更深刻。
在講到人工智慧的「沉浮歷史」時,他旁徵博引……從英國人工智慧發展的偏激調查,到日本「第五代機器人研發」的功敗垂成,再到斯坦福大學+谷歌合作帶來的CYC知識系統……我們不禁思考,發展到今天的人工智慧,究竟該如何分類、到底該怎樣學習……
吳飛強調,無論是規則、數據還是經驗,我們並不能判斷誰比誰好,誰可以取代誰,其實它們彼此各有優點和不足。舉個例子,用規則教,確實和人的思維非常契合,邏輯很強,但我們確實很難把人類所有的規則和理念用來指導或者決策整個過程……
探尋新技術,我們除了了解方法和規則之外,更重要的還要聯繫實際,現在火熱的人機博弈除了給人們帶來「AI 改變世界」的興奮激動以及「AI 比人類更clever」的精神焦慮外,還有什麼特殊的意義嗎?這不,吳飛又理論聯繫實踐,給我們上了一堂「人機博弈」的大課……
以下為AI科技大本營針對浙江大學計算機學院副院長、人工智慧研究所所長吳飛進行的主題為「新一代人工智慧的思考與挑戰」演講所做的編輯整理,部分內容稍作刪節。
今天,我簡單給大家介紹一下人工智慧的發展歷史,以及從人機博弈的角度看人工智慧現在以及即將面臨的一些挑戰。
一直以來,人類對人類以外的智能都懷有崇高的夢想。
從西周周穆王的印紙造文到三國的木牛流馬,再到希臘古城的黃金機器女僕……實際上,這三個都是人類自己幻想出來能夠替代人類全部勞動的機械裝置。
事實上,自從人工智慧在被寫入規劃的過程中,大家就都想了解中國的人工智慧是從什麼時候被提出來的。後來發現,原來中國的人工智慧早在荀子時代,就已經提出來了。荀子在《正名》中有四句話表述了人工智慧的脈絡。
古代荀子也懂AI?達芬奇的手術機器人有多神奇? 聽浙大吳飛扒一扒人工智慧的「古今中外」!
荀子說:「知之在人者謂之知」,這裡的知就是諮詢的意思。人有視覺、聽覺、觸覺、味覺和壓力這些感知能力,我們會對身體所處的環境進行多通道、多模態的感知。
「知有所合者謂之智」,而感知得到的不同通道的多種類型的大數據,在大腦中形成概念,形成對象,就產生了智慧。這種智慧的來源,是我們人對大數據一種綜合的思考得到的一種結果。
「人知在人者謂之能」,這裡講的是人的一些本能。例如,在路上你碰到前面一輛疾駛而來的汽車,你馬上就能感知出來並認知出來這是一輛汽車,而且快速向你衝過來,如果你不做避讓的話,就可能吾命不久矣。那這個時候人們就會開始趨利避害。人類有一些本能,可以做到對感知或者認知的結果快速地做出處理。
「人有所合者謂之本正」,就可以被理解為是現在我們說的人工智慧。就是要把所有從前端感知得到的數據,激發出智慧,再形成與之相關的行動或者決策。這樣來看,整個人工智慧脈絡就已經被清晰得勾勒出來了。
這是我在中國古文中尋找出來的有關人工智慧的蛛絲馬跡。
再看西方,西方就比較講究學科層面。
歷史上學科層面的人工智慧可不是荀子提出來的。
學科歷史上,人工智慧是由4位學者早1955年提出來的,其中有兩位是當時非常年輕的,也就是年齡僅僅31、32歲的學者。一個是時任達特茅斯數學系的助理教師麥卡錫,另一個是時任哈佛大學數學系和神經學系的馬文明斯基,他們兩位後來都獲得了計算機界的最高獎項(圖靈獎)。另外兩位分別是資訊理論之父叫香農和IBM第一代通用計算機701的總設計師羅徹斯特。
1955年的8月,四位學者給美國的一個洛克菲勒私人基金會寫了一個提案,這個提案中的題目出現了Artificial Intelligence,這也是AI 這個單詞在人類學科歷史上的首次出現。
建議書中,主要是向美國的洛克菲勒的私人基金申請一筆資金,用於支付十幾個人通過一個半月的工作來完成一個研究。這樣的一筆開支,希望通過建議書得到洛克菲勒的私人基金會的贊助。很順利,這個基金會很快批准了這個提案,但是把提建議書上提出的金額有所縮減。
幾位科學家說,想做一個AI,這個AI是一台機器,能夠像人那樣認知、思考和學習,也就是用計算機來模擬人的智能。在這個報道中,他們為了突出難點,列舉了7個準備去攻克的難點問題:
1、系統計算機。
2、用程序對計算機進行編程。
3、神經網路。
4、計算的複雜性。
5、自我學習與提高。
6、抽象。
7、隨手創造力。
事實上我們可以看到,列舉出來的七個問題,后三個問題到現在仍然是人工智慧面臨的巨大挑戰。
舉個例子,我們說自我學習與提高,人確實具備這樣的能。人類從幼兒園、小學、初中到高中,就已經形成了這個能力。參加高考的時候,很多高考題目並不是之前完全做過的,但是人們可以通過運用自己的一些知識和數據去處理新的問題。
所以我們很難想象,如果有一個機器人,他也和我們的兒子或者女兒一樣,手牽手坐在了所謂的幼兒園中的課堂里上課,然後經歷了幼兒園、小學、初中、高中的學習過程,又去參加競賽和比賽……總之很難想象機器可以具備人的自我學習和提升能力。
從1955年提案提出,人工智慧就邁上了它的征途,按照當時的提議,人工智慧是部分地替代人類的部分勞動。
例如我們製造一個機器,它能夠定義和證明取代人類的某個工作;製造一個機器翻譯,它能替代人類的翻譯家;製造一個專家系統,它能幫人看病、會診等。那時候的人工智慧就是按照這樣的思路發展的,也就是試圖取代人的一部分工作、勞動。
隨著時間的發展,在這個過程中,人工智慧逐漸延展出符號阻力、連接阻力和行為阻力這三種仿人,或者仿腦的思路。
接著上面的話題,講一講人工智慧一直以來延續而生的三種分類。
第一類,語義相關的人工智慧
一直以來我們都給這個類別起了一個不太好的名字,叫弱人工智慧。這種人工智慧指的音符換調、導向,也可以說是它實際執行的任務。
由於機器具有很強的記憶功能和存儲能力,它可能在依照葫蘆畫瓢的過程中,比人類畫得更快、更棒,但是它也只能按照葫蘆畫瓢,並不能創作出精美的山水畫。
你提供給它大量的數據,它就可以通過數據進行一定範圍內的「創作」。但這種「創作」是具備導向性的,要和既定的領域相關,不能算作是跨域機器的人工智慧。
第二類,通用的人工智慧或者跨域人工智慧
人具有很強的舉一反三能力,從一種行為快速地跨越到另外的領域,而不是一味地通過數據驅動或者完成任務導向式地學習。
如果說剛剛提到的第一類任務導向或者說弱人工智慧,是數據和規則驅動,那麼通用的人工智慧,則是掌握「學習」這個能力。
第三類,混合增強的人工智慧
這一類舉例的話,例如達芬奇手術機器人。
曾經在互聯網流傳一段視頻,達芬奇手術機器人以靈巧的外科機械臂做到將一個葡萄的皮劃開,然後把它縫補好。原理就是,人類的醫生坐在機器後面來操縱機器人用靈巧的手臂完成高端、複雜的外科手術。在這個過程中,如果缺少了人類醫生或者這種複雜、高端的臨床外科手術的機械臂,都不能完成這樣一個高難度的任務。
據說,現在的達芬奇手術機器人已經可以做到將一個神經纖維切開,並且把它縫補成功。雖然這項工作是人類醫生不能完成的,但必須依靠人類醫生來指導完成這件事是確定無疑的。

我們通常認為,人、機器和互聯網的結合就變成了一個更加複雜的智能系統,例如智慧城市。因此,任何一種智能活動將自己的長處與另外一個智能系統的長處進行有機協調,我們就可以在一定程度上讓智能的程度增強。但我們一定要強調,在這種增強的智能體中,人永遠是智能的開發者,從目前的情況來看,應該不可能產生機器來獨立命名的這種情況出現。
儘管如今人工智慧發展急劇升溫,但在它的發展歷史上也經歷了三次低谷。
第一次低谷爆發在英國。
1973年在英國,一個皇家科學院院士,原本從事航空動力學,而不是計算機科學,他叫James Lighthill。他做了一件事情,帶領一幫人對當時英國的人工智慧發展進行了一次全面的評估,然後就把這個評估結果出版了。
他們說英國關於人工智慧的研究主要集中在自動機、機器人和神經網路。其中自動機和神經網路的研究雖然有價值,但進展令人失望;機器人的研究是沒有價值的,進展也非常令人失望,建議直接取消機器人的研究。
實際上這個結論是比較偏激的,和現在人工智慧的現狀不符。但這樣的一篇報道使得整個英國的人工智慧進入了低谷,很多做人工智慧研究的專家從此就不敢說自己是做人工智慧的了。
第二次低谷發生在日本。
這次變化源於日本的第五代機器人研發,也就是日本想造一個人工大腦,儘管通過10年努力宣告失敗,但這項活動為日本積累了一大批半導體、機械和計算機方面的人才。
從這件事情上我們得到的結論是,驅動人工智慧的發展,不單單是硬體的極大豐富,其更重要的是內部的數據、知識和軟體的有機集成等。因為人的大腦是數以千萬、數以億計的神經原的相聯,其中海馬體中有非常多的數據和知識來指導我們的推理。
第三次低谷來自知識百科。
傳統的人工智慧總是局限在規則和知識的推理中,因此我們希望把所有的知識裝入知識庫系統,這樣就能進行很好的推理,於是我們就開始選擇把所有的規則以及理念全裝到資料庫中。
斯坦福大學就是這麼乾的!
他們在1984年想把所有的規則和知識裝到一個CYC的知識系統中去。經過20多年的努力還是宣告失敗了,因為人的很多知識是不確定,或者是有一定界限的。
例如「兩個知識」的例子。所有的鳥都會飛,這個結論是正確的,所以被放進去;鴕鳥是鳥,這個結論也是正確的,放進去了,這樣看來兩個知識一旦同時被放進去后,就會順理成章地推導出鴕鳥會飛,但是這樣的結論明顯是錯誤的。
因為「所有的鳥都會飛」這句話本身就是不夠精確的,如果我們就為了說明這一概念,那又該怎麼去闡釋它?我想必須要說出幾萬種鳥說,來列舉這些鳥不會飛。
現實中,人和人的交流可沒那麼麻煩,因為人具備一些常識性的知識,可以快速地進行一些不精確的表達,但這些表達可以完成常規的知識傳遞或者交流。
這也說明了,想把所有的知識通過手工工作的形式裝在一個推理的知識庫中,這是一個非常不可取的任務。
例如,如今我們要了解一個新概念的時候,我們可能會經常訪問百度百科怎麼說,維基百科怎麼說,知乎上又是怎麼說的,但是我們並不會去查新華字典怎麼說的,十萬個為什麼上是怎麼說的……主要是因為知識在不斷地、持續地演化,只有互聯網技術所創造出來的「互聯網百科」才是非常重要的知識領域群。
說完人工智慧的低谷,來講講在人工智慧歷史上,了解和學習人工智慧通常採用的三種方法。

第一種,用規則去教

也就是將所有的知識和規則以邏輯的形式編碼成功。例如水利工程是工程的一種,三峽大壩是個水利工程,這樣一個程序化的概念體就出來了。為了刻畫三峽大壩,我們要說它的功能是什麼,它的定位是什麼,由於三峽大壩和葛洲壩都位於長江領域,所以彼此之間具有管調節的關係等。
如果我們知道這些知識的話,我們又知道旦布利水畔和達納斯水畔都位於哥倫比亞這個河域,那我們就可以推理出來它們也具有反調節的關係。給定一些知識,我們基於一個強大的推理引擎,就可以不斷地擴充這個知識體系中的概念、屬性以及關係,不斷地進行知識學習。
IBM的沃森就是很貼切的一個例子。
沃森是一個人機對話的系統,當時有人考了這樣一個題目,這個題目是人類選手回答不出來的,請問哪個城市是美國的鋼產量和鐵產量平均量第一?
沃森通過一定的計算,很快回答出來是匹斯堡,後來從後台的程序發現沃森把美國所有的城市的鋼產量和鐵產量的數據都從互聯網上找到了,要做的就是簡單的累加併除二,然後做了一個排序,現在是匹斯堡排在第一位,於是就輸出了匹斯堡這個答案。
很難想象,如果人類專家可以回答出這種問題,顯然是不可想象的。因為人的大腦不可能記下這麼海量的知識,而且這些知識可能與自身無關。通常情況下,很多知識,我們可能在平時要用的時候就去翻翻書,查查互聯網就可以了,不會刻意地去記這種龐大的數據知識。

第二種,用數據去學

這個就是現在深度學習的一個大行其道的方法。因為我們很難去刻畫一個概念,例如海盜船。你怎麼用文字、邏輯去描述這個海盜船?答案是很難去描述。
於是我們就選擇很多被標註成海盜船的圖片,提供給計算機,讓計算機不停地學習,學習之後計算機就會銘記海盜船圖像像素點空間分佈的模式,進而就學會了海盜船的這種模式。如果你再給它一張圖片是海盜船的話,空間分佈的模式和之前學習的模式是一樣的,於是就可以自動識別為海盜船。
這個就是大數據驅動,在大數據驅動的前提下,要把這個數據標註成它本身明確的語義,或者概念,才能做更好的學習與提高。
關於這方面有幾個例子。
例子一,2012年紐約時報發表了一篇文章,題目叫多少台計算可以識別一隻貓,答案是16000台。
例子二,特斯拉第一次造成車毀人亡現象。
特斯拉的無人汽車上有非常多的感測器(例如雷達、視覺等)。在風和日麗的環境下,竟然發生了直接撞擊相馳火車的事故,大家都覺得不可思議。
事後分析才發現,特斯拉汽車一直向前開的過程中,司機正在看《哈利波特》的VCD,因為眼睛離開了前方,手和腳也都離開了操作的儀器,一輛白色的箱式大貨車在它的對象車道行駛時有一個左轉彎,本來一般情況下是不會發生裝車事故的,但這次卻直接撞上去了。
分析整個過程,特斯拉前面配有雷達,這個雷達的電磁波就直接掃過去了。主要是由於白色箱式火車的底盤過高,雷達彙報前方無障礙物,同時攝像頭在不斷地捕獲前方圖像,捕獲回來其實就是白色的背景,這樣的視覺圖像彙報,讓系統誤認為前方是白雲,就直接撞上去了,從而發生了非常慘烈的事件。
例子三,是谷歌公司發布的一個叫做圖像的標註的系統。
只要上傳一張圖片,就可以打標籤,打上了標籤就可以對這個圖片進行一次搜索。因為很多時候我們需要用文本信息或者單詞來進行搜索圖片,一旦打標籤的話,我們就可以更好地進行文搜圖的體驗。
有這樣的一件事情,一個黑人朋友上傳了 一張圖片,卻被打上了黑猩猩的標籤,於是他就狀告了谷歌公司,說對他是人格上的侮辱,谷歌公司花了很大一筆錢才把這個官司給平息。
平息的過程中,谷歌就關閉了標註系統,不再打標籤。過一段時間再開放的時候,就把黑猩猩從標註詞典庫里移除了,即使再上傳的圖片是黑猩猩,也不會被打上黑猩猩的標籤。說明用數據驅動方法,實際在某些領域可以得到很好的應用,但可能在其它領域還會有很大的誤讀。

第三種,從經驗中學

前面我們通過了用知識去教、用數據去學,第三種方法就是用問題引導學習,這就是我們經常說的強化學習。就是把一個智能體放到一個環境裡面,它對這個環境做出一定的反應,這個環境對它獎勵或者懲罰的一個結果。假如說我這裡放了一台掃地機,它直接撞到一個桌子上,撞翻了,它就知道這是一個不可撞的東西,那它再做下一個調整的時候,它往左轉、往右或往後走,它不停地從失敗走向失敗,最後又從失敗走向了成功,它就對這種環境能夠很好地感知到。
這種方法,我們叫做強化學習,或者是叫做從經驗中學習,也就是沒有任何知識和數據,就把它放在一個環境中進行感知以及認知。
像波士頓公司的兩輪機器人以及中國電科院提供的67架固定翼的集群系統,還有美軍103架的固定翼集群系統,就是在開放的環境中不停地進行感知和認知的學習,從而得到經驗的提升。
這三種學習方法,並能夠被判斷為誰比誰好,誰要取代誰,其實它們彼此各有優點和不足。例如用規則教,確實和人的思維非常契合,邏輯很強,但我們確實很難把人類所有的規則和理念用來指導或者決策這個過程。
用數據去學的方法一定要依賴於標註的大數據。如果我們對於某個概念不能提供給它一個表示的大數據的話,它就無法學習。
如果可解讀性不強,就算給它一張圖片,它可以識別出是人臉,當你疑問知道它是人臉的原因,它同樣也是無法得出,但是並不知道人臉的分佈是否合適,例如說鼻子是對稱的,眼睛是對稱的,這樣的知識在機器的學習系統中很難做到契合。
最後一種方法似乎也很不錯,沒有知識和數據,只要放在環境中進行交互就可以了。但是我們可以想象一下,當一個智能體撞到牆的時候,它可以採取的策略是無窮多的,它可以發獃、發萌、哭泣、憤怒,也可以不工作,有幾萬種選擇,那到底從幾萬種選擇中選擇哪一種來應對撞牆的行為,這又是一個很難的問題。
因此,這三種方法其實各有各的優點,也有它的不足,但它體現了從數據到知識,從知識到能力的過程,最終能力並不重要。我們界定一個人工智慧程序是否成功,不在於提供給它的是1TB還是10TB的數據,不在於是10萬條的知識還是20萬條的知識,而在於它已經生成了一種能力,這種能力可以指導它去處理新的數據和知識,以及構成新的知識的能力,這是非常重要的。
從火熱的人機博弈中,我們能看出什麼?
用最近比較火熱的Alpha Go來做解釋。
我們知道Alpha Go是比較符合1955年提出的關於人工智慧的理解。
Alpha Go首先選用了16萬棋局,大約3000萬盤的棋譜,通過黑白相間的棋子,憑藉策略網路和一個快速走子網路進行訓練。由於每盤棋我們都已經知道了是執黑會贏還是執白會贏,所以就會按照標準數據去訓練,也就是說當遇到白棋的時候,我的黑棋落在哪兒,就是訓練了這樣一個人工智慧的系統。
如果沒有後面的故事,現在的Alpha Go也只能戰勝人類選手的壟斷棋手,但是如果可以實現兩台機器自己和自己下棋,那技能就突飛猛進了,突飛猛進的結果就在2016年3月戰勝李世石的那場比賽。
古代荀子也懂AI?達芬奇的手術機器人有多神奇? 聽浙大吳飛扒一扒人工智慧的「古今中外」!
基於產生了大量數據做訓練的價值網路,這種網路就可以有效預測整盤棋的下法。簡單來說就是架構網路來預測這個棋子落下去后,整盤棋和剩下的棋況怎麼樣。今年4月在烏鎮的那場較量,也就是戰勝柯潔的那次,其實就是兩台機器自己和自己博弈,進一步帶來了能力的提升,也是完全基於這個強化學習的成果。
我們可以想到,Alpha Go中實質上有一個叫做利用探索的綁定。什麼是利用探索呢?它是19×19的黑白相間的棋盤,裡面只放黑棋和白棋,總共有多少種擺放的方法?
答案是2的381次方。2的381次方等於宇宙所有原子的數量,所以Alpha Go不可能把2的381次方都分辨一次,它只能盡量去判斷哪一種擺放的方式是最好的。
在這個過程中,它就會把所有的信息都利用起來,也就意味著會盡量去研究或者實踐人類沒有下過的棋局,所以很多時候我們看到Alpha Go下的棋局很怪,因為人類選手從來沒有嘗試過。
每下一個棋子的時候,Alpha Go已經預測出這個棋誰勝。
大家可以看到,Alpha Go挑戰的過程中,它失去了信心,因為已經預測自己獲得整盤棋的勝利的概率一直下降,它沒有了戰勝對手的勇氣,這個很危險。
通常來講,人類才會有置之死地而後生,背水一戰的勇氣。有些情況下是可以扳回一局的,但人工智慧已經失去了它的鬥志,只有三種網路都被利用的時候,它才會取得勝利。
2的381次方可能比宇宙的原子還多,如果量子計算機被製造出來,MIT說100個量子進行糾纏,就等於人類所有計算能力的綜合,所以那個時候就不用某個模式搜索,也可以做到辨別所有的可能。
上面說的情況被稱為完全機器人架構博弈,當然還存在非完全機器人架構博弈。就像泰利美工大學的德州撲克,其實就是一個非完全機器下的博弈。對於我們來說,圍棋都是規則已知、策略已知 、勝負已知,相對來說比較明白直觀,但是打撲克的話很多信息就不是很清楚了。
我們做了一個總結,像迭代輔助,Alpha Go,Alpha Go Zero……它們都有非常多的數據支持或者各種演算法模型。可以看到,有些是利用知識,有些是利用數據,有些是利用經驗去學習,其實這種智能學習的演算法需要不停地交會、融合。
人工智慧是不斷往前發展的,我們希望把大數據虛擬的人工智慧方法,從利用知識的人工智慧,轉變為從環境中獲得學習能力進而提升效率的人工智慧,如果能很好地協調和統一,可能就會形成一種更好的齒輪咬合能力。
從九輪計算到深度推理,從單純計算到數據驅動的模型,再發展到數據驅動與引導相結合,從領域任務驅動的人工智慧過渡到通用條件下的強人工智慧,我們說強人工智慧就是放到一個環境中能夠自己不斷學習的人工智慧類型。科學雜誌在今年 7 月 7 號推出了人工智慧專刊,人工智慧在大數據洪流裡面會發生變革性的因素,也有很玄的東西。
實際上人工智慧並沒有那麼強大,即使像阿爾法狗 ZERO,也有需要提升的空間。但是從中學到的東西,卻能很好的幫助人類發展。據說整個宇宙有百分之一的東西是我們已經知道的,這麼分析人工智慧已經很不容易, 儘管現在的人工智慧還沒有全覆蓋。

沒有留言:

方便性、能量密度、安全性、應用場景等各方面表現都更優異的奈米液流電池最終能打敗鋰電池嗎?

  當莫妮卡開著她的電動車前往母親家時,車上的電池指示器顯示需要重新充電。她在一個充電站停下來,在加油站刷了信用卡,把噴嘴插入車內,並在5分鐘內將400升用過的奈米液體換成新的。在她等待的過程中,一輛油罐車開過來為充電站補充燃料,交換數萬升充滿電的燃料。莫妮卡關上她的電動車的加油...