編者按:日前,著名計(jì)算機(jī)科學(xué)家、連續(xù)創(chuàng)業(yè)家、未來(lái)學(xué)家、《人工智能時(shí)代》等暢銷書作者杰瑞·卡普蘭接受了創(chuàng)新工場(chǎng)人工智能工程院副院長(zhǎng)王詠剛的專訪。專訪中,杰瑞·卡普蘭就人工智能與人類的關(guān)系、機(jī)器人產(chǎn)業(yè)的發(fā)展、人工智能引發(fā)的就業(yè)結(jié)構(gòu)變化及應(yīng)對(duì)辦法、人工智能的國(guó)家和產(chǎn)業(yè)戰(zhàn)略、人工智能時(shí)代的教育和人才獲取等問題暢談了自己的看法。以下是采訪全文。
問:杰瑞你好。一些人擔(dān)心人工智能最終會(huì)演進(jìn)成超級(jí)智能(Superintelligence)并威脅甚至控制人類。你會(huì)有同樣的擔(dān)心嗎?
我認(rèn)為,這件事發(fā)生的概率是非常小的。其實(shí),我們現(xiàn)在做的只是在制造工具,以自動(dòng)完成此前需要人類參與才能完成的工作任務(wù)。我想,之所以會(huì)有這樣的疑問,根本上是因?yàn)榇蟊娏?xí)慣把人工智能人格化,這是問題的根源。
這件事對(duì)于專業(yè)人士和對(duì)于大眾的意義是不一樣的。例如,大眾總是擔(dān)心無(wú)人駕駛汽車可能傷及人類的生命。在一些極端的例子里,無(wú)人駕駛汽車確實(shí)需要做出決定,是要撞向左邊,傷及左邊的行人呢,還是要撞向右邊,傷及右邊的行人。
但無(wú)人駕駛汽車只是一套機(jī)器系統(tǒng),它們并不會(huì)真正做出決策。它們只是根據(jù)對(duì)環(huán)境的感知,按照某種特定的原則和設(shè)計(jì)做出反應(yīng),而我們?nèi)祟悓?duì)于整套系統(tǒng)的感知和反饋模式擁有完全的控制權(quán)。如果它們做了什么不符合我們的社會(huì)準(zhǔn)則的事情,那一定是因?yàn)槲覀內(nèi)祟愒谠O(shè)計(jì)它們時(shí)犯了錯(cuò)誤。
我們所面對(duì)的,只不過(guò)是一系列工程設(shè)計(jì)上的問題。我們必須確保我們?cè)O(shè)計(jì)制造的產(chǎn)品和服務(wù)符合我們的愿望和預(yù)期。你知道,這件事與橋梁工程師們使用一整套質(zhì)量保障方案來(lái)確保他們建造的橋梁不會(huì)坍塌并沒有什么兩樣。
我們有許多工程學(xué)上的原則,來(lái)指導(dǎo)我們?nèi)绾螠y(cè)試一個(gè)系統(tǒng),什么樣的系統(tǒng)是合格的,什么樣的系統(tǒng)是足夠安全的,等等。在人工智能領(lǐng)域,我們同樣需要這樣的技術(shù),因?yàn)槿斯ぶ悄苁謴?qiáng)大,具有潛在的危險(xiǎn)性。但這并不是因?yàn)橹悄軝C(jī)器會(huì)像人類一樣思考。只是因?yàn)樗鼈兪謴?qiáng)大,我們必須小心使用它們。
“智能”經(jīng)歷了相當(dāng)長(zhǎng)時(shí)期的演進(jìn),從猿猴的智能,到人類的智能,再到人類制造的人工智能技術(shù)和智能機(jī)器。那些預(yù)測(cè)超級(jí)智能的人是按照這樣一種演進(jìn)趨勢(shì)來(lái)思考問題的:
圖1:關(guān)于智能演進(jìn)的線型思考
但這種線性結(jié)構(gòu)是有問題的,因?yàn)槲覀儾]有一種簡(jiǎn)單的方式來(lái)對(duì)智能進(jìn)行度量。這和測(cè)量體重或鞋子尺碼很不一樣。智能是一個(gè)非常定性的概念,它反映的是某個(gè)人成功解決某種特定問題的能力。
例如,人們總是會(huì)問,如果人工智能的智商達(dá)到200,那會(huì)發(fā)生什么呀?可是,什么是人工智能的智商?實(shí)際上,智商在這里是一個(gè)被極度濫用了的概念。心理學(xué)家使用一種叫發(fā)展能力(Developmental competence)的概念來(lái)評(píng)估人類。
他們測(cè)試一個(gè)人解決算術(shù)、邏輯等問題的水平,然后將測(cè)試所得的分?jǐn)?shù)除以這個(gè)人的年齡——這是智商的含義。如果某人解決此類特定問題的能力超出他同齡人的平均水平,我們就說(shuō)他的智商高。
但是,該如何定義一部機(jī)器的智商呢?如何定義一部機(jī)器的年齡?機(jī)器可以用比人類快一百萬(wàn)倍的速度解決算術(shù)問題,那么,這些機(jī)器的智商是多少?這種說(shuō)法其實(shí)并沒有什么實(shí)際意義。
所以,問題首先在于,對(duì)智能的定義是非常主觀的,這依賴于每個(gè)人自己的視角。這一點(diǎn)非常像我們對(duì)美的定義。你可以說(shuō)某些人比其他人長(zhǎng)得美,或者說(shuō)一個(gè)人比另一些人更聰明,但希望把美或把智商的定義客觀化、量化的想法是錯(cuò)誤的。
其次,關(guān)于智能的度量并不是線性的,而是一種多維度的度量。如果你用算術(shù)能力來(lái)評(píng)估,那機(jī)器已經(jīng)非常聰明了。但你如何將機(jī)器納入一個(gè)多維度的度量體系?讓一部機(jī)器變得更聰明,這句話到底意味著什么?
一個(gè)關(guān)于機(jī)器智能的更好的思維方式是:我們擁有了新的科技手段,我們可以將這些新技術(shù)應(yīng)用于新的問題領(lǐng)域。因?yàn)闄C(jī)器學(xué)習(xí)技術(shù)的進(jìn)步,我們現(xiàn)在正處于最好的時(shí)期?!爱?dāng)你擁有一把錘子,所有東西看起來(lái)都像釘子”。
今天在美國(guó),所有人都在嘗試,看看我們?cè)撊绾螒?yīng)用人工智能技術(shù),可以應(yīng)用得多么深入。我們正在解決自然語(yǔ)言處理問題、翻譯問題、機(jī)器視覺問題、機(jī)器人問題,等等。
有些地方,人工智能工作得很好,有些地方,他們還難以滿足實(shí)際需要。驅(qū)動(dòng)這種進(jìn)步的主要力量并不是智能本身,而是大數(shù)據(jù),以及使用更快、更便宜、更簡(jiǎn)單的方式訪問大數(shù)據(jù)的能力。
我經(jīng)歷過(guò)許多次技術(shù)革命,今天人們對(duì)于機(jī)器學(xué)習(xí)的興趣與曾經(jīng)的每一次新技術(shù)革命并沒有本質(zhì)的不同。
例如,機(jī)器學(xué)習(xí)和當(dāng)年關(guān)系型數(shù)據(jù)庫(kù)的發(fā)展非常類似。我們當(dāng)年使用基于層次模型和網(wǎng)絡(luò)模型的數(shù)據(jù)庫(kù),關(guān)系型數(shù)據(jù)庫(kù)的出現(xiàn)改變了一切。借助關(guān)系型數(shù)據(jù)庫(kù),任何人都可以將數(shù)據(jù)庫(kù)當(dāng)成一個(gè)方便的工具,而不需要雇傭許多專業(yè)的工程師。
人工智能就是這樣一個(gè)可以為我們帶來(lái)巨大改變的便捷工具,就像關(guān)系型數(shù)據(jù)庫(kù)在幾十年前所做的一樣。
問:谷歌的AlphaGo和軟銀的Pepper機(jī)器人讓普通大眾覺得機(jī)器正變得越來(lái)越智能。這些新技術(shù)是不是正在誤導(dǎo)大眾,讓人們相信機(jī)器是有意識(shí)的?
人工智能并不是一種單一的技術(shù),它是一組不同技術(shù)的統(tǒng)稱。而且,它隨著時(shí)間在不斷變化。今天,這一技術(shù)領(lǐng)域和20年前很不一樣。公眾之所以覺得機(jī)器變得越來(lái)越智能,那是因?yàn)闄C(jī)器可以做新的事情。但今天AlphaGo贏得圍棋比賽的技術(shù)和20年前IBM深藍(lán)贏得國(guó)際象棋比賽的技術(shù)有很大不同。
AlphaGo和深藍(lán)背后的技術(shù)是不一樣的。AlphaGo的程序是建立在大數(shù)據(jù)基礎(chǔ)上的新算法。因?yàn)閿?shù)據(jù)極其豐富,我們可以從數(shù)據(jù)中學(xué)習(xí)經(jīng)驗(yàn),讓機(jī)器發(fā)現(xiàn)人類可感知的模式。這是基于模式的算法,和算術(shù)問題很不一樣。公眾并不關(guān)心這些技術(shù)細(xì)節(jié)。
他們只會(huì)說(shuō),現(xiàn)在機(jī)器會(huì)下象棋了,現(xiàn)在機(jī)器會(huì)駕駛汽車了,現(xiàn)在機(jī)器又會(huì)下圍棋了……天啊,機(jī)器變得越來(lái)越聰明了!
作為工程師,我們知道AlphaGo可以做到很多事情,但我們不會(huì)期望AlphaGo有人類意識(shí)。
我們不知道讓一臺(tái)機(jī)器有意識(shí)、或有自由意愿究竟意味著什么。目前的科學(xué)體系并沒有提供一個(gè)理解這些問題的基本模型。你必須從以下兩種解釋中選擇一種:
要么,所有有關(guān)意識(shí)的人類經(jīng)驗(yàn)并不可靠,比如,我們認(rèn)為我們了解意識(shí),其實(shí)并不了解;要么, 我們?nèi)鄙倮斫馊祟愐庾R(shí)到底是什么的基本工具。
軟銀的Pepper機(jī)器人擁有和人一樣的臉。它看上去就像個(gè)小孩子,你可以跟它說(shuō)話。但那只是魔術(shù)表演而已——它并沒有思想。
人工智能技術(shù)只是解決了以前只有人類才可以做的某些問題,但這并不代表著人工智能程序有思想,或者它們以人類標(biāo)準(zhǔn)看是智能的。那些讓大眾誤以為機(jī)器與人類相仿的應(yīng)用,其實(shí)只擁有娛樂價(jià)值。它們只是一場(chǎng)魔術(shù)表演,無(wú)法真正取代人類。
問:你認(rèn)為類人機(jī)器人會(huì)是機(jī)器人工業(yè)的一個(gè)好的發(fā)展方向嗎?
我不能說(shuō)它是好的,或者它是壞的。這不是一個(gè)非黑即白的問題。公眾認(rèn)為機(jī)器人長(zhǎng)得像人一樣,可你我知道機(jī)器人不過(guò)是機(jī)器,這些機(jī)器通常長(zhǎng)得都不像人類。機(jī)器人有傳感器,有驅(qū)動(dòng)裝置,程序使用傳感器感知環(huán)境并使用驅(qū)動(dòng)裝置驅(qū)使機(jī)器人做出反應(yīng)。我們并不是在制造人。
有些人因?yàn)槟承┥虡I(yè)理由而制造擁有人類外貌的機(jī)器人。類人機(jī)器人擁有和人相似的臉和笑容,例如軟銀的Pepper機(jī)器人,這些機(jī)器人在娛樂業(yè)或某些特定領(lǐng)域還是有商業(yè)價(jià)值的。
如果我們希望制造能夠在人類活動(dòng)的空間里工作的機(jī)器人,那么,為了讓機(jī)器人在人所處的環(huán)境里工作,賦予機(jī)器人與人體相似的尺寸,或某種類似人體的物理機(jī)能,這也非常合理。
你可能知道美國(guó)國(guó)防高等研究計(jì)劃署(DARPA)的機(jī)器人競(jìng)賽。在DARPA組織的這項(xiàng)比賽中,機(jī)器人制造團(tuán)隊(duì)讓機(jī)器人完成某種特定任務(wù)來(lái)相互競(jìng)爭(zhēng)。例如,機(jī)器人爬樓梯、開門或是使用電鉆。
為什么DARPA要組織這樣的競(jìng)賽?想象一下日本福島2011年的核電站事故。那次事故中,人們遇到的一個(gè)問題是,人類難以進(jìn)入那些被輻射籠罩的區(qū)域。我們必須制造可以進(jìn)入危險(xiǎn)區(qū)域,并完成諸如關(guān)閉一扇門或關(guān)掉一個(gè)閥門等簡(jiǎn)單任務(wù)的機(jī)器人。
所以,這是DARPA組織機(jī)器人競(jìng)賽的原因。這是我們制造和使用機(jī)器人的最好理由。這些機(jī)器人沒有必要長(zhǎng)得像人,他們只是能夠像人一樣完成任務(wù)。
所以,類人機(jī)器人是那種可以用類似方式完成人類任務(wù)的機(jī)器人。類人機(jī)器人也許像人類,也許不那么像人類。我們有許多理由來(lái)設(shè)計(jì)和制造類人機(jī)器人。
問:人工智能將在不遠(yuǎn)的將來(lái)造成人類多大范圍上的失業(yè)?你如何估計(jì)這個(gè)百分比?由此引發(fā)的失業(yè)會(huì)成為一個(gè)嚴(yán)重的社會(huì)問題嗎?
不是所有工作都會(huì)被人工智能取代。相反,很多工作都會(huì)轉(zhuǎn)變?yōu)樾碌墓ぷ鳈C(jī)會(huì)。
一個(gè)好的例子是銀行的柜員。過(guò)去,大多數(shù)銀行柜員總是在做最基本的銀行交易。顯然,ATM自助服務(wù)終端的使用,已經(jīng)代替了一定數(shù)量的銀行柜員的傳統(tǒng)工作。但有趣的是,銀行柜員的雇員數(shù)量不降反升,因?yàn)楣駟T的工作轉(zhuǎn)變了。我們?nèi)匀还芩麄兘秀y行柜員,但他們的工作描述與20年前相比已經(jīng)有了很大不同。
大多數(shù)情況下,銀行柜員不是坐在那兒等著幫你取錢存錢。今天的銀行柜員已經(jīng)成為了銀行各類業(yè)務(wù)的銷售員。你可以走進(jìn)一家銀行的支行,跟柜員就銀行業(yè)務(wù)展開交談。那些銀行柜員可以為你提供所有幫助。
這項(xiàng)工作已經(jīng)不同了,但職位的名稱還沒有改變。技術(shù)讓銀行變得更加高效,更易擴(kuò)展。銀行可以開更多的支行,雇傭更多的員工,在新的領(lǐng)域投資并制造新的工作機(jī)會(huì)。
最近,一份來(lái)自詹姆斯·貝森的報(bào)告(How computer automation affects occupations: Technology, jobs and skills: http://voxeu.org/article/how-computer-automation-affects-occupations)顯示了在過(guò)去幾十年間全職銀行柜員的數(shù)量增長(zhǎng)趨勢(shì):
圖 2 美國(guó)全職銀行柜員與ATM機(jī)數(shù)量的變化關(guān)系
人工智能會(huì)取代哪些工作呢?人工智能可能取代的工作大多擁有清晰的評(píng)估標(biāo)準(zhǔn),工作業(yè)績(jī)可以客觀地衡量。
人工智能無(wú)法取代的工作通常需要人類做出決策。例如,風(fēng)險(xiǎn)投資人仍然需要面對(duì)面和創(chuàng)業(yè)者會(huì)談,以確定投資意向。即便是高級(jí)教育背景的人,也會(huì)花很多時(shí)間來(lái)做重復(fù)性的工作,而這些重復(fù)性的工作最容易被自動(dòng)化。這可以讓那些高級(jí)人才將更多的時(shí)間用于那些最能發(fā)揮他們的技能特長(zhǎng),最不容易被自動(dòng)化的工作部分。
對(duì)于某些工作,全部工作內(nèi)容都可以被自動(dòng)化,所以不再需要人類員工。例如,放射科醫(yī)師的工作就可以全部被自動(dòng)化。但對(duì)另一些工作,比如普通醫(yī)生,你沒法將他們?nèi)刻鎿Q,因?yàn)槟銢]辦法徹底取消面對(duì)面的病情診斷。
人工智能造成的失業(yè)并不像某些人想象的那么嚴(yán)重。例如,卡車司機(jī)可以完全被無(wú)人駕駛系統(tǒng)取代。但計(jì)算一下,目前美國(guó)約有150萬(wàn)名卡車司機(jī),假設(shè)這些卡車司機(jī)會(huì)在15年內(nèi)全部被取代,那么,15年內(nèi)失去150萬(wàn)個(gè)工作機(jī)會(huì),這意味著我們平均每月要安排大約8300人再就業(yè)。這并不是一個(gè)不可能完成的任務(wù)。
與卡車司機(jī)不同,許多其他工作會(huì)轉(zhuǎn)變?yōu)樾碌墓ぷ?。例如,醫(yī)生就不會(huì)消失。我們將會(huì)擁有自動(dòng)輔助診斷系統(tǒng),但這些系統(tǒng)只是讓醫(yī)生的工作更高效,從而讓醫(yī)生有更多時(shí)間來(lái)完成科研任務(wù),或者接診更多的病人。
今天,很多人因?yàn)獒t(yī)療費(fèi)用昂貴而不去看醫(yī)生。當(dāng)人工智能被廣泛應(yīng)用后,醫(yī)生可以更高效地接診病人。醫(yī)生的數(shù)量可能會(huì)下降,但人們可以更容易也更頻繁地去看醫(yī)生。
問:在你的《人工智能時(shí)代》一書中,你提出了解決失業(yè)問題的一個(gè)方案——“工作抵押(Job mortgage)”。這聽上去像是一種由政府、雇主和教育系統(tǒng)聯(lián)合提供保障的再教育機(jī)制。但考慮到在人工智能時(shí)代里,由于簡(jiǎn)單和重復(fù)性的工作更容易被人工智能取代,人類教育可能因此比以往復(fù)雜得多。人們學(xué)習(xí)一種新技能可能會(huì)變得非常困難。鑒于此,“工作抵押”的再教育機(jī)制真的可行嗎?
好吧,我想你的問題中包含了一種隱藏的假設(shè):需要低級(jí)別技能和更少訓(xùn)練的工作更容易被自動(dòng)化,而需要高級(jí)別技能和更多訓(xùn)練的工作則難于被自動(dòng)化。這個(gè)假設(shè)也許不像你想象得那樣正確。
讓我來(lái)給你一個(gè)例子:放射科醫(yī)師。放射科醫(yī)師是醫(yī)生的一種,他們需要許多年的培訓(xùn)來(lái)學(xué)習(xí)技能,但他們的工作完全可以被徹底自動(dòng)化。
這是一個(gè)高等教育程度的工作也可以被自動(dòng)化的好例子。駕駛卡車可能是一種低級(jí)別的工作,也許需要一些訓(xùn)練,但它顯然不是一種高級(jí)技能。我的觀點(diǎn)是,自動(dòng)化將影響所有技能級(jí)別的、各行各業(yè)的人。當(dāng)我們擔(dān)心我們?cè)撊绾翁幹媚切┑图?jí)別工作者的時(shí)候,我們一樣需要擔(dān)心那些高級(jí)別工作者。
即便如此,仍然存在很多不需要大量訓(xùn)練,但也很難被自動(dòng)化的工作。從事這些工作的人,是不用擔(dān)心失業(yè)問題的。以人類角色出現(xiàn)這件事,對(duì)這些工作非常重要。
例如,看看那些體育教練,我們很難將這類工作自動(dòng)化。所以,也許我們可以將失業(yè)的卡車司機(jī)重新培訓(xùn)成體育教練,那些能夠駕駛卡車的人也許會(huì)發(fā)現(xiàn),體育教練的技能是比較容易掌握的。
當(dāng)我們談?wù)撛俳逃臅r(shí)候,你的問題包含了一個(gè)我并不認(rèn)同的假定。我可以給你另一個(gè)例子。
通常,按摩服務(wù)在今天的美國(guó)是一種奢侈服務(wù)。你必須擁有足夠的收入,才能負(fù)擔(dān)得起按摩服務(wù)的昂貴價(jià)格。按摩師的收入很高。按摩師需要的工作技能是什么?這種工作技能并不需要特別高級(jí)的訓(xùn)練。如果人們有了足夠的錢,更多的人就會(huì)選擇接受按摩服務(wù)。這會(huì)讓按摩師的需求大增。
未來(lái),因?yàn)榭晒蚕淼臒o(wú)人駕駛汽車的普及,你可能不再需要擁有你自己的汽車了。在美國(guó),這意味著平均水平的個(gè)人可以每年節(jié)省大約1萬(wàn)美元的汽車保有費(fèi)用。一些人就可以將這些省下來(lái)的錢花在按摩等較奢侈的服務(wù)上。然后,我們就需要更多的按摩師了。
有關(guān)人工智能只會(huì)取代低級(jí)別工作的假定是不正確的。許多需要人際接觸的工作都很難被取代,例如前臺(tái)接待員。你當(dāng)然可以用一個(gè)自動(dòng)化系統(tǒng)來(lái)取代他們,但你肯定不希望看到你的賓館或你的公司前臺(tái),只有機(jī)器來(lái)接待訪客。你肯定需要在前臺(tái)安排人類職員,因?yàn)槟阈枰麄冊(cè)谀抢锝鉀Q一些很難被高級(jí)規(guī)范化的系統(tǒng)預(yù)測(cè)的問題。
所以,我有個(gè)很有趣的建議——在你的工作或生活中,經(jīng)??匆豢?,想一想,周圍的人都在做什么?他們的工作是否有可能被自動(dòng)化?通常你會(huì)得到的結(jié)論是,他們的一部分工作可以被自動(dòng)化,但另一部分不行。這意味著,他們的工作會(huì)轉(zhuǎn)變?yōu)樾碌墓ぷ鳌_@種情況隨處可見。
讓我給你另一個(gè)例子:調(diào)酒師。調(diào)酒師的工作當(dāng)然可以被自動(dòng)化。你可以走到一臺(tái)自動(dòng)售貨機(jī)前,用自助的方式買一杯金湯力。但調(diào)酒師還可以參與我們的社交活動(dòng)。你希望看到他們。你希望和他們聊天。所以,調(diào)酒師的職業(yè)不會(huì)消失。那些失業(yè)的卡車司機(jī)也可以被訓(xùn)練成調(diào)酒師。
問:2016年10月,美國(guó)白宮發(fā)布了《國(guó)家人工智能研究與發(fā)展戰(zhàn)略規(guī)劃》。這是否說(shuō)明,人工智能已經(jīng)成為了美國(guó)國(guó)家戰(zhàn)略的一部分?你希望政府在人工智能領(lǐng)域做得更多還是做得更少?
在美國(guó),白宮能做一些事情,但他們?nèi)狈φ嬲目刂屏Α?/p>
例如,如果他們說(shuō),我們要讓洛杉磯的空氣變得更清潔,人們肯定會(huì)質(zhì)疑他們是否具備這種能力,是否要花很長(zhǎng)的時(shí)間才能達(dá)到目的。白宮能做的事情非常有限。他們必須勸說(shuō)工業(yè)界,勸說(shuō)人們?nèi)プ鲞@件事。
中國(guó)的公眾看到美國(guó)公布了什么人工智能國(guó)家戰(zhàn)略,也許會(huì)很焦慮。中國(guó)公眾會(huì)想,我們也需要在這個(gè)領(lǐng)域做些什么,因?yàn)槊绹?guó)政府認(rèn)為這很重要。但是,這種報(bào)告和政府聲明在美國(guó)和中國(guó)的意義截然不同。中國(guó)政府擁有比美國(guó)政府強(qiáng)大得多的能力來(lái)將計(jì)劃付諸行動(dòng)。
此前也發(fā)生過(guò)類似的事情。許多年以前,美國(guó)啟動(dòng)了一個(gè)叫做“第五代計(jì)算機(jī)”的項(xiàng)目。日本政府也認(rèn)為他們需要做類似的事情。政府認(rèn)為他們可以主持建造所謂的第五代計(jì)算機(jī)——擁有大量CPU單元以提高性能的計(jì)算機(jī)。
美國(guó)政府一度在大力推動(dòng)計(jì)劃的實(shí)施,但這個(gè)計(jì)劃從未變成現(xiàn)實(shí)。日本政府所做的類似努力讓日本經(jīng)濟(jì)倒退了好幾年,因?yàn)樗麄兺度肓藬?shù)十億美元卻收效甚微。
所以,當(dāng)我們看到美國(guó)政府的類似計(jì)劃時(shí),我們必須持一種懷疑的態(tài)度。美國(guó)所謂的政策,很多時(shí)候不過(guò)是一群擁有美好愿望的人召開了一次政府會(huì)議并發(fā)布了一些相關(guān)文件。這些東西通常并不具有約束力。
更進(jìn)一步,美國(guó)政府所發(fā)布的內(nèi)容也不一定就是正確可行的。對(duì)于美國(guó)可行的規(guī)劃,未必可以復(fù)制到中國(guó)。
在美國(guó),也許還需要20到30年,我們才能看到無(wú)人駕駛汽車的大規(guī)模應(yīng)用。但在中國(guó),政府可以用更大的力度投資無(wú)人駕駛產(chǎn)業(yè),可以在技術(shù)的應(yīng)用上選擇更靈活的政策,更早開始在試點(diǎn)城市測(cè)試無(wú)人駕駛技術(shù)。當(dāng)然,因?yàn)橹袊?guó)在執(zhí)行上更有效率,相關(guān)政策就更需要縝密思考后再付諸實(shí)踐。但中國(guó)不需要復(fù)制美國(guó)政府的政策規(guī)劃。
在美國(guó),政府曾經(jīng)在關(guān)系型數(shù)據(jù)庫(kù)上制定過(guò)類似的戰(zhàn)略規(guī)劃。這在當(dāng)年意味著什么?
美國(guó)政府可以說(shuō),所有政府部門都必須更新他們的數(shù)據(jù)庫(kù)系統(tǒng),以使用關(guān)系型數(shù)據(jù)庫(kù)。這是可以理解的,是一個(gè)好主意。但作為國(guó)家戰(zhàn)略,政府沒有理由也沒有能力強(qiáng)制整個(gè)國(guó)家都使用關(guān)系型數(shù)據(jù)庫(kù)。
你可以對(duì)政府內(nèi)部的信息技術(shù)部門做出建議,但對(duì)于私有企業(yè),你只要讓他們做他們擅長(zhǎng)做的事情就好了。如果這是一種好的技術(shù),私有企業(yè)自然會(huì)采用它。
在美國(guó),政府很難在沒有直接經(jīng)濟(jì)效益的領(lǐng)域投入大筆的資金。例如,2009年,奧巴馬總統(tǒng)啟動(dòng)了一個(gè)投資太陽(yáng)能的項(xiàng)目。政府決定去做投資,我認(rèn)為這是一件好事情。政府在不同公司投入了資金。
在這些公司里,有一家叫Solyndra的公司拿到了5億美金的投資,其中大多數(shù)來(lái)自政府。這家公司在2011年倒閉了。當(dāng)時(shí),政府和民主黨飽受批評(píng)。奧巴馬總統(tǒng)的聲譽(yù)遭受嚴(yán)重打擊,因?yàn)樗苿?dòng)設(shè)立了這個(gè)項(xiàng)目。能源工業(yè)在這些公司身上投入巨資,卻因此而損失了數(shù)億美元。
問:OpenAI宣稱他們的使命是制造安全的人工智能,以保證人工智能不會(huì)威脅人類。你認(rèn)為這世界上存在好的人工智能和壞的人工智能嗎?你會(huì)擔(dān)心谷歌等掌握了最強(qiáng)大的人工智能技術(shù)的業(yè)界巨頭做壞事嗎?
這和公眾慣于看到問題中危險(xiǎn)的一面有關(guān)。我們必須非常小心。回到關(guān)系型數(shù)據(jù)庫(kù)的例子,我們要確保關(guān)系型數(shù)據(jù)庫(kù)是有用的,是好的——但我們?cè)撊绾巫龅竭@一點(diǎn)?這意味著什么?關(guān)系型數(shù)據(jù)庫(kù)只是一種基本的技術(shù)。技術(shù)既不是好的,也不是壞的。技術(shù)既可以被用于好的目的,也可以被用于壞的目的。
你和我都可以在家里設(shè)計(jì)出一種非常危險(xiǎn)的武器。我們都有足夠的知識(shí)來(lái)制造出非常具有傷害力的裝置。類似的,我們可以讓任何技術(shù)具有傷害力。人工智能可能很危險(xiǎn)。想象一輛被程序控制的車輛,行駛過(guò)程中,程序可能驅(qū)使車輛殺死路人以挽救司機(jī)的生命。但是,與這種危險(xiǎn)的人工智能技術(shù)完全相同的技術(shù)也可以被用來(lái)拯救生命、保全汽車。
技術(shù)在不同的場(chǎng)景中有什么不同?當(dāng)我們說(shuō)我們可以開發(fā)好的人工智能技術(shù)時(shí),你覺得這句話意味著什么?這句話的真正含義是我們要盡力鼓勵(lì)人們將技術(shù)用于好的目的。這非常不同。
你不能說(shuō),這個(gè)工具是為干壞事兒設(shè)計(jì)的,那個(gè)工具是為干好事兒設(shè)計(jì)的,這完全講不通,它們是完全一樣的技術(shù)。公眾通常將人工智能看成一個(gè)黑盒子。但作為工程師,你我就在這盒子里面。
好的人工智能與壞的人工智能分別意味著什么?你能測(cè)量出某個(gè)黑盒子是好的,某個(gè)黑盒子是壞的?那我們還不如假定某種人工智能技術(shù),例如卷積神經(jīng)網(wǎng)絡(luò)是危險(xiǎn)的——顯然,我們不能這樣假定。
OpenAI的創(chuàng)始人,伊隆·馬斯克和山姆·阿爾特曼等人,他們要做什么?他們從斯坦福大學(xué)雇了許多人。他們所能做的也許是制造一個(gè)開放的工具包。他們可以為那些缺乏經(jīng)濟(jì)回報(bào)的領(lǐng)域制造應(yīng)用系統(tǒng),例如減少環(huán)境污染的系統(tǒng)。這些都是好的事情。我支持他們?nèi)プ鲞@些事。
另一個(gè)相關(guān)的例子是Uber。我特別驚訝地發(fā)現(xiàn),Uber在舊金山做的事情被大加贊賞,可Uber在倫敦做的同樣的事情卻飽受批評(píng)。Uber在倫敦造成了許多人失業(yè)。
倫敦有非常發(fā)達(dá)的出租系統(tǒng)。倫敦人管傳統(tǒng)的出租車叫“黑色出租”。這些出租車的司機(jī)是一個(gè)有著悠久歷史的社會(huì)職業(yè),他們需要對(duì)街道非常熟悉,以通過(guò)上崗測(cè)試。Uber在倫敦破壞了這樣的傳統(tǒng),因?yàn)槿魏稳酥灰幸惠v車就可以成為Uber司機(jī)。
在這件事上,Uber低估了英國(guó)人對(duì)于傳統(tǒng)職業(yè)的重視。倫敦的許多人痛恨Uber,他們認(rèn)為Uber是對(duì)英國(guó)社會(huì)的破壞。在舊金山,每個(gè)人都覺得Uber棒極了。人們贊揚(yáng)Uber,幾乎沒有什么負(fù)面報(bào)道。這是同一件事在不同城市得到的不同評(píng)價(jià)。所以,你很難說(shuō)某項(xiàng)技術(shù)是好的,或者是壞的。
至于谷歌,它擁有大量的數(shù)據(jù)和極其強(qiáng)大的深度計(jì)算集群。這件事是好還是壞?如果你在谷歌工作,你會(huì)覺得這真是太棒了。
如果你不在谷歌工作,問題的本質(zhì)就會(huì)變成,大數(shù)據(jù)和強(qiáng)大的計(jì)算能力是否給谷歌提供了我們不希望看到的某種可以對(duì)社會(huì)造成重大影響的決策能力?
我可以給你另一個(gè)例子。你和我可能說(shuō),無(wú)人駕駛汽車顯然是好的技術(shù)。我當(dāng)然相信這一判斷。但也有相當(dāng)一部分人認(rèn)為,無(wú)人駕駛汽車在道路上該如何工作,這是一個(gè)道德或倫理問題,將這個(gè)問題的決定權(quán)賦予研發(fā)無(wú)人駕駛技術(shù)的公司,其實(shí)是在將重要的道德或倫理決策授權(quán)給天生為了盈利的私有機(jī)構(gòu)。這是問題的根源。
在硅谷,Uber或谷歌等公司的態(tài)度是,我們絕不做壞事。但這并非被全世界知悉和認(rèn)同。硅谷以外的人們也許會(huì)因?yàn)檫@些公司掌握了技術(shù)的決策權(quán)而非常擔(dān)心。谷歌因其大數(shù)據(jù)和大計(jì)算能力而擁有極其強(qiáng)大的能量。他們會(huì)如何使用這種能量?你可能不希望看到這種能量只被某幾個(gè)決策者控制。
問:你認(rèn)為現(xiàn)有的教育系統(tǒng)是否適合即將到來(lái)的人工智能時(shí)代?
首先,在美國(guó),用于職業(yè)訓(xùn)練的教育系統(tǒng)被稱作職業(yè)培訓(xùn)。職業(yè)培訓(xùn)使人們獲取工作技能并有機(jī)會(huì)被雇傭。首要問題是,這樣的教育系統(tǒng)的設(shè)計(jì)初衷,并不能真的為幫助人們獲得在勞動(dòng)力市場(chǎng)上有用的工作技能而服務(wù)。
為什么?因?yàn)檫@與公共財(cái)政有很大關(guān)系。美國(guó)政府并沒有確保學(xué)生學(xué)到雇主所需的工作技能的直接動(dòng)機(jī)。這里面沒有特定的因果關(guān)系。
我想,要解決這個(gè)問題非常簡(jiǎn)單。你只需要將這些職業(yè)培訓(xùn)的財(cái)政投資私有化,并遵循以下的原則:如果學(xué)生學(xué)習(xí)到的技能無(wú)用,學(xué)校就賺不到錢。其次,在某些行業(yè)里,當(dāng)一個(gè)工作的技能發(fā)生轉(zhuǎn)變時(shí)該怎么辦?這里存在繼續(xù)教育的需求,我們需要一個(gè)能夠支持繼續(xù)教育的系統(tǒng)。例如,一個(gè)允許工程師學(xué)習(xí)新技能的系統(tǒng)。這一點(diǎn)同樣非常重要。
問:許多人工智能創(chuàng)業(yè)公司雇傭了資深的人工智能研究員,來(lái)出任公司的首席科學(xué)家。另一方面,資深的人工智能研究員通常都可以從谷歌、Facebook等大公司拿到豐厚的薪酬,他們很難做出加盟一家創(chuàng)業(yè)公司的決定。你認(rèn)為人工智能創(chuàng)業(yè)公司有必要雇傭資深的科學(xué)家嗎?
在我看來(lái),做科學(xué)研究和開發(fā)商業(yè)產(chǎn)品是不同的技能組合。有一個(gè)斯坦福大學(xué)畢業(yè)的工程師,他在斯坦福大學(xué)獲得了碩士學(xué)位。這是一個(gè)非常有價(jià)值的學(xué)位,可以借此獲得很好的工作。他的導(dǎo)師鼓勵(lì)他繼續(xù)攻讀博士學(xué)位。他也照做了。
他的假定是,擁有博士學(xué)位會(huì)比擁有碩士學(xué)位更有價(jià)值、更容易找到高薪的工作。這是不對(duì)的。為什么?你在碩士學(xué)位里獲取的是你需要進(jìn)入公司開發(fā)產(chǎn)品所需的工程技能。而大學(xué)里的博士學(xué)位屬于研究角色,他們并不一定擁有開發(fā)科技產(chǎn)品的能力。這是兩件非常不同的事情。
對(duì)于開發(fā)產(chǎn)品來(lái)說(shuō),你需要市場(chǎng)分析技能,需要理解你所用的技術(shù)的技能。你擁有一個(gè)博士學(xué)位,這并不一定意味著你是一個(gè)比碩士生更好的程序員。如果你有碩士學(xué)位,這對(duì)于研發(fā)產(chǎn)品來(lái)說(shuō)可能要更好。如果你需要在算法層面工作,你可能才需要博士學(xué)位。
人們說(shuō),目前的深度學(xué)習(xí)框架仍然需要科學(xué)家來(lái)調(diào)整參數(shù)。但我想,懂得編程的人一樣可以勝任調(diào)整參數(shù)的工作。問題在于,使用一個(gè)會(huì)調(diào)參數(shù)的研究員或科學(xué)家時(shí),他們通常缺乏工程經(jīng)驗(yàn)。他們是被訓(xùn)練來(lái)做研究的人。我們需要的應(yīng)該是更適合研發(fā)產(chǎn)品的人。
我會(huì)不會(huì)雇傭一個(gè)機(jī)器視覺專家,來(lái)設(shè)計(jì)最先進(jìn)的視覺算法呢?不會(huì)。我需要的是能夠理解和使用算法的人。例如,我們可以安裝一部攝像機(jī),來(lái)從視覺上區(qū)分樹枝和小孩子的腿。這種需求并不需要重新設(shè)計(jì)視覺算法。這是不同的工作技能。雇傭科學(xué)家來(lái)做工程師的工作,在大多數(shù)情況下會(huì)適得其反。
我的建議是,對(duì)于雇傭科學(xué)家要非常謹(jǐn)慎。
人們說(shuō),“看這個(gè)人,他有卡內(nèi)基梅隆的博士學(xué)位,他一定比另一個(gè)從喬治華盛頓大學(xué)畢業(yè)的碩士生強(qiáng)?!边@么說(shuō)的人會(huì)花冤枉錢的,因?yàn)椴┦可⒉恍枰邆涔こ探?jīng)驗(yàn)。
我知道在斯坦福大學(xué),許多博士生畢業(yè)時(shí)的工程技能都少得可憐,因?yàn)樗麄兘邮艿牟⒉皇枪こ谭矫娴挠?xùn)練。這些博士生被訓(xùn)練成視覺研究領(lǐng)域的先進(jìn)算法專家。
他們并沒有接受如何在預(yù)算范圍內(nèi)按時(shí)發(fā)布產(chǎn)品、如何解決特定的工程問題等方面的訓(xùn)練,他們更沒有接受如何理解客戶的需求并確保產(chǎn)品符合客戶需求的訓(xùn)練,這些實(shí)際上都是市場(chǎng)方面的技能。
人才市場(chǎng)上有足夠多的擁有和理解工程技能的候選人。如果是我,我會(huì)質(zhì)疑雇傭科學(xué)家的做法。不要因?yàn)槟承┤藫碛许敿獯髮W(xué)的博士學(xué)位,就假定這些人特別適合做某件工作。我會(huì)主要根據(jù)候選人所擁有的技能來(lái)考慮問題。正如不要假定一個(gè)擅長(zhǎng)編程的人也善于管理團(tuán)隊(duì)。這是不同的技能。類似的事情我見到過(guò)很多。你必須雇傭最合適的人。
聯(lián)系客服