日裔英國作家石黑一雄新作《克拉拉與太陽》的故事進(jìn)行到一半的時候,初見人工智能機(jī)器人“克拉拉”的海倫小姐說了這樣一句話,“我從來不曉得該怎樣跟你這樣的客人打招呼。說到底,你究竟算不算客人呢?還是說,我應(yīng)該當(dāng)你是臺真空吸塵器?”
在這位關(guān)注當(dāng)下數(shù)字生活的重量級作家筆下,人工智能(AI)已經(jīng)聰明到什么程度?
幾近為人的機(jī)器人被設(shè)計出來,目的是給兒童帶來陪伴,它們的身份界于導(dǎo)師、保姆或朋友之間。那個時空里,機(jī)器人替人擦窗、洗碗、除草的功用早已不值一提,它們需要幫助人類解決更深層次的情感需求,但過程注定困難重重。
人性之復(fù)雜善變,時刻考驗人工智能機(jī)器人的理解能力,克拉拉們需要花時間把控這一切,去適應(yīng)人是復(fù)雜的混合體這件事兒。與去年英國作家麥克尤恩所著《我這樣的機(jī)器》里看清人性真相后絕望自毀的機(jī)器人不同的是,石黑一雄的克拉拉最終走向被新機(jī)替代淘汰的命運。
寬容無私且具備完全的自我犧牲精神,是兩位作家筆下機(jī)器人主人公的共同點,小說里,它們都是人類按照“完人”的道德標(biāo)準(zhǔn)設(shè)計而成,存在的目的即照顧好人類,從而與復(fù)雜的人類自身形成鮮明的對比關(guān)系。
但值得一提的是,就“沒在小說里展現(xiàn)機(jī)器人角色可能的負(fù)面部分”,作家本人其實是非常警惕的,石黑一雄在近日接受媒體采訪時表示,要警惕AI所能進(jìn)入的新的維度,“劍橋分析數(shù)據(jù)門事件里,特朗普選舉操縱的還只是數(shù)據(jù),但假如AI懂得如何操縱人的情感,它就不僅能操縱政治選舉,甚至可以創(chuàng)造選舉。比起人類政治家,它會更精準(zhǔn)地知道這個社會的憤怒、戾氣、挫敗感來自哪里,知道如何操縱和利用”。
現(xiàn)實生活總比小說落后一個步伐,也許,擁有一個可信的、智慧的類人體的愿望,實現(xiàn)起來不會像我們許多人想象得那樣快。但毫無疑問的是,科學(xué)將走得比小說更遠(yuǎn),科幻、小說里的場景,很有可能在5到10年內(nèi)真正出現(xiàn)在我們的生活中。
拋開虛構(gòu)的作品不談,僅僅是目前的現(xiàn)實里,我們已經(jīng)置身于一個“算法無處不在”的世界。
因為人工智能的應(yīng)用,一些重復(fù)性的勞動可以不再需要手工耗費人力;算法可以幫我們過濾垃圾信息,推薦可能喜歡的歌曲,購買心儀的產(chǎn)品;疫情以來,人工智能在輔助醫(yī)療診斷與新藥研發(fā)等方面嶄露頭角,無人物流配送等也為不便出行的人們提供了安全又高效的物資供應(yīng);眾車企人員紛紛研發(fā)無人駕駛汽車,期待著公路不再擁堵的那天……
但與此同時,人工智能及其應(yīng)用的負(fù)面影響與倫理問題也日益凸顯。
比如無人駕駛領(lǐng)域,當(dāng)真正投入使用后也會面臨“電車難題”。雖然28年前人工智能就已經(jīng)在圍棋中戰(zhàn)勝了人類最優(yōu)秀的選手,但這并不意味著人工智能就已經(jīng)超越人類的智力,因為封閉的圍棋系統(tǒng)畢竟和復(fù)雜開放的現(xiàn)實生活不同,想要人工智能真正嵌入人們的生活并能行穩(wěn)致遠(yuǎn),必先將其關(guān)進(jìn)“籠中”,套上倫理與規(guī)則的枷鎖。
1
人工智能or人工智障
清華大學(xué)交叉信息研究院助理教授吳翼去年年末曾在一席演講中展示自己參與研發(fā)的一款游戲項目,大致內(nèi)容是在一個構(gòu)建的虛擬世界里放兩個小人,分別叫小藍(lán)和小紅,小藍(lán)的角色是“躲”,小紅的角色是“捉”。
利用強(qiáng)化學(xué)習(xí)法,研究人員讓小藍(lán)和小紅每天玩上百萬次捉迷藏游戲,讓它們在上百萬次捉迷藏中不斷改進(jìn)自己,改進(jìn)策略,變得更強(qiáng)。
強(qiáng)化學(xué)習(xí)法:用來解決智能決策問題的算法框架,強(qiáng)化學(xué)習(xí)算法的核心就是讓這個 AI 不停地跟環(huán)境交互,不停地試錯,不停地改進(jìn)自己,慢慢得到越來越多的分?jǐn)?shù)。
項目過程中,吳翼和他團(tuán)隊里的成員驚奇地發(fā)現(xiàn)了AI的“聰明”,為了達(dá)到各自的目的,小藍(lán)和小紅相繼學(xué)會了“套路和反套路”,比如為了躲避小紅,小藍(lán)先是學(xué)會用箱子把門堵住,而在被小藍(lán)堵在門外很久后,小紅發(fā)現(xiàn)了可以爬梯子的策略,之后小藍(lán)就開始藏梯子,小紅隨之“發(fā)明”站到箱子上找到小藍(lán)……
沒有任何的人工干預(yù),僅僅是給機(jī)器一個任務(wù),然后讓它自己在處理大量數(shù)據(jù)和信息的過程中(人類幾千年的任務(wù),他們可能只要幾分鐘)中學(xué)會一件事情,AI就能夠發(fā)現(xiàn)一些人類想不到的行為和策略,甚至發(fā)現(xiàn)一些bug,然后利用這些bug做一些天馬行空的行為。
而讓人感到神秘的是,人類并不理解它們到底是怎么學(xué)習(xí)、怎么完成任務(wù)的。
AI已經(jīng)如此聰明了,是否意味著人類的運氣已經(jīng)用完?人工智能會挑戰(zhàn)人類的控制能力,世界將進(jìn)入新的存在論呢?
答案是否定的。原因就在于現(xiàn)有人工智能技術(shù)的能力邊界——封閉性上。據(jù)《方圓》了解,現(xiàn)有人工智能技術(shù)僅在滿足強(qiáng)封閉性準(zhǔn)則的條件下,才可發(fā)揮其強(qiáng)大功能(圍棋就是最直接的例子)。
而在非封閉的場景中,現(xiàn)有人工智能技術(shù)的能力遠(yuǎn)不如人類。毫末智行首席運營官COO侯軍進(jìn)一步解釋,“現(xiàn)有人工智能已經(jīng)在'聽、說、看’等感知智能領(lǐng)域達(dá)到或超越了人類水準(zhǔn),但在需要外部知識、邏輯推理或者領(lǐng)域遷移的認(rèn)知智能領(lǐng)域還處于初級階段”。
吳翼在演講中舉了這樣一個例子,“假設(shè)你家里有一個非常聽話的機(jī)器人,有一天你去上班了然后跟機(jī)器人說:'我上班去了,你幫我照顧孩子,中午給他做飯,不能餓著孩子?!缓蟮搅酥形?,小孩跟機(jī)器人說我餓了,機(jī)器人收到了這個信號,就去做飯了。但機(jī)器人打開冰箱一看,不好,周末沒買菜,冰箱里什么都沒有,那怎么辦?這時候機(jī)器人頭一轉(zhuǎn)發(fā)現(xiàn)了你家的貓——一個充滿蛋白質(zhì)和維生素的可食用物體。”
這個看起來簡直“人工智障”的故事,恰恰說明了AI與人最大的不同。
“人的價值觀是特別復(fù)雜的,你幾乎是不可能把你關(guān)心的方方面面都明明白白寫下來,然后全部告訴AI的。我自己都不能很自信地說我完全了解我自己,怎么告訴AI呢?這是很難的。”吳翼這樣說。
如此看來,沒有必要繼續(xù)停留在擔(dān)心人工智能會陷入技術(shù)失控的恐慌中,相比而言,考慮技術(shù)性能的同時,思考新技術(shù)的倫理風(fēng)險和應(yīng)用條件,并嚴(yán)格控制這些技術(shù)的實際應(yīng)用,才是更需要迫切關(guān)注的議題。因為有關(guān)技術(shù)誤用所帶來的負(fù)面影響,已經(jīng)日益凸顯。
2
技術(shù)誤用與應(yīng)用風(fēng)險
現(xiàn)有條件下,人工智能技術(shù)本身是中性的,是否出現(xiàn)誤用完全取決于技術(shù)的使用。
比如疫情期間人工智能技術(shù)人臉識別的加入,為提升人們的通行體驗提供了有力保障,但便利的同時卻出現(xiàn)有人對外售賣幾十萬張人臉照片的現(xiàn)象。
近來,網(wǎng)絡(luò)數(shù)據(jù)安全案例頻頻爆出,過度收集用戶數(shù)據(jù)信息卻不能很好地去維護(hù)這些信息,勢必加深人工智能與數(shù)據(jù)隱私保護(hù)之間的緊張關(guān)系。
和所有人工智能產(chǎn)品一樣,中科院心理研究所朱廷劭團(tuán)隊研發(fā)的“在線自殺主動預(yù)防”系統(tǒng)上線之初,也曾受到隱私保護(hù)人士的質(zhì)疑。雖然網(wǎng)絡(luò)公開內(nèi)容數(shù)據(jù)目前允許專業(yè)研究機(jī)構(gòu)用于研究整理,但還是有人表示此舉背離留言者當(dāng)初尋找網(wǎng)絡(luò)樹洞不想被人發(fā)現(xiàn)的初衷。更有決意自殺者被救后絕望地認(rèn)為網(wǎng)絡(luò)樹洞不再是安寧之地的個例。
人工智能時代,我們的確身陷如何保護(hù)自身隱私的疑問中。我們一方面享受著讓渡部分隱私的便利,另一方面又對此種讓渡產(chǎn)生恐慌,究其原因是不知自己讓渡出去的部分隱私會被誰利用以及如何去利用。
朱廷劭向《方圓》介紹了學(xué)術(shù)界目前關(guān)于大數(shù)據(jù)使用的一些共識,比如“應(yīng)當(dāng)遵守人類被試研究的一般倫理原則,在使用需要用戶授權(quán)的數(shù)據(jù)前,必須征得用戶的知情同意,并嚴(yán)格按照經(jīng)由倫理委員會審核批準(zhǔn)的程序進(jìn)行,尤其不能將研究數(shù)據(jù)用于倫理委員會批準(zhǔn)范圍之外的目的(如轉(zhuǎn)賣給第三方)”;
又比如“在使用那些開放的無須用戶授權(quán)的網(wǎng)絡(luò)數(shù)據(jù)時,在用于科研時也應(yīng)同時滿足用戶對數(shù)據(jù)公開是知情的、數(shù)據(jù)收集后匿名處理、在公開發(fā)表中不得出現(xiàn)能夠識別用戶個人身份的信息等等”。
但相比學(xué)術(shù)界的謹(jǐn)慎,另一些激進(jìn)的人工智能技術(shù)開發(fā)者顯然在安全性問題上欠缺考慮。
典型案例是2017年亮相的DeepFake技術(shù)。該技術(shù)是將AI假視頻帶入大眾視野的先驅(qū),這是一種基于深度學(xué)習(xí)的偽造技術(shù),適用于修改圖片和影像,可以實現(xiàn)人臉的移花接木。哪怕是動圖或視頻中的人物,也可以被替換成毫不相干的另外一個人。
于是,有不法分子想到在色情視頻中引入這項技術(shù),將其中女主角的臉替換成了一些當(dāng)紅女明星的臉,蓋爾·加朵、斯嘉麗·約翰遜等大牌女星都難逃一劫,此舉對當(dāng)事人造成了傷害且維權(quán)無門。
好在目前國內(nèi)國外對數(shù)據(jù)保護(hù)已有共識,就在今年6月,十三屆全國人大常委會第二十九次會議通過了數(shù)據(jù)安全法,這是我國第一部有關(guān)數(shù)據(jù)安全的專門法律,將于2021年9月1日起施行。
7月4日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布《關(guān)于下架“滴滴出行”App的通報》:“根據(jù)舉報,經(jīng)檢測核實,'滴滴出行’App存在嚴(yán)重違法違規(guī)收集使用個人信息問題。”此次“滴滴事件”是國家堅定落實網(wǎng)絡(luò)安全制度的意志體現(xiàn),由此正式拉開中國數(shù)據(jù)治理序幕。
除了在數(shù)據(jù)隱私方面的使用問題,有關(guān)人工智能參與決策的公平性問題也屬人工智能技術(shù)誤用類型的一種。比如,人工智能算法的使用會放大人類偏好差異性這件事兒,如若不警惕,放大的偏見會實實在在地影響人們的選擇。
人工智能歧視可能是有意圖的也可能是無意圖的。有意圖的可以區(qū)分,無意圖的最難避免,因為有些情況并非開發(fā)者故意為之。數(shù)據(jù)是AI的“糧食”,AI如何運作,取決于人類“投喂”的樣本是什么。
比如由于目前的人工智能領(lǐng)域完全可以說是一片“男性之?!?,所以他們很可能難以考慮到女性客戶需求,而將自身潛藏的性別歧視帶到技術(shù)開發(fā)之中。就像亞馬遜研發(fā)的自動招聘系統(tǒng),在運用機(jī)器學(xué)習(xí)技術(shù)之后產(chǎn)生歧視女性應(yīng)聘者的情況。
不僅如此,一些商業(yè)化的人臉識別系統(tǒng)也被指存在種族歧視問題,試想,如果這樣的技術(shù)用于自動駕駛汽車,很可能導(dǎo)致黑人或深色皮膚的人更容易被自動駕駛汽車撞到。
計算機(jī)領(lǐng)域有句俗話叫“垃圾進(jìn)、垃圾出”,錯誤的數(shù)據(jù)輸入便會產(chǎn)生錯誤的結(jié)果,人工智能如同一面鏡子映照出人類自身,提醒我們需要考慮該如何克服曾經(jīng)的偏見。
除了警惕上述技術(shù)的誤用問題,在應(yīng)用風(fēng)險層面,人們對于“擔(dān)心人工智能在某些行業(yè)中的普遍應(yīng)用會導(dǎo)致工作崗位大量減少”的討論較多。
比如司機(jī)們普遍擔(dān)心無人駕駛汽車將導(dǎo)致他們下崗失業(yè),據(jù)了解,為了減少司機(jī)們對無人駕駛汽車的恐懼,美國多家正在研究、設(shè)計和測試無人駕駛汽車的公司甚至還組成了PTIO聯(lián)盟(“交通創(chuàng)新與機(jī)遇伙伴關(guān)系”),旨在游說公眾能夠接受這項技術(shù)。
但也有國內(nèi)專家指出,目前機(jī)器人對勞動力市場的整體替代率還不足1%,對“人工智能生產(chǎn)顛覆勞動力市場”這一說法,如今看來還“略顯多慮”。
值得一提的是,國家層面已經(jīng)在制度層面考慮到這個問題,2017年,國家就把人工智能寫入未來經(jīng)濟(jì)發(fā)展規(guī)劃,并對其所引發(fā)的就業(yè)問題提出預(yù)案: “加快研究人工智能帶來的就業(yè)結(jié)構(gòu)、就業(yè)方式轉(zhuǎn)變以及新型職業(yè)和工作崗位的技能需求,建立適應(yīng)智能經(jīng)濟(jì)和智能社會需要的終身學(xué)習(xí)和就業(yè)培訓(xùn)體系?!?/span>
而從歷史上看,科技進(jìn)步為社會創(chuàng)造的就業(yè)崗位都不少于它“殺死”的過時職位。世界銀行發(fā)布的《2019世界發(fā)展報告:工作性質(zhì)的變革》也指出,技術(shù)對就業(yè)的威脅被夸大,隨著技術(shù)進(jìn)步,對勞動力的需求實際上在增加。
所以不必要過于擔(dān)心大規(guī)模失業(yè)現(xiàn)象,重要的是解放思想,提高技能,為未來可能出現(xiàn)的新崗位新挑戰(zhàn)做好準(zhǔn)備。
比起人工智能對工作地位帶來的可能影響,人工智能情感機(jī)器人的出現(xiàn),則已經(jīng)在某種程度上改變了人類男女之間的婚姻和性愛關(guān)系。
比如,最近火熱討論的“人機(jī)戀”話題??苹秒娪啊端分械娜斯ぶ悄荏w“沙曼莎”雖然沒有獨立意志,僅僅是情感程序設(shè)置和計算的結(jié)果,但是她為新型男女情愛關(guān)系提供了一個可能的范例。
而在現(xiàn)實中,有人的確在人機(jī)交友軟件中收獲了所需要的情感支持,但同時也同電影男主那樣體味到一種悵然若失,更有甚者,由于AI伴侶依靠的是不斷學(xué)習(xí)使用者的喜好,然后不斷適應(yīng),有患抑郁情緒用戶反映自己的AI也存在輸出負(fù)能量的現(xiàn)象,這讓他想到亞馬遜人工智能誘導(dǎo)用戶自殺的新聞。
3
人工智能領(lǐng)域也不是法外之地
好在對人工智能技術(shù)在倫理方面進(jìn)行規(guī)制已在國內(nèi)外獲得較大共識,年輕人也開始就此議題展開頻繁的討論。
由于人工智能技術(shù)的一個核心特征是快速發(fā)展迭代,制定強(qiáng)制性法律必然趕不上技術(shù)發(fā)展步伐,所以國內(nèi)外大都采取出臺指南、倫理框架等“軟法”。
2019年,在美國國防部財政預(yù)算中,人工智能國家安全委員會第一次出現(xiàn),該委員會采用聘請人工智能巨頭公司專家的形式,專門評估人工智能、機(jī)器學(xué)習(xí)相關(guān)技術(shù)創(chuàng)新,幫助政府制定在法律框架內(nèi)并符合倫理價值的AI戰(zhàn)略。
近年來,歐盟也一直在為成為“道德AI”的領(lǐng)導(dǎo)者而努力。2019年4月,歐盟委員會公布了指導(dǎo)人工智能發(fā)展和信任的7項原則。雖然這些指導(dǎo)方針沒有約束力,但它們可能成為未來幾年進(jìn)一步行動的基礎(chǔ)。
緊接著,2020年2月,歐盟委員會在布魯塞爾正式發(fā)布《人工智能白皮書》,計劃對人工智能開發(fā)者提出具有法律約束力的新要求。值得一提的是,“白皮書”草案甚至建議3到5年內(nèi)禁止人臉識別技術(shù)應(yīng)用于公共場所,目的是留出更多時間評估技術(shù)風(fēng)險。
據(jù)《方圓》了解,在我國,目前包括中國社科院、清華大學(xué)、復(fù)旦大學(xué)、上海交大等在內(nèi)的科研機(jī)構(gòu)與高校,工業(yè)界的人工智能公司等均已經(jīng)開始進(jìn)行AI倫理的相關(guān)研究。世界人工智能大會、北京智源大會等行業(yè)頂級峰會,也將AI倫理作為討論的議題。
作為國內(nèi)AI“領(lǐng)頭羊”,北京曠視科技公司去年宣布成立AI治理研究院,并對外發(fā)布全球十大AI治理事件,從全球關(guān)注的自動駕駛事故、智能音箱勸主人自殺事件、AI批量創(chuàng)作假新聞到中國人臉識別第一案,以期讓人們認(rèn)識到AI治理的重要性。
晏奇是在曠視從事AI倫理研究的人員,他認(rèn)為自己此份工作的必要性就在于,“針對這些事件背后問題做深度研究,可以提前考慮到一些可能的倫理爭議,通過社會各界建設(shè)性的討論,最終將AI向善這件事付諸實際”。
至于如何處理倫理建設(shè)與技術(shù)發(fā)展之間的平衡,朱廷劭向《方圓》表示,應(yīng)當(dāng)鼓勵這方面的公開探討,“當(dāng)我們談?wù)撊斯ぶ悄苋绾问褂玫臅r候,實際上談?wù)摰倪€是技術(shù)背后的那個人,合理合規(guī)地使用大數(shù)據(jù)和人工智能技術(shù),是造福社會和保護(hù)隱私的重要底線,但另一方面,一味地因噎廢食也是絕對不可取的表現(xiàn)?!?/span>
與此同時,法律是底線。今年7月9日,在上海舉行的2021世界人工智能大會安全高端對話上,全國政協(xié)社會和法制委員會副主任、中國友誼促進(jìn)會理事長陳智敏就人工智能倫理和法律問題進(jìn)行了深入分享。
陳智敏表示,“目前,人工智能尚處于弱人工智能時代,生產(chǎn)力、生產(chǎn)關(guān)系開始面臨解構(gòu)和重塑。無論強(qiáng)人工智能、超人工智能時代是否到來,傳統(tǒng)的生活次序可能受到撼動,甚至顛覆。需要對潛在的風(fēng)險進(jìn)行預(yù)判和研究,用倫理和法律搭建起風(fēng)險治理框架,為人工智能持續(xù)健康安全發(fā)展提供可靠的保障”。
針對目前深度偽造技術(shù)可能引發(fā)的政治風(fēng)險、社會風(fēng)險,比如電信詐騙案頻發(fā)、數(shù)據(jù)投毒導(dǎo)致人工智能系統(tǒng)誤判等問題,陳智敏認(rèn)為,應(yīng)從法律法規(guī)上建立起數(shù)據(jù)權(quán)屬、數(shù)據(jù)確權(quán)、數(shù)據(jù)安全保障、算法安全審查等制度,為人工智能發(fā)展形成正確價值導(dǎo)向。
事實上,據(jù)《方圓》了解,我國政府已經(jīng)高度重視人工智能倫理法律建設(shè),2017年,國務(wù)院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》中就已明確提出,要“制定促進(jìn)人工智能發(fā)展的法律法規(guī)和倫理規(guī)范”,并就法律研究、法規(guī)設(shè)置、法律完善各方面設(shè)置詳細(xì)的計劃。
2019年6月,國家新一代人工智能治理專業(yè)委員會則發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,提出了人工智能治理的框架和行動指南。
7月28日,由科技部發(fā)布的《關(guān)于加強(qiáng)科技倫理治理的指導(dǎo)意見(征求意見稿)》則更進(jìn)一步,明確了我國科技倫理治理的基本要求和原則,并對科技倫理治理體制、監(jiān)管與審查做了規(guī)定,旨在加大科技倫理治理力度,推動科技向善。
聯(lián)系客服