九色国产,午夜在线视频,新黄色网址,九九色综合,天天做夜夜做久久做狠狠,天天躁夜夜躁狠狠躁2021a,久久不卡一区二区三区

打開APP
userphoto
未登錄

開通VIP,暢享免費(fèi)電子書等14項(xiàng)超值服

開通VIP
致開發(fā)者:2018年AI技術(shù)趨勢展望

來源|公眾號“AI 前線”,(ID:ai-front)

譯者|核子可樂

編輯|Emily


概要:在 2018 年,開發(fā)者如何將一系列 AI 技術(shù)成果應(yīng)用于當(dāng)前的工作當(dāng)中呢?


近日,一篇預(yù)測 2018 年 AI 技術(shù)趨勢的文章,文中討論了如何將 2017 年業(yè)界已經(jīng)醞釀出一些成熟產(chǎn)物在在 2018 年實(shí)現(xiàn)大規(guī)模應(yīng)用。在 2018 年,開發(fā)者如何將一系列 AI 技術(shù)成果應(yīng)用于當(dāng)前的工作當(dāng)中呢?

今天的文章包括一份目前已經(jīng)在實(shí)踐中應(yīng)用的 AI 算法與技術(shù)成果清單,如時序分析(深度學(xué)習(xí)正迅速取代信號處理領(lǐng)域中的一些傳統(tǒng)技術(shù))等。一方面,這些成果可以說相當(dāng)酷炫,但本文暫時不會對強(qiáng)化學(xué)習(xí)的實(shí)際應(yīng)用進(jìn)行展望,因?yàn)樵谖铱磥?,?shí)際上其還很難在某些工業(yè)應(yīng)用環(huán)境中產(chǎn)生實(shí)際效果。當(dāng)然,不能否認(rèn)的是,強(qiáng)化學(xué)習(xí)確實(shí)是個前景廣闊,且正處于快速發(fā)展中的研究領(lǐng)域。這里我就不再繼續(xù)討論圖像識別與簡單的計(jì)算機(jī)視覺議題了,畢竟這幾年此類文章已經(jīng)多如牛毛:)


 GAN 與偽造


盡管生成性對抗網(wǎng)絡(luò)已經(jīng)擁有數(shù)年發(fā)展歷史,但我對其仍抱有懷疑態(tài)度。幾年過去,雖然如今的技術(shù)不再只能生成可憐的 64 x 64 圖像,但這仍不足以打消我的顧慮。在閱讀相關(guān)數(shù)學(xué)文章后,我對 GAN 并不能真正理解其分布狀況的懷疑進(jìn)一步加深。不過這一切在今年有所改變——首先是 CycleGAN 等有趣的體系以及 Wasserstein GAN 等數(shù)學(xué)改進(jìn)讓我得以在實(shí)踐當(dāng)中加以嘗試。雖然其實(shí)際效果仍無法令人完全滿意,但現(xiàn)在我已經(jīng)確定,其生成能力絕對不容質(zhì)疑。


首先,我強(qiáng)烈推薦英偉達(dá)公司發(fā)表的關(guān)于生成逼真全高清圖像的研究論文(共結(jié)果要遠(yuǎn)好于一年之前恐怕的 64 x 64 面部圖像):《AI 可以生成偽造的名人臉部圖像,效果好得讓人意外......》


https://www.theverge.com/2017/10/30/16569402/ai-generate-fake-faces-celebs-nvidia-gan


不過更讓我激動的(甚至喚起了我的‘少年夢想’),則是利用 AI 生成偽造的色情影片:


《AI 生成的色情片》


https://motherboard.vice.com/en_us/article/gydydm/gal-gadot-fake-ai-porn


另外,游戲行業(yè)也在大規(guī)模采用這些新型技術(shù),例如利用 GAN 生成景觀、英雄甚至整個世界。在我看來,我們必須提高自己的分辨能力——從偽造的色情影片到欺詐性網(wǎng)絡(luò)人物。


全部神經(jīng)網(wǎng)絡(luò)皆遵循同一獨(dú)特格式


現(xiàn)代開發(fā)領(lǐng)域(不僅僅是在人工智能行業(yè))的一大難題在于,我們往往面對數(shù)十種作用基本相同的框架方案。目前,每家投身于機(jī)器學(xué)習(xí)領(lǐng)域的大型企業(yè)都擁有自己的框架:谷歌、Facebook、Amazon、微軟、英特爾、甚至包括索尼與優(yōu)步都是如此,這還不算其它眾多開源解決方案。在單一人工智能應(yīng)用程序當(dāng)中,我們往往需要使用多種不同框架——例如利用 Caffe2 實(shí)現(xiàn)計(jì)算機(jī)視覺,PyTorch 實(shí)現(xiàn)自然語言處理,TensorFlow/Keras 則專攻推薦系統(tǒng)。將這一切加以合并需要耗費(fèi)大量時間,意味著數(shù)據(jù)科學(xué)家與軟件開發(fā)人員需要費(fèi)心費(fèi)力,而無法專注于處理真正重要的任務(wù)。理想的解決方案應(yīng)當(dāng)是一種獨(dú)特的神經(jīng)網(wǎng)絡(luò)格式,且可輕松與各類框架進(jìn)行對接,包括允許開發(fā)人員輕松部署、確??茖W(xué)家能夠輕松使用。在這方面,ONNX 應(yīng)運(yùn)而生:


《ONNX:開源神經(jīng)網(wǎng)絡(luò)改變了格式》


http://onnx.ai/getting-started


可互換 AI 模型的新開源生態(tài)


事實(shí)上,ONNX 只是非循環(huán)計(jì)算圖的一種簡單格式,但卻在實(shí)踐層面為我們帶來真正部署復(fù)雜 AI 解決方案的機(jī)會。我個人非??春迷擁?xiàng)目——人們能夠在 PyTorch 等框架當(dāng)中開發(fā)神經(jīng)網(wǎng)絡(luò)并部署工具,而不再需要從頭到尾始終被局限在 TensorFlow 生態(tài)系統(tǒng)之內(nèi)。


 Zoo 快速普及


三年之前,人工智能領(lǐng)域最令人興奮的成果當(dāng)數(shù) Caffe Zoo。當(dāng)時我負(fù)責(zé)處理大量計(jì)算機(jī)視覺工作,因此需要嘗試所有模型,并觀察其工作原理以及實(shí)際效果。在此之后,我會利用這些模型進(jìn)行遷移學(xué)習(xí)或者作為特征提取器。最近我開始使用兩種不同的開源模型,并將引入規(guī)模更大的計(jì)算機(jī)視覺處理管道。究其本質(zhì),這意味著我們已經(jīng)不再需要自行訓(xùn)練網(wǎng)絡(luò)。舉例來說,ImageNet 能夠很好地實(shí)現(xiàn)對象或者地點(diǎn)識別,因此我們可以直接將這些基礎(chǔ)性成果下載并接入到自己的系統(tǒng)當(dāng)中。除了 Caffe Zoo 之外,其它框架也提供類似的 Zoo 方案。但真正讓我驚奇的是,現(xiàn)在大家甚至能夠?qū)⒏黝惸P吞砑又劣?jì)算機(jī)視覺、自然語言處理甚至是 iPhone 內(nèi)的加速度計(jì)信號處理機(jī)制當(dāng)中。


最全的核心機(jī)器學(xué)習(xí)模型列表(iOS 11 以上)


https://github.com/likedan/Awesome-CoreML-Models


在我看來,這類 Zoo 方案只會越來越多 ; 再加上 ONNX 這類生態(tài)系統(tǒng)的出現(xiàn),這些方案將變得更加集中(并憑借機(jī)器學(xué)習(xí)區(qū)塊鏈類應(yīng)用實(shí)現(xiàn)本體分散)。


 AutoML 替換管道


設(shè)計(jì)一套神經(jīng)網(wǎng)絡(luò)架構(gòu)無疑是一項(xiàng)痛苦的任務(wù)——有時候,大家可以通過疊加卷積層獲得相當(dāng)出色的結(jié)果,但在大多數(shù)情況下,我們需要利用直覺與超參數(shù)搜索等方法認(rèn)真設(shè)計(jì)寬度、深度與超參數(shù)——例如隨機(jī)搜索或貝葉斯優(yōu)化。而且對于除計(jì)算機(jī)視覺以外的其它工作,我們不光需要對 ImageNet 上訓(xùn)練完成的 DenseNet 進(jìn)行微調(diào),同時也要面對 3D 數(shù)據(jù)分類或者多變量時序應(yīng)用等其它難題。


目前已經(jīng)存在多種能夠利用其它神經(jīng)網(wǎng)絡(luò)從零開始生成新的神經(jīng)網(wǎng)絡(luò)架構(gòu)的嘗試,但其中我最為看好的,當(dāng)數(shù)谷歌研究團(tuán)隊(duì)拿出的最新成果:


AutoML 用于大規(guī)模圖像分類與對象檢測


https://research.googleblog.com/2017/11/automl-for-large-scale-image.html


他們利用其生成計(jì)算機(jī)視覺模型,且不僅速度較人類科學(xué)家更快,效果也更好!我相信很快就會出現(xiàn)大量與之相關(guān)的論文與開源成果。在我看來,未來將有更多博文或初創(chuàng)企業(yè)不再強(qiáng)調(diào)“我們開發(fā)出一套 AI 方案……”,而是轉(zhuǎn)向“我們的 AI 方案能夠?qū)W習(xí)其它 AI 方案,并借此創(chuàng)造出新的 AI 方案”。至少我肯定會在自己的項(xiàng)目中加以嘗試,請告訴不只我一個人有這樣的沖動。


 智能堆棧規(guī)范化


關(guān)于這個概念,我的認(rèn)知主要來自俄羅斯系統(tǒng)分析師、教練兼 AI 愛好者 Anatoly Levenchuk 的博客。通過以下圖片,大家可以看到所謂“AI 堆?!钡氖纠?/span>



其中不僅包含機(jī)器學(xué)習(xí)算法與您最喜愛的框架,同時也存在著諸多更為深入的層級,且各個層級都擁有自己的發(fā)展與研究趨向。


我認(rèn)為人工智能開發(fā)行業(yè)已經(jīng)非常成熟,其中存在著大量多元化的專家。事實(shí)上,團(tuán)隊(duì)中僅有一名數(shù)據(jù)科學(xué)家是遠(yuǎn)遠(yuǎn)不夠的——大家需要不同的人才來進(jìn)行硬件優(yōu)化、神經(jīng)網(wǎng)絡(luò)研究、AI 編譯器開發(fā)、解決方案優(yōu)化以及生產(chǎn)實(shí)現(xiàn)。而在他們之上,還應(yīng)設(shè)置不同的團(tuán)隊(duì)領(lǐng)導(dǎo)者、軟件架構(gòu)師(分別為各個問題進(jìn)行堆棧設(shè)計(jì))以及管理員。之所以在這里提及這個概念,是希望各位 AI 技術(shù)專家能夠在職業(yè)規(guī)劃當(dāng)中予以關(guān)注——例如對于希望成為人工智能軟件架構(gòu)師或者技術(shù)領(lǐng)導(dǎo)者的朋友,您將能夠借此確定自己需要學(xué)習(xí)哪些知識。


 語音類應(yīng)用


人工智能能夠以高于 95% 的精確度解決的問題其實(shí)非常有限:我們可以將圖像歸類為 100 種類別、可以判斷文本內(nèi)容屬于正面還是負(fù)面,此外還有少數(shù)更為復(fù)雜的可行任務(wù)。展望新的一年,我認(rèn)為最具突破的應(yīng)用方向在于語音識別與生成。事實(shí)上,一年之前 DeepMind 發(fā)布的 WaveNet 已經(jīng)擁有相當(dāng)出色的表現(xiàn),但現(xiàn)在感謝百度 DeepVoice 3 以及谷歌 Tacotron2 的助力,上述結(jié)論已經(jīng)基本成為板上釘釘?shù)氖聦?shí):Tacotron 2: 立足文本生成逼真的人類語音


數(shù)十年以來,技術(shù)人員們一直在努力研究如何立足文本生成自然的人類語音(即文本到語音,簡稱 TTS 技術(shù))……


https://research.googleblog.com/2017/12/tacotron-2-generating-human-like-speech.html


這項(xiàng)技術(shù)將很快擁有自己的開源版本(或者被其他一些技術(shù)天才所重現(xiàn)),意味著未來每個人都能夠以極高的精度實(shí)現(xiàn)語音識別與生成。那么接下來的前景如何?毫無疑問,除了更出色的個人虛擬助手、自動閱讀器以及對話轉(zhuǎn)錄工具之外,音頻偽造也將成為現(xiàn)實(shí)。


 機(jī)器人智能水平略有提高


我們目前所擁有的機(jī)器人存在著一大共通性問題——其中 99% 根本不屬于人工智能,而只是硬編碼型方案。考慮到這樣的情況,我們意識到已經(jīng)不能簡單利用數(shù)百萬次對話訓(xùn)練編碼器 - 解碼器 LSTM,并指望能夠借此建立起智能系統(tǒng)。正因?yàn)槿绱耍現(xiàn)acebook Messenger 與 Telegram 中的大多數(shù)聊天機(jī)器人只能遵循硬編碼命令,或者最多只能算是具備 LSTM 與 word2vec 語句分類能力的神經(jīng)網(wǎng)絡(luò)。現(xiàn)代先進(jìn)自然語言處理技術(shù)的實(shí)際水平應(yīng)該略高于此,Salesforce 公司做出的一些有趣實(shí)驗(yàn)已經(jīng)證明了這一點(diǎn):


AI 研究 - Salesforce.com


他們正在著手構(gòu)建自然語言處理與數(shù)據(jù)庫的接口,希望借此克服現(xiàn)代編碼器 - 解碼器自回歸模型——即不僅能夠?qū)ξ淖只蚓渥舆M(jìn)行嵌入,同時還可實(shí)現(xiàn)字符嵌入。此外,ROUGE 等自然語言評分優(yōu)化機(jī)制等研究成果同樣值得關(guān)注。


我相信通過上述開發(fā)工作,未來我們的聊天機(jī)器人至少能夠獲得更強(qiáng)大的智能信息檢索與命名實(shí)體識別能力,并可能會在一部分封閉領(lǐng)域當(dāng)中出現(xiàn)完全由深度學(xué)習(xí)技術(shù)驅(qū)動的機(jī)器人方案。


時序分析的當(dāng)前發(fā)展水平


除了 Salesforce 之外,另一股遭受嚴(yán)重低估的機(jī)器學(xué)習(xí)研究力量當(dāng)數(shù)優(yōu)步 AI 實(shí)驗(yàn)室。前一段時間,他們曾發(fā)表一篇博文,其中展示了其時序預(yù)測方法。老實(shí)講,這實(shí)在令我感到受寵若驚——因?yàn)槠涑晒c我在應(yīng)用當(dāng)中使用的方法基本相同!下面來看這一將統(tǒng)計(jì)特征與深度學(xué)習(xí)表達(dá)加以結(jié)合的驚人示例:


優(yōu)步公司利用遞歸神經(jīng)網(wǎng)絡(luò)預(yù)測極端性工程事件在優(yōu)步公司,事件預(yù)測能力允許我們根據(jù)預(yù)期中的用戶需求設(shè)計(jì)面向未來的服務(wù)方案。


https://eng.uber.com/neural-networks/


此外還出現(xiàn)了其它更激動人心的實(shí)例,包括利用 34 層 1 維 ResNet 診斷心律失常。最酷的是其擁有非常出色的成效——不僅遠(yuǎn)超多種傳統(tǒng)統(tǒng)計(jì)模型,甚至在診斷率方面勝過了專業(yè)心臟病專家!算法診斷心律失常疾病,準(zhǔn)確度超越心臟病專家|斯坦福新聞由斯坦福大學(xué)計(jì)算機(jī)科學(xué)家們發(fā)明的一種新算法能夠?qū)π穆蓴?shù)據(jù)進(jìn)行篩選……


https://news.stanford.edu/2017/07/06/algorithm-diagnoses-heart-arrhythmiascardiologist-level-accuracy/


我最近一直投身于深度學(xué)習(xí)的時序分析工作當(dāng)中,并可以向大家保證神經(jīng)網(wǎng)絡(luò)在這方面確實(shí)表現(xiàn)良好。與傳統(tǒng)的“黃金標(biāo)準(zhǔn)”相比,其成效可達(dá)到原有水平的 5 到 10 倍。


 優(yōu)化應(yīng)當(dāng)獲得更多關(guān)注


我們該如何對自己的神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練?實(shí)事求是地講,大多數(shù)從業(yè)者只是在使用“Adam()”以及標(biāo)準(zhǔn)學(xué)習(xí)率。也有一些聰明的從業(yè)者會選擇最適合的優(yōu)化器,同時調(diào)整并安排其學(xué)習(xí)速度。然而,大多數(shù)朋友對于優(yōu)化這個主題仍然重視不足,因?yàn)槲覀兞?xí)慣于直接按下“訓(xùn)練”按鈕,并靜待自己的神經(jīng)網(wǎng)絡(luò)收斂完成。但從計(jì)算能力、內(nèi)存資源以及開源代碼解決方案等層面來看,我們實(shí)際上基本處于公平的競爭環(huán)境當(dāng)中——最終的贏家屬于那些能夠立足同一 Amazon 實(shí)例在最短時間內(nèi)獲得最佳 TensorFlow 模型成效的技術(shù)人員。從這個角度來看,決定一切的實(shí)際上正是優(yōu)化。


2017 年深度學(xué)習(xí)優(yōu)化大事記


目錄:深度學(xué)習(xí)的終極目標(biāo)在于找出最低程度的概括方法……


http://ruder.io/deep-learning-optimization-2017/index.html


在這里,我建議大家參閱 Sebastian 的 Ruder 博文,其中談到了 2017 年內(nèi)新近出現(xiàn)的、能夠?qū)?biāo)準(zhǔn)優(yōu)化器加以改進(jìn)的簡單方法,外加其它一些輕松易行的強(qiáng)化手段。


炒作態(tài)勢有所降溫



談到這里,我們能夠從以上圖片當(dāng)中得到怎樣的啟示?很明顯,開發(fā)出有價值的新方案并借此獲利絕非易事,特別是考慮到目前正有大量開源工具與算法被持續(xù)發(fā)布出來。我認(rèn)為 2018 年對于 Prisma 這樣的初創(chuàng)企業(yè)可能不會太友好——畢竟這個世界永遠(yuǎn)不缺少競爭對手與“技術(shù)天才”。他們完全可以將如今的開源網(wǎng)絡(luò)部署在移動應(yīng)用當(dāng)中,并借此建立自己的商業(yè)企業(yè)。


在新的一年中,我們必須專注于更為基礎(chǔ)的技術(shù)研發(fā)——而非一味追求快錢。即使大家只是打算利用谷歌 Ratacon 語音識別技術(shù)生成語音讀物,也絕對不能僅僅將其視為簡單的 Web 服務(wù)——相反,良好的合作伙伴與商業(yè)模式將成為您獲得投資的必要前提。


總結(jié)


總結(jié)起來,我們目前已經(jīng)擁有多種可以應(yīng)用于實(shí)際產(chǎn)品的技術(shù)成果,具體包括時序分析、GAN、語音識別以及自然語言處理技術(shù)方面的改進(jìn)等。我們不必再針對分類或者回歸等目標(biāo)自己設(shè)計(jì)基礎(chǔ)架構(gòu),因?yàn)?AutoML 已經(jīng)能夠幫助我們完成這些任務(wù),希望在經(jīng)過進(jìn)一步優(yōu)化之后,AutoML 能夠在速度方面更上一層樓。而在 ONNX 與模型 Zoo 的幫助下,我們將能夠輕松將基礎(chǔ)模型引入自己的應(yīng)用程序當(dāng)中。在我看來,至少就目前的最新發(fā)展水平而言,這將顯著簡化基于 AI 類應(yīng)用程序的開發(fā)難度。


未來智能實(shí)驗(yàn)室是人工智能學(xué)家與科學(xué)院相關(guān)機(jī)構(gòu)聯(lián)合成立的人工智能,互聯(lián)網(wǎng)和腦科學(xué)交叉研究機(jī)構(gòu)。由互聯(lián)網(wǎng)進(jìn)化論作者,計(jì)算機(jī)博士劉鋒與中國科學(xué)院虛擬經(jīng)濟(jì)與數(shù)據(jù)科學(xué)研究中心石勇、劉穎教授創(chuàng)建。


未來智能實(shí)驗(yàn)室的主要工作包括:建立AI智能系統(tǒng)智商評測體系,開展世界人工智能智商評測;開展互聯(lián)網(wǎng)(城市)云腦研究計(jì)劃,構(gòu)建互聯(lián)網(wǎng)(城市)云腦技術(shù)和企業(yè)圖譜,為提升企業(yè),行業(yè)與城市的智能水平服務(wù)。

本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點(diǎn)擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
人工智能技術(shù)飛速發(fā)展:因循守舊你可能就會失敗
英特爾®人工智能大會2018
AI時代,我們在金融投資方面做了這些嘗試…
數(shù)據(jù)升維深挖信息價值,神經(jīng)網(wǎng)絡(luò)賦能AI決策
如何結(jié)合AI找到商業(yè)價值?
寫給新人數(shù)據(jù)挖掘基礎(chǔ)知識介紹
更多類似文章 >>
生活服務(wù)
熱點(diǎn)新聞
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服