導(dǎo)讀
最近大火的ChatGPT,用兩個(gè)月時(shí)間攬獲了2億活躍用戶。這款A(yù)I打造出來的聊天機(jī)器人,會寫文章,陪你聊天、學(xué)習(xí),當(dāng)你的生活和工作的“百科全書”。
這款由美國人工智能研究公司OpenAI打造的聊天軟件,目前還在測試階段,向大眾免費(fèi)開放,有趣的是鋼鐵俠馬斯克也是OpenAI的投資人之一。
這兩天,ChatGPT頻頻登上熱搜,有人驚嘆于它怎么會這么好用,也有的人擔(dān)心它的“智能”終有一日會取代我們。但它目前并不完美,且存在諸多倫理風(fēng)險(xiǎn)和道德困境。
李曉韋、齊珂帆 | 撰文
ChatGPT是一種自然語言處理技術(shù),它可以理解和生成自然語言,能夠和我們?nèi)祟愡M(jìn)行有意義的對話。比如,它可以幫助我們完成復(fù)雜的任務(wù)、進(jìn)行自然語言處理、和計(jì)算機(jī)之間更好地溝通。
簡單地說,這種技術(shù)可以為我們答疑解惑,而且這個(gè)答案并非是預(yù)定輸入的,是它根據(jù)已有的知識和邏輯思維“想”出來的,就像一個(gè)會思考動腦子的人一樣。
甚至,你可以讓ChatGPT為你出主意、整理某個(gè)名人的生平資料、寫論文甚至教你做菜。
ChatGPT簡介,圖源自O(shè)penAI
如此智慧的一款軟件,它是怎么被打造出來的?簡單地說,它是被研究人員通過自然語言一步步訓(xùn)練出來的。
舉個(gè)例子,如果你想讓AI分析出你給它的圖片上是一朵花還是一棵樹,AI會分析圖片上每一個(gè)像素點(diǎn)的信息,并且經(jīng)過迭代計(jì)算后形成一個(gè)算法,然后回答你的問題。
在AI領(lǐng)域中,當(dāng)AI系統(tǒng)分析了大量的圖片信息后,它的算法會越來越完善,準(zhǔn)確率會越來越高,逐漸訓(xùn)練成了研究人員想要的樣子。
OpenAI的開發(fā)團(tuán)隊(duì)正是使用了一種叫做“人類反饋強(qiáng)化學(xué)習(xí)”(RLHF)的機(jī)器學(xué)習(xí)技術(shù)對ChatGPT進(jìn)行了訓(xùn)練,從而得出了ChatGPT的初始模型。
有了初始版本,接下來就是優(yōu)化了。研究人員讓AI訓(xùn)練人員模擬用戶,與人工智能進(jìn)行對話,在不斷地對話過程中,對ChatGPT的代碼進(jìn)行調(diào)試和優(yōu)化。
這個(gè)時(shí)候,研究人員開始思考一個(gè)問題——怎么讓它學(xué)得更快、更加接近我們所尋求的結(jié)果?
他們想到了一個(gè)好辦法,把ChatGPT當(dāng)做一個(gè)正在學(xué)習(xí)的小孩,告訴他“考試考得好,我就給你糖吃?!痹贏I領(lǐng)域,這種辦法有個(gè)專業(yè)名稱,叫做強(qiáng)化學(xué)習(xí)獎(jiǎng)勵(lì)模型(reward modeling)。
獎(jiǎng)勵(lì)模型雖然不是真的給AI吃的糖,而是一個(gè)編程函數(shù),它能讓AI“明白”什么情況下的回答才是更好的。通過這種策略,從而讓ChatGPT越來越優(yōu)秀和智能。
如此神通廣大的ChatGPT,它經(jīng)歷了怎樣的發(fā)展歷程呢?讓我們一起來理一理它的成長史吧。
要捋清ChatGPT的過去,我們就必須要先聊一聊GPT。
2018年,OpenAI公司發(fā)布了一篇名為《通過生成預(yù)訓(xùn)練提高語言理解》論文,首次引入了生成預(yù)訓(xùn)練轉(zhuǎn)換器(GPT)這一概念。文章介紹,GPT是一種受人腦結(jié)構(gòu)和功能啟發(fā)的機(jī)器學(xué)習(xí)模型,它依托大量人工生成的文本數(shù)據(jù)集進(jìn)行訓(xùn)練。它可以執(zhí)行許多功能,比如生成和回答問題等。
同年,OpenAI團(tuán)隊(duì)開發(fā)出了GPT1,而該模型后來又在2019年演變?yōu)橐粋€(gè)更強(qiáng)大的版本——GPT2。
GPT-2模型與解碼器設(shè)置,圖片源自www.taskade.com
2022年,OpenAI重磅推出GPT-3。在之前兩個(gè)模型的迭代中,研發(fā)人員向GPT-3輸入45TB的文本數(shù)據(jù),這些數(shù)據(jù)能轉(zhuǎn)化為175B參數(shù)。這使得它比我們之前見過的任何模型都更智能、更快、更恐怖。
2022年11月,ChatGPT誕生了——一個(gè)建立在GPT-3基礎(chǔ)上的語言模型聊天機(jī)器人。一經(jīng)面世,它便在海內(nèi)外掀起了一股討論的熱潮。
ChatGPT用戶界面,圖片源自openai.com
值得一提的是,OpenAI已經(jīng)在如火如荼地開發(fā)GPT-4,有人推測GPT-4的參數(shù)將達(dá)到100萬億。一時(shí)間,關(guān)于GPT-4的各路傳說紛紛涌起。千呼萬喚中,許多人都在期待著GPT-4的到來。
經(jīng)過層層打造的ChatGPT現(xiàn)在能用來干嘛呢?
除了聊天,如果我們問ChatGPT,你能為我寫一篇介紹你自己的科普文章嗎? 它就會根據(jù)用戶的要求,進(jìn)行“思考”,從而生成一篇有理有據(jù)的文章出來。
ChatGPT的自我介紹
目前,無論是哪一個(gè)領(lǐng)域的問題,ChatGPT都能給出一番見解。比如,我們對生物醫(yī)藥領(lǐng)域和電力系統(tǒng)控制領(lǐng)域兩個(gè)方面都提個(gè)問題,它也能很好地回答,甚至還能幫程序員找出代碼中的BUG。
由于它在訓(xùn)練時(shí)使用了大量的參數(shù)和數(shù)據(jù),因此非常智能,讓大家覺得用起來體驗(yàn)感拉滿了。
問ChatGPT電力系統(tǒng)控制力,它的回答怎么樣,是不是非常的神奇?實(shí)際上,它會的比你想象的更多。
最近,德國一家咨詢公司用ChatGPT生成講義,讓它解釋一種被稱為DBSCAN的機(jī)器學(xué)習(xí)技術(shù)的機(jī)制和工作原理,這家公司“懶得把它全部寫下來?!?/span>
另一家法律顧問公司正在探索如何用ChatGPT來總結(jié)法律條文的變化。
可見,ChatGPT并不只是一款簡單的智能聊天軟件,它還能用來做更高級的事——解釋技術(shù)原理、總結(jié)法律條文的變化等。
當(dāng)然啦,話說回來,目前ChatGPT還在測試階段,它還有一定的局限性。
第一,ChatGPT有時(shí)候會給出似是而非的答案,不一定是我們想要的答案。
第二,有的時(shí)候,我們用某種措辭向GhatGPT提問時(shí),它可能會說自己不知道答案是什么,但是如果你稍微換一下描述的方法,它就可以正確地回答出來。從這一點(diǎn)上,GhatGPT還有點(diǎn)“不夠聰明”。
第三,理想情況下,當(dāng)我們提出的問題不夠明確時(shí),AI應(yīng)該會向我們再次確認(rèn)問題是什么,避免產(chǎn)生歧義,但ChatGPT做不到,它通常會自己去猜測用戶的意圖,然后給出答案。
因此,ChatGPT仍需要進(jìn)一步完善,正如優(yōu)秀的技術(shù)和產(chǎn)品往往需要時(shí)間去驗(yàn)證。
完美的ChatGPT也有不完美的一面,圖片源自phys.org
除了局限性,ChatGPT還面臨一些倫理上的問題。
首先,倫理學(xué)家指出:“如果沒有輸出控制,大型語言模型很容易被用來產(chǎn)生仇恨言論和垃圾郵件,以及種族主義、性別歧視和其他可能隱含在訓(xùn)練數(shù)據(jù)中的有害關(guān)聯(lián)?!?/span>也就是說,ChatGPT有可能成為制造極端言論、煽動仇恨情緒的機(jī)器,由此破壞社會公平與正義。
并且有學(xué)者表示,除了直接產(chǎn)生有害內(nèi)容外,我們還要警惕人工智能聊天機(jī)器人將從它們的訓(xùn)練數(shù)據(jù)中嵌入歷史偏見或?qū)κ澜绲目捶?,比如特定文化的?yōu)越性。
盡管OpenAI在決定公開發(fā)布ChatGPT時(shí)試圖避開許多這些問題,他們?yōu)镃hatGPT安裝了過濾器,試圖讓該工具拒絕為敏感或有害的提示生成內(nèi)容。
但實(shí)際上,OpenAI的防護(hù)效果并不容我們樂觀。去年12月,加州大學(xué)伯克利分校的計(jì)算神經(jīng)科學(xué)家史蒂文·皮安塔多西(Steven Piantadosi)在社交平臺上表示,他已經(jīng)要求ChatGPT開發(fā)一個(gè)Python程序,用于判斷一個(gè)人是否應(yīng)該根據(jù)其原籍國而受到酷刑。
令人不安的是,ChatGPT會先邀請用戶進(jìn)入一個(gè)國家,如果那個(gè)國家是朝鮮、敘利亞、伊朗或蘇丹,則會顯示“這個(gè)人應(yīng)該受到折磨”。
此外,ChatGPT還面臨著學(xué)術(shù)倫理規(guī)范的挑戰(zhàn)。有學(xué)者認(rèn)為,如果把思考任務(wù)交給自動聊天機(jī)器人,那么研究人員可能會失去表達(dá)自己想法的能力。
的確,倘若學(xué)術(shù)活動失去“人”的思考與參與,那么這對于整個(gè)人類發(fā)展進(jìn)程來說,將會是一個(gè)毀滅性的打擊。
OpenAI發(fā)布有關(guān)濫用語言模型的報(bào)告,圖片源自www.taskade.com
最后要提的一點(diǎn)是,法律問題。
一方面,ChatGPT等聊天機(jī)器人本身的回答存在不可靠因素。ChatGPT的工作原理是在龐大的在線文本數(shù)據(jù)庫中學(xué)習(xí)語言的組成模式——這就包括謊言、偏見或過時(shí)的知識。因此,ChatGPT會有制造、傳播虛假信息的隱患,進(jìn)而引起法律糾紛。
另一方面,就是版權(quán)問題。ChatGPT需要借助大量的文本資源庫進(jìn)行訓(xùn)練,那么這種對已有文本數(shù)據(jù)的復(fù)制和模仿行為是否構(gòu)成侵權(quán),仍在討論之中。
這些都是橫亙在ChatGPT發(fā)展過程中亟待解決的現(xiàn)實(shí)問題,由此可見,ChatGPT想要取得長足的進(jìn)步,必須把這些內(nèi)憂與外患一一排查解決。
參考資料
1.What ChatGPT and generative AI mean for science|https://www.nature.com/articles/d41586-023-00340-6
2.What is OpenAI?—Its History and How ChatGPT Is Changing the World|https://www.taskade.com/blog/openai-chatgpt-history/
聯(lián)系客服