九色国产,午夜在线视频,新黄色网址,九九色综合,天天做夜夜做久久做狠狠,天天躁夜夜躁狠狠躁2021a,久久不卡一区二区三区

打開(kāi)APP
userphoto
未登錄

開(kāi)通VIP,暢享免費(fèi)電子書(shū)等14項(xiàng)超值服

開(kāi)通VIP
萬(wàn)字長(zhǎng)文:LLM - 大語(yǔ)言模型發(fā)展簡(jiǎn)史

Large Language Model(LLM)是一種基于深度學(xué)習(xí)的自然語(yǔ)言處理模型,它能夠?qū)W習(xí)到自然語(yǔ)言的語(yǔ)法和語(yǔ)義,從而可以生成人類(lèi)可讀的文本。LLM 通?;谏窠?jīng)網(wǎng)絡(luò)模型,使用大規(guī)模的語(yǔ)料庫(kù)進(jìn)行訓(xùn)練,比如使用互聯(lián)網(wǎng)上的海量文本數(shù)據(jù)。這些模型通常擁有數(shù)十億到數(shù)萬(wàn)億個(gè)參數(shù),能夠處理各種自然語(yǔ)言處理任務(wù),如自然語(yǔ)言生成、文本分類(lèi)、文本摘要、機(jī)器翻譯、語(yǔ)音識(shí)別等。

“l(fā)arge language model” — Image Creator[1] powered by DALL·E

2020 年 OpenAI 發(fā)布 GPT-3[2],大型語(yǔ)言模型(LLM)自此在流行度上一直保持穩(wěn)定的增長(zhǎng)。

直到 2022 年 11 月份,隨著 ChatGPT 發(fā)布[3],LLM 和生成式人工智能的整個(gè)領(lǐng)域的興趣飆升。這些原因可能是 LLM 領(lǐng)域持續(xù)向前邁進(jìn)的重大進(jìn)展所致。

從谷歌 LaMDA 聊天機(jī)器人的驚人新聞(Blake Lemoine Says Google's LaMDA AI Faces 'Bigotry'[4]),首個(gè)高性能的開(kāi)源 LLM BLOOM[5] 發(fā)布,再到后來(lái) OpenAI 接連發(fā)布 ChatGPT Plus[6]、ChatGPT 和 Whisper API[7]、ChatGPT 插件[8] 和 GPT-4[9] 等等,不斷將 AI 推向高潮。

BLOOM[10]:是一種自回歸的大型語(yǔ)言模型 (LLM),使用工業(yè)級(jí)計(jì)算資源在大量文本數(shù)據(jù)上訓(xùn)練,能夠在 46 種語(yǔ)言和 13 種編程語(yǔ)言中輸出幾乎無(wú)法與人類(lèi)寫(xiě)作的文本相區(qū)分的連貫文本。BLOOM 還可以通過(guò)將其作為文本生成任務(wù)來(lái)執(zhí)行它沒(méi)有明確訓(xùn)練過(guò)的文本任務(wù)。

AI 應(yīng)用也在爆炸式增長(zhǎng)中,每天睜開(kāi)眼睛都會(huì)出現(xiàn)一大堆新產(chǎn)品,許多網(wǎng)友表示學(xué)不動(dòng)了。例如:微軟發(fā)布了《AI 全家桶:Microsoft 365 Copilot》,New Bing,GitHub Copilot X[11],Google Bard[12]、Adobe Firefly[13]...(此處省略許多) 等一系列 AI 產(chǎn)品。

下面就來(lái)盤(pán)點(diǎn)一下近期 LLM 開(kāi)源生態(tài)發(fā)生的一系列事件(注意:以下這些整理僅限個(gè)人了解,并非全部)。

GPT 生態(tài)

DeepSpeed

DeepSpeed[14]: 是一個(gè)深度學(xué)習(xí)優(yōu)化庫(kù),它使分布式訓(xùn)練和推理變得簡(jiǎn)單、高效和有效。一鍵式 RLHF 訓(xùn)練,讓你的類(lèi) ChatGPT 千億大模型提速省錢(qián) 15 倍。說(shuō)人話就是:自己本地可以訓(xùn)練部署類(lèi) ChatGPT 模型,既高效又省錢(qián)。(了解更多《DeepSpeed Chat:一鍵搞定不同規(guī)模 ChatGPT 類(lèi)模型訓(xùn)練!》)

MiniGPT-4

論文:

MiniGPT-4: Enhancing Vision-Language Understanding with Advanced Large Language Models[15]

Plug-and-Play VQA: Zero-shot VQA by Conjoining Large Pretrained Models with Zero Training[16]

Flamingo: a Visual Language Model for Few-Shot Learning[17]

GitHub:Vision-CAIR/MiniGPT-4[18]

模型:Vision-CAIR/MiniGPT-4[19]

數(shù)據(jù)集:Vision-CAIR/cc_sbu_align[20]

在線體驗(yàn):Minigpt-4[21]

MiniGPT-4 是由一個(gè)包含預(yù)訓(xùn)練 ViT 和 Q-Former[22] 的視覺(jué)編碼器,一個(gè)線性投影層和一個(gè)先進(jìn)的 Vicuna 大型語(yǔ)言模型組成的。MiniGPT-4 只需要訓(xùn)練線性層,以將視覺(jué)特征與 Vicuna 對(duì)齊。(了解更多《多模態(tài) MiniGPT-4 開(kāi)源了!》)

minGPT

minGPT[23] 是 GPT[24] 的 PyTorch 重實(shí)現(xiàn),包括訓(xùn)練和推理。minGPT 試圖做到小型、清晰、易于解釋和教育性,因?yàn)楫?dāng)前大多數(shù)可用的 GPT 模型實(shí)現(xiàn)都有點(diǎn)冗長(zhǎng)。GPT 并不是一個(gè)復(fù)雜的模型,這個(gè)實(shí)現(xiàn)只有大約 300 行代碼(見(jiàn) mingpt/model.py[25])。它的主要功能是將一系列索引輸入到 Transformer[26] 中,并輸出下一個(gè)索引在序列中的概率分布。大部分復(fù)雜性只是為了有效率地進(jìn)行批處理(跨示例和序列長(zhǎng)度)。

nanoGPT

nanoGPT[27] 是一個(gè)訓(xùn)練/微調(diào)中型 GPTs 的最簡(jiǎn)單、最快速的存儲(chǔ)庫(kù)。它是 minGPT 的重寫(xiě)。minGPT 被廣泛引用于各種場(chǎng)合(筆記本、博客、課程、書(shū)籍等),這使得作者不太愿意對(duì)代碼進(jìn)行更大的變化。nanoGPT 將 minGPT 從單純的教育重點(diǎn)轉(zhuǎn)向一些具有實(shí)際應(yīng)用性的方向(可以重現(xiàn)中型工業(yè)基準(zhǔn)、接受一些權(quán)衡以獲得運(yùn)行時(shí)效率等)。

GPT4Free

注意:此項(xiàng)目?jī)H供學(xué)習(xí)研究,大概率涉及 OpenAI 侵權(quán),請(qǐng)謹(jǐn)慎使用。

GPT4Free[28] 致力于幫助你釋放 ChatGPT 的全部潛力!是否已經(jīng)厭倦了遇到需要 OpenAI API 密鑰的令人難以置信的項(xiàng)目,但最終因?yàn)闆](méi)有密鑰而感到失望?那么你可以試試此項(xiàng)目!項(xiàng)目提供了第三方 GPT-4/3.5 API 的反向工程版本,這些版本來(lái)自各個(gè)網(wǎng)站,讓你可以在沒(méi)有任何障礙(項(xiàng)目提供的可使用模塊,其設(shè)計(jì)就像 OpenAI 官方包一樣)的情況下開(kāi)始你的項(xiàng)目。

AutoGPT

Auto-GPT[29] 是一個(gè)實(shí)驗(yàn)性的開(kāi)源應(yīng)用程序,展示了 GPT-4 語(yǔ)言模型的能力。由 GPT-4 驅(qū)動(dòng),將大語(yǔ)言模型(LLM)的'思考'鏈接在一起,以自主地實(shí)現(xiàn)你設(shè)定的任何目標(biāo)。作為 GPT-4 完全自主運(yùn)行的最早的例子之一,Auto-GPT 推動(dòng)了人工智能所能實(shí)現(xiàn)的界限。

簡(jiǎn)單來(lái)說(shuō):當(dāng)你告訴 AutoGPT 最終目標(biāo)是什么,它將自行生成并完成每一步任務(wù)所需的提示,直到返回最終的結(jié)果(在這期間它會(huì)調(diào)用網(wǎng)絡(luò)和 GPT-4)。但 AutoGPT 之所以流行,是因?yàn)槿藗儗?duì)它能做什么以及它對(duì)未來(lái)可能意味著什么著迷。AutoGPT 通過(guò)自己的推理達(dá)到目標(biāo)的能力與人類(lèi)的思考行為,處理信息的方式極其相似。

AgentGPT

AgentGPT[30] 允許你配置和部署自主 AI 代理。為自己的定制 AI 命名,并讓它開(kāi)始實(shí)現(xiàn)任何想象的目標(biāo)。它將通過(guò)思考要做的任務(wù)、執(zhí)行它們并從結(jié)果中學(xué)習(xí)來(lái)嘗試達(dá)到目標(biāo) 。與 AutoGPT 類(lèi)似,但它是網(wǎng)頁(yè)版。

AudioGPT

論文:AudioGPT: Understanding and Generating Speech, Music, Sound, and Talking Head[31]GitHub:AIGC-Audio/AudioGPT[32]體驗(yàn)地址:AudioGPT Demo[33]

AudioGPT 理解和生成語(yǔ)音、音樂(lè)、聲音和語(yǔ)音頭像。

DocsGPT

DocsGPT[34] 是一種先進(jìn)的開(kāi)源解決方案,簡(jiǎn)化了在項(xiàng)目文檔中查找信息的流程。它集成了強(qiáng)大的 GPT 模型,使開(kāi)發(fā)人員可以輕松地提出問(wèn)題,并獲得準(zhǔn)確的答案。告別耗時(shí)的手動(dòng)搜索,讓 DocsGPT 幫助你快速找到所需的信息。

逆向工程

acheong08/ChatGPT[35] 是 OpenAI ChatGPT API 的逆向工程,可擴(kuò)展為聊天機(jī)器人等。

acheong08/EdgeGPT[36] 是微軟 Bing Chat AI API 的逆向工程。

LLaMA 生態(tài)

LLaMA 基礎(chǔ)模型在 2023 年 2 月發(fā)布。到目前已經(jīng)有幾個(gè)新的經(jīng)過(guò)微調(diào)的 LLaMA 模型發(fā)布。

雖然時(shí)間不長(zhǎng),但已經(jīng)發(fā)生了很多事情。本節(jié)(在 A brief history of LLaMA models[37] 基礎(chǔ)上,對(duì)內(nèi)容進(jìn)行補(bǔ)充)主要涵蓋一些模型的發(fā)展,并簡(jiǎn)要涉及一些工具:

LLaMA 基礎(chǔ)模型

Alpaca 模型

Vicuna 模型

Koala 模型

GPT4-x-Alpaca 模型

WizardLM 模型

OpenAssistant 模型

用于在本地運(yùn)行 LLaMA 模型的軟件,主要有以下這些:

ModelLLaMA (base model)

Size7B, 13B, 33B, 65B

Training dataVarious

ModelAlpaca

Size7B, 13B

Training data52k GPT-3 instructions

ModelVicuna

Size7B, 13B

Training data70k ChatGPT conversations

ModelKoala-distill

Size7B, 13B

Training data117k cleaned ChatGPT conversations

ModelGPT4-x-Alpaca

Size13B

Training data20k GPT4 instructions

ModelWizardML

Size7B

Training data70k instructions synthesized with ChatGPT/GPT-3

ModelOpenAssistant LLaMA

Size13B, 30B

Training data600k human interactions (OpenAssistant Conversations)

LLaMA 基礎(chǔ)模型

論文:LLaMA: Open and Efficient Foundation Language Models[38]

Blog:Introducing LLaMA: A foundational, 65-billion-parameter large language model[39]

GitHub:facebookresearch/LLaMA[40]

發(fā)布日期:2023 年 2 月

LLaMA(Large Language Model Meta AI)是由 Meta(Facebook)發(fā)布的一種語(yǔ)言模型。它是 Meta 對(duì) OpenAI 的 GPT 模型的回應(yīng)。與 GPT 一樣,LLaMA 旨在成為適合進(jìn)一步微調(diào)的通用基礎(chǔ)模型。LLaMA 模型具有以下變體:

7B 個(gè)參數(shù)

13B 個(gè)參數(shù)

33B 個(gè)參數(shù)

65B 個(gè)參數(shù)

注意:參數(shù)越多,模型越強(qiáng)大,但運(yùn)行時(shí)也需要更多的資源。

可訪問(wèn)性

與 GPT 不同,LLaMA 是一種開(kāi)源模型。你可以下載、學(xué)習(xí)并在本地運(yùn)行它們。要嘗試它們,需填寫(xiě) Google 表單申請(qǐng)[41]。

然而,這些模型在 2023 年 3 月泄露到 Torrent 上,距離它們發(fā)布不到一個(gè)月(了解更多 Facebook LLAMA is being openly distributed via torrents[42])。

Torrent:是一種點(diǎn)對(duì)點(diǎn)(Peer-to-Peer,P2P)文件共享協(xié)議,用于在多個(gè)計(jì)算機(jī)之間共享大型文件,例如電影、音樂(lè)、軟件等。與傳統(tǒng)的文件下載方式不同,Torrent 使用一種分布式的下載方法,將文件劃分成許多小塊,然后由不同的用戶在網(wǎng)絡(luò)上共享這些塊。這使得下載速度更快,同時(shí)也可以減輕單個(gè)服務(wù)器的負(fù)擔(dān)。為了使用 Torrent 協(xié)議,用戶需要安裝一個(gè) Torrent 客戶端程序,例如 qBittorrent[43]、uTorrent[44] 等。然后,用戶可以通過(guò) Torrent 網(wǎng)站或種子(.torrent)文件來(lái)獲取所需的文件,然后使用 Torrent 客戶端來(lái)下載它們。

目標(biāo)

LLaMA 的目標(biāo)是構(gòu)建適合給定推理預(yù)算(例如,在 NVIDIA 3090[45] 上使用少于 10GB VRAM)的最佳性能模型。

NVIDIA 3090:GeForce RTX? 3090 Ti 和 3090 由 Ampere(NVIDIA 的第二代 RTX 架構(gòu))提供支持。它們具有專(zhuān)用的第二代 RT 核心和第三代 Tensor 核心、流式多處理器以及驚人的 24 GB G6X 內(nèi)存,為玩家和創(chuàng)作者提供高質(zhì)量的性能。

VRAM(Video random-access memory):是一種計(jì)算機(jī)內(nèi)存類(lèi)型,用于存儲(chǔ)圖像、視頻等視覺(jué)內(nèi)容的數(shù)據(jù),通常是在顯卡中使用。它是一種專(zhuān)門(mén)為圖形處理而設(shè)計(jì)的高速 RAM,可以快速地讀取和寫(xiě)入大量的圖形數(shù)據(jù)。顯卡的性能和可用內(nèi)存大小直接影響著計(jì)算機(jī)的圖形處理能力和性能。在機(jī)器學(xué)習(xí)中,VRAM 的大小也是一個(gè)重要的考慮因素,因?yàn)榇笮湍P托枰罅康膬?nèi)存來(lái)進(jìn)行訓(xùn)練和推理。

模型架構(gòu)

LLaMA 是一種 Transformer 模型,類(lèi)似于 GPT,具有以下修改:

規(guī)范化每個(gè)變壓器子層的輸入,以提高訓(xùn)練穩(wěn)定性

使用 SwiGLU 代替 ReLU 以提高性能

使用旋轉(zhuǎn)嵌入而不是絕對(duì)位置以提高性能

下表總結(jié)了模型參數(shù)(作為參考:GPT-3 有 175B 個(gè)參數(shù), LLaMA 模型則很?。?/p>

7B

Parameters6.7B

Layers32

Attention heads32

Embedding dimension4,096

13B

Parameters13B

Layers40

Attention heads40

Embedding dimension5,120

33B

Parameters33B

Layers60

Attention heads52

Embedding dimension6,656

65B

Parameters65B

Layers80

Attention heads64

Embedding dimension8,192

Transformer 模型:

是一種基于注意力機(jī)制(attention mechanism)的神經(jīng)網(wǎng)絡(luò)模型,用于自然語(yǔ)言處理和其他序列數(shù)據(jù)任務(wù)。Transformer 模型最早由 Google 在 2017 年提出(Transformer: A Novel Neural Network Architecture for Language Understanding[46]),被應(yīng)用于機(jī)器翻譯任務(wù),并在各種自然語(yǔ)言處理任務(wù)中取得了優(yōu)秀的表現(xiàn)。

與傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,RNN)模型不同,Transformer 模型使用了全新的架構(gòu),即自注意力機(jī)制。自注意力機(jī)制可以使模型對(duì)輸入序列的不同位置進(jìn)行加權(quán),從而更好地捕捉輸入序列之間的依賴(lài)關(guān)系,使模型在處理長(zhǎng)序列時(shí)更加高效和準(zhǔn)確。Transformer 模型通常由編碼器和解碼器兩部分組成,可以用于各種序列到序列的任務(wù),如機(jī)器翻譯、文本摘要、對(duì)話生成等。

訓(xùn)練

LLaMA 的預(yù)訓(xùn)練數(shù)據(jù)包括:

英語(yǔ) CommonCrawl[47](占 67%):移除非英語(yǔ)文本和重復(fù)內(nèi)容,僅包括用作維基百科參考的頁(yè)面

C4[48](占 15%):一個(gè)經(jīng)過(guò)清理的 CommonCrawl 版本,應(yīng)用了同樣的過(guò)濾器

Github(占 4.5%):Google BigQuery 上可用的公共 GitHub 數(shù)據(jù)集

Wikipedia(占 4.5%):涵蓋 20 種語(yǔ)言的 2022 年 6 月至 8 月期間的維基百科數(shù)據(jù)

Gutenberg 和 Books3(占 4.5%):書(shū)籍?dāng)?shù)據(jù)集

ArXiv(占 45%):科學(xué)數(shù)據(jù)

StackExchange(占 2%):涵蓋科學(xué)和工程主題的高質(zhì)量問(wèn)答

分詞器使用了基于字節(jié)對(duì)編碼的 SentencePiece[49](無(wú)監(jiān)督文本標(biāo)記器,用于基于神經(jīng)網(wǎng)絡(luò)的文本生成),該訓(xùn)練數(shù)據(jù)包含 1.4T 個(gè)標(biāo)記。

Google BigQuery[50]:是一項(xiàng)全托管的云數(shù)據(jù)倉(cāng)庫(kù)服務(wù),可讓用戶分析和查詢(xún)大型數(shù)據(jù)集。它由 Google 云平臺(tái)提供,可以存儲(chǔ)和查詢(xún) PB 級(jí)別的數(shù)據(jù),而無(wú)需用戶管理任何基礎(chǔ)架構(gòu)。用戶可以使用標(biāo)準(zhǔn) SQL 查詢(xún)語(yǔ)言,通過(guò) Web UI、命令行界面、API 等多種方式訪問(wèn) BigQuery 服務(wù),并支持將數(shù)據(jù)導(dǎo)入到 BigQuery 中,以進(jìn)行進(jìn)一步的分析和處理。

表現(xiàn)

通過(guò)常識(shí)推理、閱讀理解和代碼生成等任務(wù)對(duì)模型進(jìn)行評(píng)估。性能總結(jié):

模型越大越好:在大多數(shù)任務(wù)中,更大的模型表現(xiàn)更好

提示中的示例越多越好:在自然問(wèn)題任務(wù)中,給 LLaMA 7B 模型 5 個(gè)示例幾乎與不給 65B 模型示例一樣好

小型高性能模型:LLaMA 13B 的性能類(lèi)似于 GPT-3,盡管參數(shù)只有后者的 1/10(13B 對(duì)比 175B)

LLaMA 在量化推理方面表現(xiàn)不佳:特別是小型的 7B 和 13B 模型

LLaMA 不像 ChatGPT 那樣針對(duì)指令跟隨進(jìn)行調(diào)整。但是,65B 模型可以跟隨基本指令。我們將等待 Alpaca(不久)

模型大小比較

使用更大的 LLaMA 模型可以獲得多少收益?下表總結(jié)了不同類(lèi)別任務(wù)的性能。它們是根據(jù)研究論文中提供的分?jǐn)?shù)計(jì)算,假設(shè)是線性比例。LLaMA 模型的性能(標(biāo)準(zhǔn)化為 65B 為 100%):

7B

Average65%

Common sense reasoning92%

Natural Questions65%

Reading comprehension90%

TriviaQA76%

Quantitative reasoning27%

Code generation53%

Multitask language understanding56%

13B

Average76%

Common sense reasoning95%

Natural Questions80%

Reading comprehension91%

TriviaQA86%

Quantitative reasoning39%

Code generation69%

Multitask language understanding74%

33B

Average91%

Common sense reasoning99%

Natural Questions95%

Reading comprehension94%

TriviaQA96%

Quantitative reasoning72%

Code generation89%

Multitask language understanding91%

65B

Average100%

Common sense reasoning100%

Natural Questions100%

Reading comprehension100%

TriviaQA100%

Quantitative reasoning100%

Code generation100%

Multitask language understanding100%

使用更大的模型值得嗎?當(dāng)從 7B 模型切換到 65B 模型時(shí),你可以期望獲得大約 50% 的通用性能提升。但這也取決于你使用模型的目的。對(duì)于常識(shí)推理和閱讀理解任務(wù),你只會(huì)看到小幅的提升。對(duì)于代碼生成和技術(shù)閱讀任務(wù),你將看到很大的提升。

小結(jié)

如果你使用足夠的數(shù)據(jù)對(duì)小模型進(jìn)行訓(xùn)練,它們可以表現(xiàn)良好。這為在 PC 上運(yùn)行“本地 ChatGPT” 的可能性打開(kāi)了大門(mén)。但是,LLaMA 基礎(chǔ)模型沒(méi)有被訓(xùn)練來(lái)遵循指令。這將留待以后的開(kāi)發(fā)。

總之,LLaMA 旨在成為進(jìn)一步微調(diào)的基礎(chǔ)模型。它的優(yōu)點(diǎn)包括:

小型

開(kāi)源

表現(xiàn)良好(得益于廣泛的訓(xùn)練)

Alpaca 模型

論文:

LLaMA: Open and Efficient Foundation Language Models[51]

Self-Instruct: Aligning Language Model with Self Generated Instructions[52]

Blog:Alpaca: A Strong, Replicable Instruction-Following Model[53]

GitHub: tatsu-lab/stanford_alpaca[54]

Alpaca 是一個(gè)經(jīng)過(guò)微調(diào)的 LLaMA 模型,這意味著模型結(jié)構(gòu)相同,但權(quán)重略有不同。它旨在解決 LLaMA 模型缺乏遵循指令能力的問(wèn)題。它的行為類(lèi)似于 ChatGPT,可以跟隨對(duì)話和指令。7B 和 13B 的 Alpaca 模型現(xiàn)已可用。

訓(xùn)練

這個(gè)模型是被訓(xùn)練用來(lái)像 ChatGPT 一樣遵循指示的。首先使用 OpenAI 的 GPT-3 生成訓(xùn)練數(shù)據(jù),然后使用 Self-Instruct 流程將其轉(zhuǎn)換為 52k 遵循指示的對(duì)話數(shù)據(jù)。因此,Alpaca 可以對(duì) ChatGPT 等對(duì)話進(jìn)行微調(diào)。

表現(xiàn)

作者中的部分人對(duì)它進(jìn)行了一項(xiàng)盲評(píng),評(píng)估 Alpaca 7B 和 GPT-3 (具體來(lái)說(shuō)是經(jīng)過(guò)指令訓(xùn)練的 text-davinci-003 模型)的指令跟隨能力。評(píng)估結(jié)果表明兩者響應(yīng)的排名大致相等。這是一個(gè)令人驚訝的結(jié)果,因?yàn)?Alpaca 只有 GPT-3 的 1/26 大小。

當(dāng)然,這只是性能的一個(gè)狹窄方面。這并不意味著 Alpaca 在其他領(lǐng)域(如代碼生成和科學(xué)知識(shí)等)的表現(xiàn)與 GPT-3 相同,這些領(lǐng)域在研究中并未進(jìn)行測(cè)試。

小結(jié)

Alpaca 是微調(diào) LLaMA 模型的不錯(cuò)的一個(gè)開(kāi)始。它在性能方面將被類(lèi)似的微調(diào)方法 Vicuna 超越。

Vicuna 模型

Blog:Vicuna: An Open-Source Chatbot Impressing GPT-4 with 90%* ChatGPT Quality[55]

GitHub:lm-sys/FastChat[56]

在線體驗(yàn):Chat with Open Large Language Models[57]

Vicuna 是通過(guò)微調(diào) LLaMA 模型對(duì)從 ShareGPT.com[58] 收集的用戶共享對(duì)話進(jìn)行訓(xùn)練。它有兩種大小可供選擇:7B 和 13B。

訓(xùn)練

該模型是由加州大學(xué)伯克利分校、卡內(nèi)基梅隆大學(xué)、斯坦福大學(xué)、加州大學(xué)圣地亞哥分校和 MBZUAI 的學(xué)術(shù)團(tuán)隊(duì)進(jìn)行微調(diào)訓(xùn)練的。

它使用 ShareGPT.com 上用戶分享的 70,000 個(gè) ChatGPT 對(duì)話進(jìn)行訓(xùn)練的。訓(xùn)練 7B 模型的成本僅為 140 美元,訓(xùn)練 13B 模型的成本為 300 美元。

表現(xiàn)

根據(jù) Blog 顯示輸出質(zhì)量約為 ChatGPT(GPT-4) 的 90%,使其成為可以在本地運(yùn)行的最佳語(yǔ)言模型。

作者使用了一種有趣的方法來(lái)評(píng)估模型的表現(xiàn):使用 GPT-4 作為評(píng)判標(biāo)準(zhǔn)。他們讓 GPT-4 提出一些具有挑戰(zhàn)性的問(wèn)題,并讓 Vicuna 和其他最佳語(yǔ)言模型來(lái)回答。然后,他們要求 GPT-4 從不同的方面(例如:有用性和準(zhǔn)確性)評(píng)估答案的質(zhì)量。

以下是比較 LLaMA、Alpaca、Bard[59] 和 ChatGPT 的結(jié)果。在 GPT-4 的眼中,Vicuna 幾乎與 ChatGPT 一樣出色,比 LLaMA 和 Alpaca 優(yōu)異許多。

小結(jié)

當(dāng)前 Vicuna 模型是你可以在本地運(yùn)行的最佳 LLaMA 模型之一。但如果未來(lái)幾周情況發(fā)生變化,你也不必感到驚訝。

Koala 模型

Blog:Koala: A Dialogue Model for Academic Research[60]

GitHub:young-geng/EasyLM[61]

發(fā)布日期:2023 年 4 月

Koala 是一個(gè) LLaMA 7B 和 13B 模型,由加州大學(xué)伯克利分校的一個(gè)學(xué)術(shù)團(tuán)隊(duì)使用公開(kāi)可用的對(duì)話數(shù)據(jù)進(jìn)行微調(diào)。

訓(xùn)練

為了構(gòu)建 Koala,團(tuán)隊(duì)通過(guò)從 Web 和公共數(shù)據(jù)集中收集對(duì)話數(shù)據(jù)來(lái)篩選 Koala 的訓(xùn)練集。其中一部分?jǐn)?shù)據(jù)包括用戶在線發(fā)布的與大型語(yǔ)言模型(如ChatGPT)的對(duì)話。Koala 不是通過(guò)盡可能多地爬取 Web 數(shù)據(jù)來(lái)最大化數(shù)量,而是專(zhuān)注于收集小而高質(zhì)量的數(shù)據(jù)集。

訓(xùn)練數(shù)據(jù)包括來(lái)自多個(gè)數(shù)據(jù)集的過(guò)濾數(shù)據(jù):

ChatGPT 蒸餾數(shù)據(jù)

ShareGPT:使用公共 API 收集了用戶在 ShareGPT 上共享的大約 60K 對(duì)話。為了保持?jǐn)?shù)據(jù)質(zhì)量,在用戶查詢(xún)級(jí)別進(jìn)行了重復(fù)數(shù)據(jù)刪除,并刪除了所有非英語(yǔ)對(duì)話,留下大約 30K 個(gè)示例。

Human ChatGPT Comparison Corpus (HC3):使用來(lái)自 HC3 英語(yǔ)數(shù)據(jù)集[62]的人類(lèi)和 ChatGPT 響應(yīng),其中包含約 60K 人類(lèi)答案和 27K ChatGPT 答案,用于約 24K 問(wèn)題,從而產(chǎn)生總數(shù)約 87K 的問(wèn)答示例。

開(kāi)源數(shù)據(jù)

Open Instruction Generalist (OIG):使用由 LAION 策劃的 Open Instruction Generalist[63] 數(shù)據(jù)集的手動(dòng)選擇的子集。具體是 grade-school-math-instructions、poetry-to-songs 和 plot-screenplay-books-dialogue 數(shù)據(jù)集。這總共約有 30k 個(gè)例子。

Stanford Alpaca:使用 Alpaca 訓(xùn)練數(shù)據(jù)集,該數(shù)據(jù)集包含大約 52K 個(gè)例子,是由 OpenAI 的 text-davinci-003 按照自我指導(dǎo)過(guò)程生成的。值得注意的是,HC3、OIG 和 Alpaca 數(shù)據(jù)集是單輪問(wèn)答,而 ShareGPT 數(shù)據(jù)集是對(duì)話會(huì)話。

Anthropic HH:Anthropic HH 數(shù)據(jù)集[64]包含對(duì)模型輸出有害和有幫助性的人類(lèi)評(píng)分。該數(shù)據(jù)集包含約 160K 個(gè)人工評(píng)定的示例,其中每個(gè)示例由兩個(gè)聊天機(jī)器人的響應(yīng)組成,其中一個(gè)響應(yīng)由人類(lèi)優(yōu)先選擇。該數(shù)據(jù)集為 Koala 模型提供了能力和額外的安全保護(hù)。

OpenAI WebGPT:OpenAI WebGPT 數(shù)據(jù)集[65]包括總共約 20K 個(gè)比較,每個(gè)例子包括一個(gè)問(wèn)題、一對(duì)模型答案和元數(shù)據(jù)。這些答案由人類(lèi)評(píng)分,并得到一個(gè)優(yōu)先得分。

OpenAI Summarization:OpenAI 摘要數(shù)據(jù)集[66]包含約 93K 個(gè)示例,每個(gè)示例都包含人類(lèi)對(duì)模型生成的摘要的反饋。人類(lèi)評(píng)估人員從兩個(gè)選項(xiàng)中選擇了更好的摘要。

訓(xùn)練了兩個(gè)模型:

Koala-Distill:只使用 ChatGPT 蒸餾數(shù)據(jù)

Koala-All:使用所有數(shù)據(jù)(包括 ChatGPT 蒸餾和開(kāi)源數(shù)據(jù))

小結(jié)

數(shù)據(jù)質(zhì)量比數(shù)量更重要。使用僅 ChatGPT 數(shù)據(jù)進(jìn)行微調(diào)的 Koala-Distll 的性能優(yōu)于使用其他數(shù)據(jù)進(jìn)行訓(xùn)練的 Koala-All。在未來(lái),尋找或生成高質(zhì)量的數(shù)據(jù)來(lái)微調(diào) LLaMA 模型是重要的。

GPT4-x-Alpaca 模型

HuggingFace:chavinlo/gpt4-x-alpaca[67]

發(fā)布日期:2023 年 4 月

GPT4-x-Alpaca 是一個(gè) LLaMA 13B 模型,使用 GPT4 對(duì)話集合 GPTeacher[68] 進(jìn)行了微調(diào)。關(guān)于它的訓(xùn)練和表現(xiàn)的信息不多。以下是一些社區(qū)為評(píng)估該模型所做的努力:

AI Showdown: GPT-4-x-Alpaca vs. Vicuna, GPT-4 as the judge (test in comments)[69]

New model: gpt4-x-alpaca-13b-native-4bit-128g !![70]

WizardLM 模型

論文:WizardLM: Empowering Large Language Models to Follow Complex Instructions[71]

GitHub:nlpxucan/WizardLM[72]

發(fā)布日期:2023 年 4 月

WizardLM 是一個(gè)經(jīng)過(guò)微調(diào)的 7B LLaMA 模型。它通過(guò)大量具有不同難度的指令跟隨對(duì)話進(jìn)行微調(diào)。這個(gè)模型的新穎之處在于使用了 LLM 來(lái)自動(dòng)生成訓(xùn)練數(shù)據(jù)。

訓(xùn)練

WizardLM 模型使用一種名為 Evol-Instruct[73](是一種使用 LLM 代人類(lèi)自主批生成各種難度等級(jí)和技術(shù)范圍的開(kāi)放指令,以提高 LLM 能力的新方法)的新方法,通過(guò) 70k 個(gè)計(jì)算機(jī)生成的指令進(jìn)行訓(xùn)練,該方法生成具有不同難度級(jí)別的指令。

Evol-Instruct 使用以下五個(gè)操作來(lái)擴(kuò)展提示:

添加約束

深化

具體化

增加推理步驟

復(fù)雜輸入

這些操作按順序應(yīng)用于初始指令以使其更加復(fù)雜,回復(fù)由 LLM 生成。

表現(xiàn)

為了評(píng)估 Wizard,作者在 Wizard 和基線之間進(jìn)行了盲配對(duì)比較(具體來(lái)說(shuō)就是:招募 10 個(gè)受過(guò)良好教育的人在五個(gè)方面對(duì) WizardLM 和其他模型的響應(yīng)進(jìn)行評(píng)估:相關(guān)性,知識(shí)水平,推理,計(jì)算和準(zhǔn)確性進(jìn)行了 1-5 的排名)。WizardLM 取得了明顯優(yōu)于 Alpaca 和 Vicuna-7b 的結(jié)果。

在測(cè)試集的高難度部分(難度等級(jí) >= 8)中,甚至表現(xiàn)出優(yōu)于 ChatGPT 的表現(xiàn),勝率比 ChatGPT 高 7.9%(42.9% 對(duì) 35.0%)。這表明 Wizard 的方法可以顯著提高大型語(yǔ)言模型處理復(fù)雜指令的能力。

OpenAssistant 模型

官網(wǎng):Open Assistant[74]

論文:OpenAssistant Conversations -- Democratizing Large Language Model Alignment[75]

GitHub:LAION-AI/Open-Assistant[76]

模型:OpenAssistant LLaMa 30B SFT 6[77]

視頻:OpenAssistant RELEASED! The world's best open-source Chat AI![78]

在線體驗(yàn):Large Language Model Chat API[79]

發(fā)布日期:2023 年 4 月

OpenAssistant 是一個(gè)開(kāi)源項(xiàng)目,旨在開(kāi)發(fā)免費(fèi)提供給所有人使用的 AI 聊天機(jī)器人。訓(xùn)練數(shù)據(jù)集 OpenAssistant Conversations 包含了超過(guò) 60 萬(wàn)個(gè)涉及各種主題的交互,用于訓(xùn)練各種模型。目前發(fā)布了經(jīng)過(guò)指令調(diào)整的 LLaMA 13B 和 30B 模型,以及其他使用相同數(shù)據(jù)集訓(xùn)練的模型。(了解更多《Open Assistant:開(kāi)源聊天助手》)

Lit-LLaMA

Lightning-AI/lit-llama[80]:基于 nanoGPT(用于訓(xùn)練/微調(diào)中型 GPT 的最簡(jiǎn)單、最快的存儲(chǔ)庫(kù)) 實(shí)現(xiàn)的 LLaMA 語(yǔ)言模型。支持 flash attention、Int8 和 GPTQ 4bit 量化、LoRA 和 LLaMA-Adapter 微調(diào)、預(yù)訓(xùn)練。項(xiàng)目采用 Apache 2.0 開(kāi)源許可證[81]。

Lit-LLaMA 認(rèn)為人工智能應(yīng)該完全開(kāi)源并成為集體知識(shí)的一部分。但原始的 LLaMA 代碼采用 GPL 許可證[82],這意味著使用它的任何項(xiàng)目也必須在 GPL 下發(fā)布。這“污染”了其他代碼,阻止了與生態(tài)系統(tǒng)的集成。Lit-LLaMA 永久性地解決了這個(gè)問(wèn)題。

Dolly

Blog:Hello Dolly: Democratizing the magic of ChatGPT with open models[83]

GitHub:databrickslabs/dolly[84]

模型:

EleutherAI/gpt-j-6b[85]

databricks/dolly-v2-12b[86]:Dolly2.0 是第一個(gè)開(kāi)源的指令跟隨型大型語(yǔ)言模型,通過(guò)在經(jīng)過(guò)授權(quán)用于研究和商業(yè)用途的人工生成指令數(shù)據(jù)集上進(jìn)行微調(diào)。

Dolly 是一款基于 EleutherAI[87] 開(kāi)源 6 億參數(shù)模型修改而來(lái)的 LLM(Language Model),能夠表現(xiàn)出類(lèi)似于 ChatGPT 的指令跟隨能力,并且能夠在生成文本、頭腦風(fēng)暴和開(kāi)放式問(wèn)答等方面表現(xiàn)出與 ChatGPT 相似的定性能力。其工作原理是在 Alpaca 的數(shù)據(jù)支持下,對(duì) EleutherAI 的開(kāi)源模型 pythia-12b[88] 進(jìn)行微調(diào),以實(shí)現(xiàn)頭腦風(fēng)暴和文本生成等指令跟隨能力。了解更多 Hello Dolly: Democratizing the magic of ChatGPT with open models[89]。

RedPajama

Blog:RedPajama, a project to create leading open-source models, starts by reproducing LLaMA training dataset of over 1.2 trillion tokens[90]

數(shù)據(jù)集:togethercomputer/RedPajama-Data[91]

RedPajama 旨在創(chuàng)建一組領(lǐng)先的、完全開(kāi)源模型的項(xiàng)目。GPT-4 等基礎(chǔ)模型推動(dòng)了 AI 的快速改進(jìn)。然而,最強(qiáng)大的模型是封閉的商業(yè)模型或僅部分開(kāi)放。目前該項(xiàng)目第一步已完成:復(fù)制超過(guò) 1.2 萬(wàn)億個(gè)標(biāo)記的 LLaMA 訓(xùn)練數(shù)據(jù)集。(了解更多《RedPajama 開(kāi)源:1.2 萬(wàn)億數(shù)據(jù)集的可商用語(yǔ)言模型!》)

ChatLLaMa

注意:此庫(kù)不包含 LLaMA 的權(quán)重;要訪問(wèn)權(quán)重,需要申請(qǐng) Meta 的表格。

ChatLLaMa[92] 可以讓你使用自己的數(shù)據(jù)和盡可能少的計(jì)算量有效地利用 LLM 的微調(diào)功能。其目的是通過(guò)抽象計(jì)算優(yōu)化和收集大量數(shù)據(jù)所需的工作,讓開(kāi)發(fā)人員高枕無(wú)憂。

StableLM

Blog:Stability AI Launches the First of its StableLM Suite of Language Models[93]

GitHub:stability-AI/stableLM[94]

模型:StableVicuna-13B[95]

體驗(yàn)地址:StableLM-Tuned-Alpha-7b Chat[96]

2022 年,Stability AI 推出了 Stable Diffusion,這是一種革命性的圖像模型,代表了專(zhuān)有 AI 的透明、開(kāi)放和可擴(kuò)展的替代方案。隨著 StableLM 模型套件的推出,Stability AI 正在繼續(xù)使基礎(chǔ) AI 技術(shù)對(duì)所有人可用。StableLM 模型可以生成文本和代碼,并為一系列下游應(yīng)用提供支持。它們展示了小而高效的模型如何在適當(dāng)?shù)挠?xùn)練下提供高性能。(了解更多《StableLM 開(kāi)源: Stability AI 發(fā)布可商用語(yǔ)言模型!》)

LangChain

官網(wǎng):Langchain[97]

GitHub:wchase17/langchain[98]

大型語(yǔ)言模型 (LLM) 正在成為一種變革性技術(shù),LangChain  使開(kāi)發(fā)人員能夠構(gòu)建他們以前無(wú)法構(gòu)建的應(yīng)用程序。然而,單獨(dú)使用這些 LLM 往往不足以創(chuàng)建一個(gè)真正強(qiáng)大的應(yīng)用程序——當(dāng)你可以將它們與其他計(jì)算或知識(shí)來(lái)源相結(jié)合時(shí),真正的力量就來(lái)了。

本機(jī)運(yùn)行

運(yùn)行 LLaMA

在軟件工程方面的發(fā)展同樣令人矚目。目前,在個(gè)人電腦上運(yùn)行 LLaMA 模型有兩種方式:

文本終端

llama.cpp[99]:主要目標(biāo)是在 MacBook 上使用 4 位整數(shù)量化運(yùn)行 LLaMA 模型

圖形界面

nat/openplayground[100]:LLM 游樂(lè)場(chǎng),支持來(lái)自 OpenAI、Anthropic、Cohere、Forefront、HuggingFace、Aleph Alpha 和 llama.cpp 的任何模型。

oobabooga/text-generation-webui[101]:用于運(yùn)行 LLaMA、llama.cpp、GPT-J、Pythia、OPT 和 GALACTICA 等大型語(yǔ)言模型的 gradio web UI。

nsarrazin/serge[102]:基于 llama.cpp 的聊天界面,用于運(yùn)行 Alpaca 模型。完全自托管,不需要 API 密鑰。適合 4GB RAM 并在 CPU 上運(yùn)行。

llama.cpp

llama.cpp 是用 C++ 編寫(xiě)的,其目標(biāo)是在 Macbook 上運(yùn)行 LLaMA 模型。它針對(duì) Apple Silicon M1/M2[103] 進(jìn)行了優(yōu)化。

支持 4 位整數(shù)量化,以減少 LLaMA 模型所需的資源。量化模型可以減少存儲(chǔ)和 RAM 使用量,但會(huì)略微降低質(zhì)量。一個(gè) 7B 模型最初需要 13GB 的磁盤(pán)空間和 RAM 才能加載。經(jīng)過(guò) 4 位量化后,只需要約 4GB。

然而,它只支持在文本終端中使用。你也可以使用 nat/openplayground 或 oobabooga/text-generation-webui 作為 llama.cpp 的 GUI。

4 位整數(shù)量化(4-bit integer quantization):

是一種將神經(jīng)網(wǎng)絡(luò)參數(shù)從浮點(diǎn)數(shù)轉(zhuǎn)換為整數(shù)的技術(shù),旨在減少模型存儲(chǔ)和內(nèi)存占用的大小,以便在移動(dòng)設(shè)備等資源受限的環(huán)境中使用。

在傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)中,每個(gè)參數(shù)都是一個(gè)浮點(diǎn)數(shù),通常需要 4 個(gè)字節(jié)存儲(chǔ)。但是,在 4-bit 整數(shù)量化中,每個(gè)參數(shù)被近似為一個(gè)整數(shù),只需要 1 個(gè)字節(jié)存儲(chǔ)。雖然這樣會(huì)犧牲一些模型精度,但由于整數(shù)計(jì)算通常比浮點(diǎn)數(shù)計(jì)算快,因此它可以加速神經(jīng)網(wǎng)絡(luò)的計(jì)算速度。

4-bit 整數(shù)量化通常是在訓(xùn)練后應(yīng)用的,使用一些技術(shù)來(lái)最小化精度損失,例如權(quán)重裁剪和量化感知訓(xùn)練。

nat/openplayground

使用來(lái)自 OpenAI、Anthropic、Cohere、Forefront、HuggingFace、Aleph Alpha 和 llama.cpp 的任何模型

完整的 playground UI,包括歷史記錄、參數(shù)調(diào)整、鍵盤(pán)快捷鍵和 logprops

使用相同的提示并排比較模型,單獨(dú)調(diào)整模型參數(shù),然后使用不同的參數(shù)重試

自動(dòng)檢測(cè) HuggingFace 緩存中的本地模型,并允許你安裝新模型

在手機(jī)上運(yùn)行

...

oobabooga/text-generation-webui

用于在模型之間切換的下拉菜單

類(lèi)似于 OpenAI 游樂(lè)場(chǎng)的筆記本模式

對(duì)話和角色扮演的聊天模式

指令模式兼容 Alpaca、Vicuna、Open Assistant、Dolly、Koala 和 ChatGLM 格式

顯示優(yōu)化:HTML,Markdown,LaTeX 等

...

nsarrazin/serge

你的自助式私人助理。沒(méi)有遠(yuǎn)程 API,沒(méi)有數(shù)據(jù)收集,沒(méi)有廣告。

WebLLM

WebLLM[104] 將大型語(yǔ)言模型和聊天引入網(wǎng)絡(luò)瀏覽器。一切都在瀏覽器內(nèi)運(yùn)行,無(wú)需服務(wù)器支持,并使用 WebGPU 加速。這開(kāi)辟了許多有趣的機(jī)會(huì),可以為每個(gè)人構(gòu)建 AI 助手,并在享受 GPU 加速的同時(shí)實(shí)現(xiàn)隱私。

Web Stable Diffusion

Web Stable Diffusion[105] 為網(wǎng)絡(luò)瀏覽器帶來(lái) Stable Diffusion 模型。一切都在瀏覽器內(nèi)運(yùn)行,無(wú)需服務(wù)器支持。據(jù)項(xiàng)目作者稱(chēng),這是世界上第一個(gè)完全在瀏覽器上運(yùn)行的 Stable Diffusion。

圖像生態(tài)

Stable Diffusion

論文:High-Resolution Image Synthesis with Latent Diffusion Models[106]

GitHub:Latent Diffusion Models[107]

可視化界面:AUTOMATIC1111/stable-diffusion-webui[108]

Stable Diffusion[109](穩(wěn)定擴(kuò)散)是一個(gè)潛在的文本到圖像擴(kuò)散模型。Stability AI[110] 和 Runway[111] 的合作,Stable Diffusion 得以實(shí)現(xiàn)。得益于 Stability AI 的慷慨計(jì)算機(jī)捐贈(zèng)和 LAION[112] 的支持,Stable Diffusion 在 LAION-5B[113] 數(shù)據(jù)庫(kù)的一個(gè)子集上訓(xùn)練了一個(gè) 512x512 圖像的潛在擴(kuò)散模型。類(lèi)似于 Google 的 Imagen[114],該模型使用一個(gè)凍結(jié)的 CLIP ViT-L/14 文本編碼器來(lái)對(duì)模型進(jìn)行文本提示的調(diào)節(jié)。該模型具有 860M UNet 和 123M 文本編碼器,相對(duì)較輕,可以在至少擁有 10GB VRAM 的 GPU 上運(yùn)行。(了解更多《Stable Diffusion 入門(mén)》)

Segment Anything

論文:Segment Anything[115]

Blog:Introducing Segment Anything: Working toward the first foundation model for image segmentation[116]

GitHub:facebookresearch/segment-anything[117]

官網(wǎng):Segment Anything (Research by Meta AI)[118]

數(shù)據(jù)集:Segment Anything Dataset[119]

“Segment Anything Model”(SAM)可以從點(diǎn)或框等輸入提示生成高質(zhì)量的對(duì)象蒙版,可用于為圖像中的所有對(duì)象生成蒙版。它已經(jīng)在包含 1.1 億個(gè)蒙版的 1100 萬(wàn)個(gè)圖像數(shù)據(jù)集上進(jìn)行了訓(xùn)練,并在各種分割任務(wù)上具有強(qiáng)大的零樣本性能。

References[1]

Image Creator: https://www.bing.com/images/create[2]

GPT-3: https://github.com/openai/gpt-3[3]

ChatGPT 發(fā)布: https://openai.com/blog/chatgpt[4]

Blake Lemoine Says Google's LaMDA AI Faces 'Bigotry': https://www.wired.com/story/blake-lemoine-google-lamda-ai-bigotry[5]

LLM BLOOM: https://bigscience.huggingface.co/blog/bloom[6]

ChatGPT Plus: https://openai.com/blog/chatgpt-plus[7]

ChatGPT 和 Whisper API: https://openai.com/blog/introducing-chatgpt-and-whisper-apis[8]

ChatGPT 插件: https://openai.com/blog/chatgpt-plugins[9]

GPT-4: https://openai.com/product/gpt-4[10]

BLOOM: https://huggingface.co/bigscience/bloom[11]

GitHub Copilot X: https://github.com/features/preview/copilot-x[12]

Google Bard: https://bard.google.com[13]

Adobe Firefly: https://firefly.adobe.com[14]

DeepSpeed: https://github.com/microsoft/DeepSpeed[15]

MiniGPT-4: Enhancing Vision-Language Understanding with Advanced Large Language Models: https://arxiv.org/abs/2304.10592[16]

Plug-and-Play VQA: Zero-shot VQA by Conjoining Large Pretrained Models with Zero Training: https://arxiv.org/abs/2210.08773[17]

Flamingo: a Visual Language Model for Few-Shot Learning: https://arxiv.org/abs/2204.14198[18]

Vision-CAIR/MiniGPT-4: https://github.com/Vision-CAIR/MiniGPT-4[19]

Vision-CAIR/MiniGPT-4: https://huggingface.co/Vision-CAIR/MiniGPT-4[20]

Vision-CAIR/cc_sbu_align: https://huggingface.co/datasets/Vision-CAIR/cc_sbu_align[21]

Minigpt-4: https://minigpt-4.github.io[22]

Q-Former: https://github.com/ViTAE-Transformer/QFormer[23]

minGPT: https://github.com/karpathy/minGPT[24]

GPT: https://github.com/openai/gpt-2[25]

mingpt/model.py: https://github.com/karpathy/minGPT/blob/master/mingpt/model.py[26]

Transformer: https://arxiv.org/abs/1706.03762[27]

nanoGPT: https://github.com/karpathy/nanoGPT[28]

GPT4Free: https://github.com/xtekky/gpt4free[29]

Auto-GPT: https://github.com/Significant-Gravitas/Auto-GPT[30]

AgentGPT: https://github.com/reworkd/AgentGPT[31]

AudioGPT: Understanding and Generating Speech, Music, Sound, and Talking Head: https://arxiv.org/abs/2304.12995[32]

AIGC-Audio/AudioGPT: https://github.com/AIGC-Audio/AudioGPT[33]

AudioGPT Demo: https://huggingface.co/spaces/AIGC-Audio/AudioGPT[34]

DocsGPT: https://github.com/arc53/DocsGPT[35]

acheong08/ChatGPT: https://github.com/acheong08/ChatGPT[36]

acheong08/EdgeGPT: https://github.com/acheong08/EdgeGPT[37]

A brief history of LLaMA models: https://agi-sphere.com/llama-models[38]

LLaMA: Open and Efficient Foundation Language Models: https://arxiv.org/abs/2302.13971[39]

Introducing LLaMA: A foundational, 65-billion-parameter large language model: https://ai.facebook.com/blog/large-language-model-llama-meta-ai[40]

facebookresearch/LLaMA: https://github.com/facebookresearch/llama[41]

Google 表單申請(qǐng): https://docs.google.com/forms/d/e/1FAIpQLSfqNECQnMkycAp2jP4Z9TFX0cGR4uf7b_fBxjY_OjhJILlKGA/viewform[42]

Facebook LLAMA is being openly distributed via torrents: https://news.ycombinator.com/item?id=35007978[43]

qBittorrent: https://www.qbittorrent.org[44]

uTorrent: https://www.utorrent.com[45]

NVIDIA 3090: https://www.nvidia.com/en-us/geforce/graphics-cards/30-series/rtx-3090-3090ti[46]

Transformer: A Novel Neural Network Architecture for Language Understanding: https://ai.googleblog.com/2017/08/transformer-novel-neural-network.html[47]

CommonCrawl: https://commoncrawl.org[48]

C4: https://huggingface.co/datasets/c4[49]

SentencePiece: https://github.com/google/sentencepiece[50]

Google BigQuery: https://cloud.google.com/bigquery[51]

LLaMA: Open and Efficient Foundation Language Models: https://arxiv.org/abs/2302.13971v1[52]

Self-Instruct: Aligning Language Model with Self Generated Instructions: https://arxiv.org/abs/2212.10560[53]

Alpaca: A Strong, Replicable Instruction-Following Model: https://crfm.stanford.edu/2023/03/13/alpaca.html[54]

tatsu-lab/stanford_alpaca: https://github.com/tatsu-lab/stanford_alpaca[55]

Vicuna: An Open-Source Chatbot Impressing GPT-4 with 90% ChatGPT Quality:* https://vicuna.lmsys.org[56]

lm-sys/FastChat: https://github.com/lm-sys/FastChat[57]

Chat with Open Large Language Models: https://chat.lmsys.org[58]

ShareGPT.com: https://sharegpt.com[59]

Bard: https://blog.google/technology/ai/bard-google-ai-search-updates[60]

Koala: A Dialogue Model for Academic Research: https://bair.berkeley.edu/blog/2023/04/03/koala[61]

young-geng/EasyLM: https://github.com/young-geng/EasyLM[62]

HC3 英語(yǔ)數(shù)據(jù)集: (https://arxiv.org/abs/2301.07597)[63]

Open Instruction Generalist: https://laion.ai/blog/oig-dataset[64]

Anthropic HH 數(shù)據(jù)集: https://huggingface.co/datasets/Anthropic/hh-rlhf[65]

OpenAI WebGPT 數(shù)據(jù)集: https://huggingface.co/datasets/openai/webgpt_comparisons[66]

OpenAI 摘要數(shù)據(jù)集: https://huggingface.co/datasets/openai/summarize_from_feedback[67]

chavinlo/gpt4-x-alpaca: https://huggingface.co/chavinlo/gpt4-x-alpaca[68]

GPTeacher: https://github.com/teknium1/GPTeacher[69]

AI Showdown: GPT-4-x-Alpaca vs. Vicuna, GPT-4 as the judge (test in comments): https://www.reddit.com/r/LocalLLaMA/comments/12lksqo/ai_showdown_gpt4xalpaca_vs_vicuna_gpt4_as_the[70]

New model: gpt4-x-alpaca-13b-native-4bit-128g !!: https://github.com/oobabooga/text-generation-webui/discussions/727[71]

WizardLM: Empowering Large Language Models to Follow Complex Instructions: https://arxiv.org/abs/2304.12244[72]

nlpxucan/WizardLM: https://github.com/nlpxucan/WizardLM[73]

Evol-Instruct: https://github.com/nlpxucan/evol-instruct[74]

Open Assistant: https://open-assistant.io[75]

OpenAssistant Conversations -- Democratizing Large Language Model Alignment: https://arxiv.org/abs/2304.07327[76]

LAION-AI/Open-Assistant: https://github.com/LAION-AI/Open-Assistant[77]

OpenAssistant LLaMa 30B SFT 6: https://huggingface.co/OpenAssistant/oasst-sft-6-llama-30b-xor[78]

OpenAssistant RELEASED! The world's best open-source Chat AI!: https://youtu.be/ddG2fM9i4Kk[79]

Large Language Model Chat API: https://huggingface.co/spaces/olivierdehaene/chat-llm-streaming[80]

Lightning-AI/lit-llama: https://github.com/Lightning-AI/lit-llama[81]

Apache 2.0 開(kāi)源許可證: https://www.apache.org/licenses/LICENSE-2.0[82]

GPL 許可證: https://www.gnu.org/licenses/gpl-3.0.html[83]

Hello Dolly: Democratizing the magic of ChatGPT with open models: https://www.databricks.com/blog/2023/03/24/hello-dolly-democratizing-magic-chatgpt-open-models.html[84]

databrickslabs/dolly: https://github.com/databrickslabs/dolly[85]

EleutherAI/gpt-j-6b: https://huggingface.co/EleutherAI/gpt-j-6b[86]

databricks/dolly-v2-12b: https://huggingface.co/databricks/dolly-v2-12b[87]

EleutherAI: https://www.eleuther.ai[88]

pythia-12b: https://huggingface.co/EleutherAI/pythia-12b[89]

Hello Dolly: Democratizing the magic of ChatGPT with open models: https://www.databricks.com/blog/2023/03/24/hello-dolly-democratizing-magic-chatgpt-open-models.html[90]

RedPajama, a project to create leading open-source models, starts by reproducing LLaMA training dataset of over 1.2 trillion tokens: https://www.together.xyz/blog/redpajama[91]

togethercomputer/RedPajama-Data: https://github.com/togethercomputer/RedPajama-Data[92]

ChatLLaMa: https://github.com/nebuly-ai/nebuly/tree/main/optimization/chatllama[93]

Stability AI Launches the First of its StableLM Suite of Language Models: https://stability.ai/blog/stability-ai-launches-the-first-of-its-stablelm-suite-of-language-models[94]

stability-AI/stableLM: https://github.com/stability-AI/stableLM[95]

StableVicuna-13B: https://huggingface.co/lmsys/vicuna-13b-delta-v1.1[96]

StableLM-Tuned-Alpha-7b Chat: https://huggingface.co/spaces/stabilityai/stablelm-tuned-alpha-chat[97]

Langchain: https://blog.langchain.dev[98]

wchase17/langchain: https://github.com/hwchase17/langchain[99]

llama.cpp: https://github.com/ggerganov/llama.cpp[100]

nat/openplayground: https://github.com/nat/openplayground[101]

oobabooga/text-generation-webui: https://github.com/oobabooga/text-generation-webui[102]

nsarrazin/serge: https://github.com/nsarrazin/serge[103]

Apple Silicon M1/M2: https://www.apple.com/newsroom/2022/06/apple-unveils-m2-with-breakthrough-performance-and-capabilities[104]

WebLLM: https://github.com/mlc-ai/web-llm[105]

Web Stable Diffusion: https://github.com/mlc-ai/web-stable-diffusion[106]

High-Resolution Image Synthesis with Latent Diffusion Models: https://arxiv.org/abs/2112.10752[107]

Latent Diffusion Models: https://github.com/CompVis/latent-diffusion[108]

AUTOMATIC1111/stable-diffusion-webui: https://github.com/AUTOMATIC1111/stable-diffusion-webui[109]

Stable Diffusion: https://github.com/CompVis/stable-diffusion[110]

Stability AI: https://stability.ai[111]

Runway: https://runwayml.com[112]

LAION: https://laion.ai[113]

LAION-5B: https://laion.ai/blog/laion-5b[114]

Imagen: https://arxiv.org/abs/2205.11487[115]

Segment Anything: https://arxiv.org/abs/2304.02643[116]

Introducing Segment Anything: Working toward the first foundation model for image segmentation: https://ai.facebook.com/blog/segment-anything-foundation-model-image-segmentation[117]

facebookresearch/segment-anything: https://github.com/facebookresearch/segment-anything[118]

Segment Anything (Research by Meta AI): https://segment-anything.com[119]

Segment Anything Dataset: https://segment-anything.com/dataset/index.html

本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)。
打開(kāi)APP,閱讀全文并永久保存 查看更多類(lèi)似文章
猜你喜歡
類(lèi)似文章
大模型迎來(lái)「開(kāi)源季」,盤(pán)點(diǎn)過(guò)去一個(gè)月那些開(kāi)源的LLM和數(shù)據(jù)集
2000元訓(xùn)練比肩ChatGPT的開(kāi)源大模型!GPT-4親自蓋章認(rèn)證,模型權(quán)重均可下載
這個(gè)新聞可能比GPT4還要大
LLMs之Vicuna:在Linux服務(wù)器系統(tǒng)上實(shí)Vicuna-7B本地化部署(基于facebookresearch的GitHub)進(jìn)行模型權(quán)重合并(llama-7b模型與delta模型權(quán)重)、模型部
微軟首次使用GPT-4進(jìn)行指令微調(diào),新任務(wù)零樣本性能再提升
如何在個(gè)人電腦上運(yùn)行類(lèi)Chat GPT的Alpaca?
更多類(lèi)似文章 >>
生活服務(wù)
熱點(diǎn)新聞
分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
綁定賬號(hào)成功
后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服