作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力
《AI演進(jìn)的核心哲學(xué)》提到Google在2017年6月的《Attention is All You Need》論文中首次提出了一種全新的神經(jīng)網(wǎng)絡(luò)架構(gòu)Transformer,OpenAI的科學(xué)家Alec Radford在讀完這篇論文后,使用BooksCorpus數(shù)據(jù)集(約1GB),并從Transformer中截取了Decoder部分進(jìn)行了生成式預(yù)訓(xùn)練(generative pre-training),然后再針對(duì)具體任務(wù)使用有標(biāo)注數(shù)據(jù)對(duì)預(yù)訓(xùn)練模型進(jìn)行監(jiān)督微調(diào),結(jié)果發(fā)現(xiàn)模型的性能還不錯(cuò),在 12 項(xiàng)任務(wù)中的 9 項(xiàng)顯著超越了針對(duì)特定任務(wù)設(shè)計(jì)的競(jìng)對(duì)模型,達(dá)到了當(dāng)前最佳水平,并于2018年6月發(fā)表了文章《Improving Language Understanding by Generative Pre-Training》,標(biāo)志著GPT系列模型從此誕生了。GPT就是Generative Pre-Training的首字母縮寫,GPT-1模型包含1.17億參數(shù)。
鏈接:
《Attention is All You Need》: https://arxiv.org/pdf/1706.03762 《Improving Language Understanding by Generative Pre-Training》: https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf
一,GPT-1~GPT-2: 驗(yàn)證性的演進(jìn)
OpenAI的首席科學(xué)家Ilya Sutskever看到GPT-1的結(jié)果后,非常興奮,他認(rèn)為這是一個(gè)非常關(guān)鍵的可以通向AGI(通用人工智能)的技術(shù),從此,OpenAI便在GPT-1基礎(chǔ)上開(kāi)始堅(jiān)定地執(zhí)行“Scale Up”戰(zhàn)略 -- 通過(guò)增加模型參數(shù)、訓(xùn)練數(shù)據(jù)和計(jì)算能力,推動(dòng) GPT 系列模型和訓(xùn)練范式不斷演進(jìn)。
隨后,OpenAI迅速加大了投入開(kāi)始研發(fā)GPT-2。GPT-2的目標(biāo)是探索更大規(guī)模的模型能否在沒(méi)有任務(wù)特定訓(xùn)練數(shù)據(jù)的情況下,僅通過(guò)預(yù)訓(xùn)練就能在多種任務(wù)上表現(xiàn)出色,即所謂的“零樣本”(Zero-shot)能力。為此,OpenAI構(gòu)建了一個(gè)更大、更多樣化的WebText數(shù)據(jù)集(約40GB),用更大算力(多塊NVIDIA V100 32GB卡)完成了更大參數(shù)模型的預(yù)訓(xùn)練。
GPT-2模型參數(shù)有4個(gè)版本:Small版有1.17億參數(shù),對(duì)應(yīng)原始的GPT-1;Medium版有3.45億參數(shù),對(duì)應(yīng)競(jìng)品BERT-large;Large版有7.62億參數(shù);XL版有15億參數(shù)。GPT-2首次系統(tǒng)性展示了無(wú)需微調(diào)即可適應(yīng)多任務(wù)的能力,在8 個(gè)測(cè)試數(shù)據(jù)集中獲得了7個(gè)當(dāng)下最優(yōu)的成果,證明了大規(guī)模預(yù)訓(xùn)練模型的強(qiáng)大潛力和 “通用語(yǔ)言模型” 在多任務(wù)場(chǎng)景中的可行性。
OpenAI在2019年2月發(fā)表了文章《Language Models are Unsupervised Multitask Learners》,還開(kāi)源了GPT-2的代碼: https://github.com/openai/gpt-2和部分?jǐn)?shù)據(jù)集:https://github.com/openai/gpt-2-output-dataset,成為GPT系列模型中唯一一個(gè)開(kāi)源模型。
鏈接: 《Language Models are Unsupervised Multitask Learners》: https://cdn.openai.com/better-language-models/language_models_are_unsupervised_multitask_learners.pdf
二,GPT3:更加激進(jìn)的演進(jìn)
GPT-2驗(yàn)證了“Scale Up”戰(zhàn)略的有效性后,OpenAI開(kāi)始更加激進(jìn)的Scale Up。GPT-3的參數(shù)量達(dá)到了驚人的1750億,比GPT-2的XL版本提升了100多倍。預(yù)訓(xùn)練數(shù)據(jù)集也更為龐大,混合了包括Common Crawl(經(jīng)過(guò)濾)、WebText2、Books1、Books2和Wikipedia在內(nèi)的的數(shù)據(jù)集(約300B Tokens)。
GPT-3不僅在零樣本任務(wù)上表現(xiàn)出色,更重要的是展示了強(qiáng)大的“少樣本”(Few-shot)甚至“單樣本”(One-shot)學(xué)習(xí)能力,這意味著只需要在提示詞(Prompt)中給出少量任務(wù)示例,模型就能理解并執(zhí)行新任務(wù),而無(wú)需重新訓(xùn)練或微調(diào)模型參數(shù)。這種“上下文學(xué)習(xí)”(In-context Learning)能力是GPT-3的核心突破,它使得模型更加通用和靈活,能夠處理翻譯、問(wèn)答、寫代碼、作詩(shī)、進(jìn)行簡(jiǎn)單推理等各種任務(wù),極大地推動(dòng)了Decoder-Only架構(gòu)的大語(yǔ)言模型的研究和應(yīng)用浪潮。
三,規(guī)模定律與能力涌現(xiàn)
在GPT系列模型演進(jìn)的過(guò)程中,OpenAI在2020年1月發(fā)表了文章《Scaling Laws for Neural Language Models》,首次系統(tǒng)性提出的語(yǔ)言模型的“規(guī)模定律(Scaling Laws)”,揭示了模型性能與模型參數(shù)量、訓(xùn)練數(shù)據(jù)量和計(jì)算資源規(guī)模呈指數(shù)級(jí)線性相關(guān)。同年5月,OpenAI發(fā)表了文章《Language Models are Few-Shot Learners》介紹GPT-3,讓科技界都開(kāi)始相信在Decoder-Only架構(gòu)上是能“Scale-Up”的。
隨后,Google也加入了Decoder-Only架構(gòu)的陣營(yíng),在2022年4月發(fā)布了5400億參數(shù)的PaLM模型,并證明了隨著參數(shù)提升,Decoder-Only架構(gòu)的模型能力在大多數(shù)任務(wù)場(chǎng)景中都高于前期最優(yōu)方法。同年6月,Google發(fā)表了文章《Emergent Abilities of Large Language Models》,首次系統(tǒng)性地提出了大語(yǔ)言模型的“能力涌現(xiàn)(Emergent Abilities)”現(xiàn)象,即大語(yǔ)言模型在參數(shù)規(guī)模突破臨界閾值后,突現(xiàn)的不可預(yù)測(cè)的新能力?,這類能力在小規(guī)模模型上無(wú)法出現(xiàn)。
鏈接: 《Scaling Laws for Neural Language Models》: https://arxiv.org/pdf/2001.08361 《Language Models are Few-Shot Learners》: https://arxiv.org/pdf/2005.14165
四,啟示1:科研團(tuán)隊(duì)可以從一個(gè)小規(guī)模參數(shù)的模型開(kāi)始
GPT系列模型的演進(jìn),以及科技界在Decoder-Only架構(gòu)上的探索,再次證明了Richard S. Sutton提出的哲學(xué)思想:使用通用方法,然后借助計(jì)算能力Scale Up。由于訓(xùn)練大規(guī)模參數(shù)的模型成本非常高,例如,公開(kāi)資料顯示Llama3 405B參數(shù)模型的訓(xùn)練成本約為6000萬(wàn)美金,所以科研團(tuán)隊(duì)可以先在一個(gè)小規(guī)模參數(shù)的模型上驗(yàn)證其能力,然后再Scale up。
DeepSeek團(tuán)隊(duì)也受此啟發(fā),在2024年初,先從16B參數(shù)規(guī)模開(kāi)始,發(fā)布了DeepSeek-MoE v1;接著在2024年中,把參數(shù)規(guī)模擴(kuò)展至145B,發(fā)布了DeepSeek-MoE v2; 到DeepSeek-MoE v3時(shí),參數(shù)規(guī)模到671B。DeepSeek的Scale Up的成功,也再次證明了《AI演進(jìn)的核心哲學(xué)》。
五,啟示2:個(gè)人初學(xué)者可以把GPT-2作為學(xué)習(xí)起點(diǎn)
從學(xué)習(xí)的角度,對(duì)個(gè)人初學(xué)者來(lái)說(shuō),本文認(rèn)為GPT-2是最佳的Decoder-Only架構(gòu)模型的學(xué)習(xí)起點(diǎn):
1. GPT-2算是GPT系列模型真正的起點(diǎn)(GPT-1可以算Decoder-Only架構(gòu)的技術(shù)驗(yàn)證PoC)。
2. GPT-2的模型參數(shù)規(guī)模適中,能讓讀者成功實(shí)現(xiàn)完整的預(yù)訓(xùn)練過(guò)程,且花費(fèi)不大。
3. GPT-2是GPT系列中唯一的開(kāi)源模型,有標(biāo)準(zhǔn)代碼實(shí)現(xiàn)可以借鑒。
4. 通過(guò)動(dòng)手編寫GPT-2模型并完成預(yù)訓(xùn)練,可以完整學(xué)到Transformer架構(gòu)的大語(yǔ)言模型的核心知識(shí)
若你對(duì)更多的大語(yǔ)言模型的演進(jìn)感興趣,可以進(jìn)一步閱讀《A Survey of Large Language Models》。
鏈接:
《A Survey of Large Language Models》: https://arxiv.org/pdf/2303.18223
如果你有更好的文章,歡迎投稿!
稿件接收郵箱:nami.liu@pasuntech.com
更多精彩內(nèi)容請(qǐng),關(guān)注“算力魔方?”!
審核編輯 黃宇
-
GPT
+關(guān)注
關(guān)注
0文章
368瀏覽量
16037 -
OpenAI
+關(guān)注
關(guān)注
9文章
1206瀏覽量
8799
發(fā)布評(píng)論請(qǐng)先 登錄
【「大模型啟示錄」閱讀體驗(yàn)】對(duì)本書(shū)的初印象
【「大模型啟示錄」閱讀體驗(yàn)】如何在客服領(lǐng)域應(yīng)用大模型
【「大模型啟示錄」閱讀體驗(yàn)】對(duì)大模型更深入的認(rèn)知
【「大模型啟示錄」閱讀體驗(yàn)】營(yíng)銷領(lǐng)域大模型的應(yīng)用
GPT系列的“高仿” 最大可達(dá)GPT-3大小 自主訓(xùn)練
超越GPT 3.5的小型語(yǔ)言模型案例概述
GPT/GPT-2/GPT-3/InstructGPT進(jìn)化之路
AI大語(yǔ)言模型的原理、演進(jìn)及算力測(cè)算專題報(bào)告

評(píng)論