現(xiàn)在只用60行代碼,就能從0構(gòu)建GPT了! 想當(dāng)初,前特斯拉前AI總監(jiān)的minGPT和nanoGPT也都還要300行代碼。 這個(gè)60行代碼的GPT也有名字,博主將它命名為PicoGPT。 不過和此前minGPT和nanoGPT的教程不同,今天要講的這個(gè)博主的教程,更側(cè)重于代碼實(shí)現(xiàn)部分,模型的權(quán)重則用已經(jīng)訓(xùn)練好的。 對(duì)此,博主解釋稱這篇教程的重點(diǎn)在于提供一個(gè)簡(jiǎn)單且易于破解的完整技術(shù)介紹。 這對(duì)還不理解GPT背后概念的盆友,算是非常友好了。 還有網(wǎng)友稱贊,這篇博客介紹得非常清晰,第一部分尤為如此。 這篇介紹GPT模型的文章太好了,它比我之前看到的介紹都要清晰,至少在第一部分討論文本生成和取樣是這樣的。 目前,此項(xiàng)目在GitHub上標(biāo)星已破百,HackerNews上的點(diǎn)擊量也即將破千。 從GPT是什么講起 在介紹之前,還是需要說明一下,這篇教程不是完全零門檻,需要讀者提前熟悉Python、NumPy以及一些基本的訓(xùn)練神經(jīng)網(wǎng)絡(luò)。 教程的重點(diǎn)聚焦在技術(shù)介紹上,統(tǒng)共有六大部分: 什么是GPT? 按照慣例,在正式構(gòu)建GPT之前得先對(duì)它做一些基本介紹,教程從輸入/輸出、生成文本以及訓(xùn)練三個(gè)部分分別來講GPT是如何工作的。 在這趴,博主附上代碼,甚至還用了一些比喻來讓讀者們更好地理解GPT。 舉個(gè)栗子,在輸入這一部分,作者將句子比作一條繩子,tokenizer則會(huì)將其分割成一小段一小段(單詞),被稱作token。 又比如說,在生成文本這part介紹自動(dòng)回歸時(shí),博主直接貼上代碼: 在每次迭代中,它會(huì)將預(yù)測(cè)的token追加回輸入,這個(gè)預(yù)測(cè)未來值并將其添加回輸入的過程就是GPT被描述為自動(dòng)回歸的原因。 60行代碼怎么運(yùn)行? 了解完GPT的基本概念之后,就直接快進(jìn)到了如何在電腦上運(yùn)行這個(gè)PicoGPT。 博主先是甩出了他那只有60行的代碼: 然后從克隆存儲(chǔ)庫(kù),安裝依賴項(xiàng)等步驟一步步教你如何在電腦上運(yùn)行GPT。 其中,還不乏一些貼心的小tips,比如說如果使用的是M1 Macbook,那在運(yùn)行pip install之前,需要將requments.txt中的tensorflow更改為tensorflow-macos。 此外,對(duì)于代碼的四個(gè)部分:gpt2,generate,main以及fire.Fire(main),博主也有做詳細(xì)解釋。 等到代碼能夠運(yùn)行之后,下一步博主就準(zhǔn)備詳細(xì)介紹編碼器、超參數(shù)(hparams)以及參數(shù)(params)這三部分了。 直接在筆記本或者Python會(huì)話中運(yùn)行下面這個(gè)代碼: 一些必要的模型和tokenizer文件就直接下載到model/124M,編碼器、hparams和params也能直接加載。 更具體的內(nèi)容這里就不多說了,教程的鏈接已經(jīng)附在文末。 一些基礎(chǔ)神經(jīng)網(wǎng)絡(luò)層的介紹 這一趴涉及到的知識(shí)就更加基礎(chǔ)了,因?yàn)橄乱慌渴菍?shí)際GPT自身的架構(gòu),所以在此之前,需要了解一些非特定于GPT的更基本的神經(jīng)網(wǎng)絡(luò)層。 博主介紹了GeLU、Softmax函數(shù)以及Layer Normalization和Linear。 GPT架構(gòu) 終于!這部分要來講GPT自身的架構(gòu)了,博主從transformer的架構(gòu)引入。
GPT的架構(gòu)只使用了transformer中的解碼器堆棧(即圖表的右邊部分),并且其中的的“交叉注意”層也沒有用到。
隨后,博主將GPT的架構(gòu)總結(jié)成了三大部分: -文本 + 位置嵌入 -變壓器解碼器堆棧 -下一個(gè)token預(yù)測(cè)頭 并且還將這三部分用代碼展示了出來,是醬紫的: 再后面,就是關(guān)于這三部分的更多細(xì)節(jié)…… 測(cè)試構(gòu)建的GPT 這部分將全部的代碼組合在一起,就得到了gpt2.py,統(tǒng)共有120行代碼,刪除注釋和空格的話,就是60行。 然后測(cè)試一下! 結(jié)果是這樣的: 成功了! 一些后續(xù)補(bǔ)充 最后一部分,博主也總結(jié)了這短短60行代碼的不足:非常低效! 不過他還是給出了兩個(gè)可以讓GPT變高效的方法: -同時(shí)地而不是順序地執(zhí)行注意力計(jì)算。 -實(shí)現(xiàn) KV 緩存。 此外,博主還推薦了一些訓(xùn)練模型、評(píng)估模型以及改進(jìn)架構(gòu)的方法和教程。 感興趣的話,直接戳文末鏈接~ 作者介紹 Jay Mody,目前在加拿大一家NLP初創(chuàng)公司Cohere從事機(jī)器學(xué)習(xí)的工作,此前,他還分別在特斯拉和亞馬遜作為軟件工程師實(shí)習(xí)過一段時(shí)間。 除了這篇教程之外,小哥的博客網(wǎng)站上還有更新其他文章,并且都有附代碼~ 代碼傳送門:https://github.com/jaymody/picoGPT/blob/29e78cc52b58ed2c1c483ffea2eb46ff6bdec785/gpt2_pico.py#L3-L58 教程鏈接:https://jaykmody.com/blog/gpt-from-scratch/#putting-it-all-together |
免責(zé)聲明:本站部分文章和圖片均來自用戶投稿和網(wǎng)絡(luò)收集,旨在傳播知識(shí),文章和圖片版權(quán)歸原作者及原出處所有,僅供學(xué)習(xí)與參考,請(qǐng)勿用于商業(yè)用途,如果損害了您的權(quán)利,請(qǐng)聯(lián)系我們及時(shí)修正或刪除。謝謝!
始終以前瞻性的眼光聚焦站長(zhǎng)、創(chuàng)業(yè)、互聯(lián)網(wǎng)等領(lǐng)域,為您提供最新最全的互聯(lián)網(wǎng)資訊,幫助站長(zhǎng)轉(zhuǎn)型升級(jí),為互聯(lián)網(wǎng)創(chuàng)業(yè)者提供更加優(yōu)質(zhì)的創(chuàng)業(yè)信息和品牌營(yíng)銷服務(wù),與站長(zhǎng)一起進(jìn)步!讓互聯(lián)網(wǎng)創(chuàng)業(yè)者不再孤獨(dú)!
掃一掃,關(guān)注站長(zhǎng)網(wǎng)微信