Meta 大模型Llama 3 發(fā)布
2024.04.20
當(dāng)?shù)貢r間4月18日,Meta在官網(wǎng)上宣布公布了旗下最新大模型Llama 3。目前,Llama 3已經(jīng)開放了80億(8B)和700億(70B)兩個小參數(shù)版本,上下文窗口為8k。Meta表示,通過使用更高質(zhì)量的訓(xùn)練數(shù)據(jù)和指令微調(diào),Llama 3比前代Llama 2有了“顯著提升”。
未來,Meta將推出Llama 3的更大參數(shù)版本,其將擁有超過4000億參數(shù)。Meta也將在后續(xù)為Llama 3推出多模態(tài)等新功能,包括更長的上下文窗口,以及Llama 3研究論文。
Meta在公告中寫道:“通過Llama 3,我們致力于構(gòu)建能夠與當(dāng)今最優(yōu)秀的專有模型相媲美的開源模型。我們想處理開發(fā)者的反饋,提高Llama 3 的整體實用性,同時,繼續(xù)在負(fù)責(zé)地使用和部署LLM(大型語言模型)方面發(fā)揮領(lǐng)先作用?!?/p>
18日當(dāng)天,Meta股價(Nasdaq:META)收于每股501.80美元,漲1.54%,總市值1.28萬億美元。
“目前市場上最好的開源大模型”
據(jù)Meta介紹,Llama 3已經(jīng)在多種行業(yè)基準(zhǔn)測試上展現(xiàn)了最先進(jìn)的性能,提供了包括改進(jìn)的推理能力在內(nèi)的新功能,是目前市場上最好的開源大模型。
在架構(gòu)層面,Llama3選擇了標(biāo)準(zhǔn)的僅解碼(decoder-only)式Transformer架構(gòu),采用包含128K token詞匯表的分詞器。Llama 3在Meta自制的兩個24K GPU集群上進(jìn)行預(yù)訓(xùn)練,使用了超過15T的公開數(shù)據(jù),其中5%為非英文數(shù)據(jù),涵蓋30多種語言,訓(xùn)練數(shù)據(jù)量是前代Llama 2的七倍,包含的代碼數(shù)量是Llama 2的四倍。
根據(jù)Meta的測試結(jié)果,Llama 3 8B模型在MMLU、GPQA、HumanEval等多項性能基準(zhǔn)上均超過了Gemma 7B和Mistral 7B Instruct,70B模型則超越了名聲在外的閉源模型Claude 3的中間版本Sonnet,和谷歌的Gemini Pro 1.5相比三勝兩負(fù)。
Llama 3在多項性能基準(zhǔn)上表現(xiàn)出眾。來源:Meta官網(wǎng)
在常規(guī)數(shù)據(jù)集之外,Meta還致力于優(yōu)化Llama 3在實際場景中的性能,為此專門研發(fā)了一套高質(zhì)量的人工測試集。該測試集包含1800條數(shù)據(jù),涵蓋了尋求建議、封閉式問題回答、頭腦風(fēng)暴、編碼、寫作等12個關(guān)鍵用例,并對開發(fā)團(tuán)隊保密。
在這套測試集中,從結(jié)果來看,Llama 3的成績大幅超越了Llama 2,也勝過了Claude 3 Sonnet、Mistral Medium和GPT-3.5這些知名模型。
Llama 3在人工測試集上取得優(yōu)異成績。來源:Meta官網(wǎng)
而Llama 3的400B+模型雖然仍在訓(xùn)練中,Meta也展現(xiàn)了其部分測試成果,似乎旨在對標(biāo)Claude 3的最強(qiáng)版本Opus。不過,Meta沒有公布Llama 3更大參數(shù)模型和GPT-4等同規(guī)格選手的對比成果。
仍在訓(xùn)練中的Llama 3的400B+模型。來源:Meta官網(wǎng)
Llama 3模型即將在亞馬遜AWS、Databricks、谷歌云、Hugging Face、Kaggle、IBM WatsonX、亞馬遜Azure、英偉達(dá)NIM和Snowflake上被提供給開發(fā)者,并獲得 AMD、AWS、戴爾、英特爾、英偉達(dá)和高通提供的硬件平臺支持。為了讓Llama 3被負(fù)責(zé)地開發(fā),Meta還將提供新的信任和安全工具,包括Llama Guard 2、Code Shield和CyberSec Eval 2。
同時,Meta發(fā)布了基于Llama3的官方Web版本Meta AI。目前,該平臺仍處于初級階段,只有對話和繪畫兩大功能。用戶使用對話功能無需通過注冊,使用繪畫功能則需要用戶注冊登錄賬號。
為開源社區(qū)注入活力
Meta的AI道路向來與開源緊密相連,Llama 3一經(jīng)推出,受到了開源社區(qū)的熱烈歡迎。
雖然也有一些對于Llama 3的8k上下文窗口過小的吐槽,但Meta方面表示,很快就會擴(kuò)充Llama 3的上下文窗口。電子郵件初創(chuàng)企業(yè)Otherside AI的CEO兼聯(lián)合創(chuàng)始人馬特·舒默(Matt Shumer)對此也保持樂觀,并表示:“我們正在走入一個新世界,在這里,GPT-4級別的模型是開源并可以免費(fèi)訪問的。”
英偉達(dá)高級研究科學(xué)家范麟熙(Jim Fan)表示,即將推出的更大參數(shù)Llama 3模型標(biāo)志著開源社區(qū)的一個“分水嶺”,可以改變許多學(xué)術(shù)研究和初創(chuàng)企業(yè)的決策方式,“預(yù)計整個生態(tài)系統(tǒng)中的活力將會激增”。
不過,值得注意的是,Meta沒有公布Llama 3的訓(xùn)練數(shù)據(jù),只稱其全部來自公開數(shù)據(jù)。而從嚴(yán)格意義上來說,所謂的“開源”軟件應(yīng)當(dāng)在開發(fā)與分發(fā)的過程中,將包括軟件產(chǎn)品的源代碼、訓(xùn)練數(shù)據(jù)等內(nèi)容對公眾完全開放。此前,數(shù)據(jù)公司Databricks發(fā)布的“最強(qiáng)開源大模型”DBRX除了擁有遠(yuǎn)超出普通計算機(jī)的標(biāo)準(zhǔn)配置外,也存在這一問題。
Llama 3的推出緊跟在Meta自研芯片取得進(jìn)步之后。就在上周,Meta公布了自主研發(fā)芯片MTIA的最新版本。MTIA是Meta專門為AI訓(xùn)練和推理工作設(shè)計的定制芯片系列。和去年五月官宣的Meta第一代AI推理加速器MTIA v1相比,最新版本芯片在性能上有顯著提升,專為Meta旗下社交軟件的排名和推薦系統(tǒng)而設(shè)計。分析指出,Meta的目標(biāo)是降低對英偉達(dá)等芯片廠商的依賴。