Meta于2024年1月29日發(fā)布了名為CodeLlama 70B的開(kāi)源大模型。據(jù)Meta介紹,這是CodeLlama家族中規(guī)模最大、性能最優(yōu)的模型版本。
CodeLlama 70B是基于Transformer架構(gòu)構(gòu)建的,擁有700億個(gè)參數(shù)。它在一個(gè)包含1.6萬(wàn)億個(gè)代碼字符的數(shù)據(jù)集上進(jìn)行訓(xùn)練。
Meta表示,CodeLlama 70B在多項(xiàng)編程任務(wù)上都取得了優(yōu)異的性能。例如,在HumanEval基準(zhǔn)測(cè)試中,CodeLlama 70B在根據(jù)文檔字符串補(bǔ)全代碼的能力方面,比Llama2模型提高了10%。在MostlyBasicPythonProgramming(MBPP)基準(zhǔn)測(cè)試中,CodeLlama 70B在根據(jù)描述編寫(xiě)代碼的能力方面,比Llama2模型提高了20%。
這將有助于開(kāi)發(fā)人員更輕松地編寫(xiě)和維護(hù)代碼,可以用于自動(dòng)生成代碼、檢測(cè)代碼錯(cuò)誤和改進(jìn)代碼質(zhì)量。