Code Llama van Meta benadert GPT-4 in nauwkeurigheid van codegeneratie


Dima Solomin/Unsplash

Meta heeft zijn grote taalmodel voor het genereren van code Code Llama 70B bijgewerkt. Volgens de ontwikkelaar komt de nauwkeurigheid nu in de buurt van OpenAI's GPT-4.

Dit is wat we weten

Volgens Meta kan de bijgewerkte Code Llama 70B meer zoekopdrachten verwerken en nauwkeurigere resultaten produceren. Het scoorde 53% op de nauwkeurigheidsmeter in de HumanEval test. Ter vergelijking, GPT-3.5 heeft een score van 48,1 procent en GPT-4 heeft een score van 67 procent.

Code Llama van Meta helpt programmeurs om codefragmenten te genereren op basis van hints en om bestaande programma's te debuggen. Het 70B-model is getraind op 1 TB aan programmeergegevens. Het is gratis beschikbaar voor onderzoek en bedrijven.

Meta introduceerde eerder al taalspecifieke tools Code Llama Python en Code Llama Instruct. Nu zegt het bedrijf dat zijn AI-modellen "de beste resultaten laten zien in het helpen van ontwikkelaars".

Bron: The Verge

var _paq = window._paq = window._paq || []; _paq.push(['trackPageView']); _paq.push(['enableLinkTracking']); (function() { var u='//mm.magnet.kiev.ua/'; _paq.push(['setTrackerUrl', u+'matomo.php']); _paq.push(['setSiteId', '22']); var d=document, g=d.createElement('script'), s=d.getElementsByTagName('script')[0]; g.async=true; g.src=u+'matomo.js'; s.parentNode.insertBefore(g,s); })();