17 de setembre de 2024
Meta, com moltes altres empreses tecnològiques líders, ha desenvolupat el seu propi model d'IA generativa conegut com a Llama. El que diferencia a Llama és la seva naturalesa oberta, que permet als desenvolupadors descarregar-lo i utilitzar-lo amb una llibertat considerable, tot i que hi ha algunes condicions a tenir en compte. Aquest enfocament contrasta amb models com Claude d'Anthropic, GPT-4o d'OpenAI (el motor darrere de ChatGPT) i Gemini de Google, que només estan disponibles mitjançant API.
Per oferir als desenvolupadors més flexibilitat, Meta s'ha associat amb proveïdors de serveis al núvol com AWS, Google Cloud i Microsoft Azure per oferir versions allotjades al núvol de Llama. A més, Meta ha creat eines que simplifiquen el procés perquè els desenvolupadors puguin ajustar i adaptar el model per satisfer els seus requisits específics.
A continuació es mostra una descripció detallada de Llama, que inclou què pot fer, les diferents versions que ofereix i com podeu utilitzar-lo de manera eficaç.
Què és la Llama?
Llama no és només un model; inclou una varietat de models, com ara:
-
Llama 8B
-
Llama 70B
-
Llama 405B
Les versions més recents (Llama 3.1 8B, Llama 3.1 70B i Llama 3.1 405B) es van publicar el juliol de 2024. Aquests models estan formats en una àmplia gamma de fonts de dades, com ara pàgines web en diferents idiomes, codi públic, fitxers disponibles en línia., i dades sintètiques produïdes per altres sistemes d'IA.
El Llama 3.1 8B i 70B són models compactes que poden executar una varietat de dispositius, des d'ordinadors portàtils fins a servidors. El Llama 3.1 405B, d'altra banda, és un model a gran escala que normalment requereix maquinari del centre de dades. Tot i que els models més petits poden no ser tan potents com el 405B, ofereixen un rendiment més ràpid i estan optimitzats per reduir l'emmagatzematge i la latència.
Tots els models de Llama disposen d'una finestra de context de 128.000 fitxes, que els permet gestionar unes 100.000 paraules (o 300 pàgines de text). Aquesta és aproximadament la llargada de llibres com Wuthering Heights o Harry Potter i el presoner d'Azkaban. Una finestra de context llarga ajuda el model a retenir la informació dels documents i dades recents, reduint el risc de desviar-se del tema.
Què pot fer la Llama?
Igual que altres models d'IA generativa, Llama pot ajudar amb una varietat de tasques, com ara codificar, respondre preguntes de matemàtiques senzilles i resumir documents en vuit idiomes: anglès, alemany, francès, italià, portuguès, hindi, espanyol i tailandès. Pot gestionar la majoria de tasques basades en text, com ara l'anàlisi de fitxers com PDF i fulls de càlcul, però actualment no té la capacitat de generar o processar imatges, cosa que podria canviar en el futur.
Els models Llama es poden integrar amb aplicacions, eines i API de tercers per dur a terme una varietat de tasques. Estan configurats per utilitzar Brave Search per respondre preguntes sobre esdeveniments actuals, l'API Wolfram Alpha per a consultes de matemàtiques i ciències i un intèrpret de Python per a la validació del codi. Segons Meta, Llama 3.1 fins i tot pot utilitzar algunes eines en què no s'ha entrenat explícitament, tot i que la fiabilitat d'aquesta funció encara és incerta.
On pots utilitzar la llama?
Si voleu connectar-vos directament amb Llama, l'experiència de xat de Meta AI és compatible amb plataformes com Facebook Messenger, WhatsApp, Instagram, Oculus i Meta.ai.
Per als desenvolupadors, Llama està disponible per a la seva descàrrega i es pot escalar a diverses plataformes de núvol populars. Meta s'ha associat amb més de 25 empreses per allotjar Llama, incloses Nvidia, Databricks, Groq, Dell i Snowflake. Molts d'aquests socis proporcionen eines addicionals que permeten a Llama accedir a dades de propietat o funcionar de manera més eficient.
Meta suggereix utilitzar els models de Llama més petits, concretament els 8B i 70B, per a finalitats generals com ara executar chatbots o crear codi. D'altra banda, la Llama 405B més gran és més adequada per a tasques com la destil·lació de models, que implica transferir coneixement d'un model més gran a un de més petit, així com generar dades sintètiques per entrenar altres models.
Els desenvolupadors que operen aplicacions amb més de 700 milions d'usuaris mensuals han d'adquirir una llicència especial de Meta per accedir a Llama, i aquesta s'atorgarà a criteri de Meta.
Quines eines ofereix Meta per a Llama?
Meta ha introduït diverses eines per millorar la seguretat de Llama:
-
Guàrdia de flama: un marc de moderació que identifica contingut problemàtic com ara el discurs de l'odi, l'autolesió i la infracció dels drets d'autor.
-
Prompt Guard: Una eina dissenyada específicament per protegir Llama de missatges nocius que pretenen eludir les seves mesures de seguretat.
-
CyberSecEval: Una suite d'avaluació de riscos de ciberseguretat que avalua la seguretat del model, centrada en amenaces com l'enginyeria social automatitzada i les activitats cibernètiques ofensives.
Per exemple, Llama Guard pot detectar contingut nociu o il·legal que s'introdueix o es genera a Llama, la qual cosa permet als desenvolupadors personalitzar quines categories estan bloquejades. Prompt Guard se centra a defensar-se dels "atacs d'injecció de missatges" que intenten manipular el model. CyberSecEval ofereix punts de referència per avaluar els riscos de seguretat associats als models Llama.
Limitacions de la Llama
La llama, com altres models d'IA generativa, té les seves limitacions i riscos potencials. Una de les principals preocupacions és si Meta va utilitzar materials amb drets d'autor per entrenar a Llama. Si aquest és el cas, els usuaris podrien fer front a la responsabilitat de qualsevol contingut amb drets d'autor que generi el model.
Informes recents indiquen que Meta ha estat utilitzant llibres electrònics amb drets d'autor per a la formació en IA, tot i haver rebut advertències legals. L'empresa també incorpora contingut d'Instagram i Facebook a la seva formació de models, cosa que dificulta la desactivació dels usuaris. Meta s'enfronta a múltiples demandes, inclosa una d'autors com Sarah Silverman, que afirmen que la companyia ha utilitzat material amb drets d'autor sense permís.
Una consideració important és la programació, ja que Llama podria produir codi amb errors o insegur. És fonamental que els desenvolupadors tinguin un expert humà que revisi qualsevol codi generat per IA abans d'implementar-lo a les seves aplicacions.
Tot i que el model Llama de Meta ofereix una flexibilitat i oportunitats considerables per als desenvolupadors, és important reconèixer els possibles riscos i limitacions que l'acompanyen.
–
Proporcionat per Code Labs Academy - Your Leading Online Coding Bootcamp per a futurs innovadors tecnològics.