Jamba, un nou model de inteligență artificială creat de AI21 Labs, depășește constrângerile tipice de context pe care le au modelele AI generative, în timp ce necesită mai puțină putere de procesare. Industria se îndreaptă către modele cu capacități semnificative de procesare a contextului, care îmbunătățesc coerența în timpul discuțiilor mai lungi, dar deseori vin în detrimentul unor cerințe mai mari de procesare. Sau Dagan, responsabilul de produs la AI21 Labs, afirmă că o strategie mai eficientă este realizabilă și o ilustrează cu cel mai recent model al lor, Jamba.
Ferestrele de context ale modelelor AI sunt esențiale pentru păstrarea fluxului de dialog și analiză a datelor. Ferestrele mai mari sunt mai bune la captarea și susținerea fluxului conversației, în timp ce ferestrele mai mici fac rapid uitarea interacțiunilor recente. Jamba de la AI21 Labs este un model de ultimă oră pentru crearea și analiza de text care poate gestiona cantități mari de date și poate acoperi numeroase limbi, rivalizând cu puterea modelelor binecunoscute precum Gemini de la Google și ChatGPT de la OpenAI.
O caracteristică notabilă a Jamba este capacitatea sa de a gestiona până la 140.000 de jetoane pe un singur GPU high-end - aproximativ echivalentul unui roman de 210 de pagini. În comparație cu Llama 2 de la Meta, care gestionează o fereastră de context mai mică, cu mai puține cerințe de memorie, această capacitate este substanțial mai mare.
Jamba este unică datorită arhitecturii sale, care combină modele spațiale de stat (SSM), care oferă eficiență de calcul cu secvențe lungi de date, cu transformatoare recunoscute pentru raționamentul lor complicat. În timp ce SSM-urile, cum ar fi modelul open-source Mamba, îmbunătățesc eficiența și debitul modelului în contexte mai lungi, transformatoarele sunt excelente în determinarea relevanței datelor primite. Acest lucru face ca Jamba să fie de trei ori mai eficient decât modelele de transformatoare de dimensiuni similare.
Jamba este un exemplu de pionierat al utilizării SSM în modele comerciale la scară largă, care promite performanțe și eficiență îmbunătățite. A fost pus la dispoziția cercetătorilor sub o licență open-source cu intenția de a adăuga măsuri de siguranță și îmbunătățiri în versiunile ulterioare. Jamba, potrivit lui Dagan, are capacitatea de a transforma complet performanța modelului pe un singur GPU, ceea ce ar fi o descoperire majoră în eficiența și designul AI.
- Asigurați-vă viitorul în AI și big data cu Code Labs Academy Code Labs Academy Data Science and AI Bootcamp.*