AI21 Labs가 만든 새로운 인공지능 모델인 Jamba는 생성적 AI 모델이 갖고 있는 일반적인 상황 제약을 극복하면서도 더 적은 처리 능력을 필요로 합니다. 업계는 긴 논의에 대한 일관성을 향상시키지만 더 높은 처리 요구 사항을 희생하는 경우가 많은 중요한 컨텍스트 처리 기능을 갖춘 모델로 전환하고 있습니다. 또는 AI21 Labs의 제품 책임자인 Dagan은 보다 효과적인 전략을 달성할 수 있다고 주장하고 최신 모델인 Jamba를 통해 이를 보여줍니다.
AI 모델의 컨텍스트 창은 대화 흐름과 데이터 분석을 유지하는 데 필수적입니다. 창이 클수록 대화의 흐름을 포착하고 유지하는 데 더 좋은 반면, 창이 작을수록 최근 상호 작용을 빨리 잊어버리게 됩니다. AI21 Labs의 Jamba는 대량의 데이터를 처리하고 다양한 언어를 다룰 수 있는 최첨단 텍스트 생성 및 분석 모델로 Google의 Gemini 및 OpenAI의 ChatGPT와 같은 잘 알려진 모델의 성능에 필적합니다.
Jamba의 주목할만한 기능 중 하나는 단일 고급 GPU에서 최대 140,000개의 토큰을 관리할 수 있는 능력입니다. 이는 대략 210페이지 분량의 소설에 해당합니다. 더 적은 메모리 요구 사항으로 더 작은 컨텍스트 창을 관리하는 Meta의 Llama 2와 비교할 때 이 기능은 훨씬 더 많습니다.
Jamba는 긴 데이터 시퀀스로 컴퓨팅 효율성을 제공하는 상태 공간 모델(SSM)과 복잡한 추론으로 인식되는 변환기를 결합한 아키텍처로 인해 독특합니다. 오픈 소스 모델 Mamba와 같은 SSM은 더 긴 컨텍스트에서 모델의 효율성과 처리량을 향상시키는 반면 변환기는 들어오는 데이터의 관련성을 결정하는 데 탁월합니다. 이로 인해 Jamba는 비슷한 크기의 변압기 모델보다 3배 더 효율적입니다.
Jamba는 향상된 성능과 효율성을 약속하는 대규모 상용 모델에 SSM을 사용한 선구적인 예입니다. 이후 릴리스에서 안전 조치와 개선 사항을 추가할 목적으로 오픈 소스 라이선스에 따라 연구원들이 사용할 수 있게 되었습니다. Dagan에 따르면 Jamba는 단일 GPU에서 모델 성능을 완전히 변화시킬 수 있는 능력을 갖추고 있으며 이는 AI의 효율성과 설계에 있어서 획기적인 발전이 될 것입니다.
Code Labs Academy의 실습 데이터 과학 및 AI 부트캠프를 통해 AI와 빅데이터 분야의 미래를 확보하세요.