AI21 Labs의 생성 AI에 대한 Jamba의 혁신적인 접근 방식

AI21 Labs의 생성 AI에 대한 Jamba의 혁신적인 접근 방식

AI21 Labs가 만든 새로운 인공지능 모델인 Jamba는 생성적 AI 모델이 갖고 있는 일반적인 상황 제약을 극복하면서도 더 적은 처리 능력을 필요로 합니다. 업계는 긴 논의에 대한 일관성을 향상시키지만 더 높은 처리 요구 사항을 희생하는 경우가 많은 중요한 컨텍스트 처리 기능을 갖춘 모델로 전환하고 있습니다. 또는 AI21 Labs의 제품 책임자인 Dagan은 보다 효과적인 전략을 달성할 수 있다고 주장하고 최신 모델인 Jamba를 통해 이를 보여줍니다.

AI 모델의 컨텍스트 창은 대화 흐름과 데이터 분석을 유지하는 데 필수적입니다. 창이 클수록 대화의 흐름을 포착하고 유지하는 데 더 좋은 반면, 창이 작을수록 최근 상호 작용을 빨리 잊어버리게 됩니다. AI21 Labs의 Jamba는 대량의 데이터를 처리하고 다양한 언어를 다룰 수 있는 최첨단 텍스트 생성 및 분석 모델로 Google의 Gemini 및 OpenAI의 ChatGPT와 같은 잘 알려진 모델의 성능에 필적합니다.

Jamba의 주목할만한 기능 중 하나는 단일 고급 GPU에서 최대 140,000개의 토큰을 관리할 수 있는 능력입니다. 이는 대략 210페이지 분량의 소설에 해당합니다. 더 적은 메모리 요구 사항으로 더 작은 컨텍스트 창을 관리하는 Meta의 Llama 2와 비교할 때 이 기능은 훨씬 더 많습니다.

Jamba는 긴 데이터 시퀀스로 컴퓨팅 효율성을 제공하는 상태 공간 모델(SSM)과 복잡한 추론으로 인식되는 변환기를 결합한 아키텍처로 인해 독특합니다. 오픈 소스 모델 Mamba와 같은 SSM은 더 긴 컨텍스트에서 모델의 효율성과 처리량을 향상시키는 반면 변환기는 들어오는 데이터의 관련성을 결정하는 데 탁월합니다. 이로 인해 Jamba는 비슷한 크기의 변압기 모델보다 3배 더 효율적입니다.

Jamba는 향상된 성능과 효율성을 약속하는 대규모 상용 모델에 SSM을 사용한 선구적인 예입니다. 이후 릴리스에서 안전 조치와 개선 사항을 추가할 목적으로 오픈 소스 라이선스에 따라 연구원들이 사용할 수 있게 되었습니다. Dagan에 따르면 Jamba는 단일 GPU에서 모델 성능을 완전히 변화시킬 수 있는 능력을 갖추고 있으며 이는 AI의 효율성과 설계에 있어서 획기적인 발전이 될 것입니다.


Code Labs Academy의 실습 데이터 과학 및 AI 부트캠프를 통해 AI와 빅데이터 분야의 미래를 확보하세요.

Code Labs Academy © 2025 판권 소유.