(5/7 마감) 최대 13억! AX 원스톱 바우처 지원사업 수요기업 모집

국내 최초 스팟 GPU 요금제 출시

(4월 한정) H100・B200 21% 할인 프로모션

Elice Brand Logo

고객

노타

도입 서비스

클라우드

고해상도 비전・언어 모델을 위한 GPU 인프라 - 노타 ERGO 연구 사례

고해상도 비전・언어 모델을 위한 GPU 인프라 - 노타 ERGO 연구 사례

고객

노타

도입 서비스

클라우드


AI 모델을 더 빠르고 가볍게 만드는 기업, 노타


노타는 AI 모델의 경량화와 효율적인 배포를 전문으로 하는 AI 최적화 기업입니다. AI 모델의 성능은 빠르게 발전하고 있지만, 실제 산업 환경에서는 높은 연산 비용과 응답 지연, 하드웨어 제약으로 인해 현장 적용에 한계가 따릅니다. 노타는 모델 경량화, 하드웨어 친화적 최적화, On-device AI 배포 기술을 고도화해 이 간극을 줄이는 데 집중하고 있습니다.

최근에는 Vision-Language 모델의 효율적인 추론과 산업 적용에 전략적으로 집중하고 있으며, 그 중심에는 엘리스클라우드를 활용한 Vision Agent 형태의 고해상도 추론 모델 연구가 있습니다.

AI 연구에서 GPU 인프라를 선택하는 기준, 비용 효율과 안정성

AI 모델 연구, 특히 강화학습 기반 실험은 수백 번의 반복 실험이 필수입니다. 어떤 보상 설계를 쓰는지, 어떤 하이퍼파라미터(머신러닝/딥러닝 모델을 학습시키기 전, 사용자(개발자)가 직접 설정하는 초기 환경 설정값) 조합을 택하는지에 따라 모델 성능이 민감하게 달라지기 때문에 다양한 조건을 빠르게 시도하고 결과를 검증하는 사이클이 연구의 핵심입니다.

이 과정에서 GPU 메모리가 충분해야 더 큰 데이터 묶음을 한 번에 처리하고 다양한 학습 전략을 시도할 수 있는데 인프라가 중간에 불안정해지면 이미 진행된 실험을 처음부터 다시 시작해야 하는 리스크가 생깁니다. 마감이 다가올수록 실험은 늘고 시간은 부족해지는 연구 환경에서, GPU 자원의 안정성과 비용 효율은 연구자가 실험 본연에 집중할 수 있는지를 결정하는 요소입니다.

국내 AI 연구 환경에서는 이 문제가 더욱 두드러집니다. 대학 연구실이나 스타트업 단계의 AI 기업은 자체 GPU 서버를 충분히 갖추기 어렵고, 글로벌 클라우드 서비스는 비용 부담이 크거나 국내 데이터 처리 요건을 충족하기 어려운 경우가 많습니다. 그 결과 많은 연구팀이 제한된 자원 안에서 실험 횟수를 줄이거나, 인프라 관리에 시간을 빼앗기는 상황을 반복하고 있습니다.

반복 실험을 중단 없이 이어간 엘리스클라우드 환경

노타는 ERGO 고도화 과정에서 충분한 GPU 메모리를 합리적인 비용으로 확보하면서도 장시간 학습과 반복 실험을 중단 없이 이어갈 수 있는 환경이 필요했습니다.

"엘리스클라우드가 연구에 집중할 수 있는 안정적인 인프라 환경을 제공하는 것을 가장 강조하고 싶습니다. 충분한 VRAM 자원을 합리적인 비용으로 확보할 수 있다는 점과 장시간 학습 및 실험을 중단 없이 운영할 수 있는 안정성은 실제 연구 생산성과 직결됩니다." — 노타 연구팀


고해상도 이미지를 처리할수록 커지는 연산 비용과 구조적 한계를 해결한 ERGO

노타가 엘리스클라우드에서 진행한 연구는 고해상도 이미지 처리의 구조적 비효율을 해결하는 데서 출발했습니다. 스마트폰 카메라, 의료영상, 산업용 카메라 등 AI 기반 이미지 분석 수요는 빠르게 늘고 있지만, 정확도를 높일수록 연산 비용과 응답 지연이 함께 커지는 한계가 있었습니다.

노타는 엘리스클라우드 환경에서 이 접근 방식을 전환했습니다. 이미지 전체를 고해상도로 처리하는 대신, 문맥과 질문을 바탕으로 중요한 영역을 먼저 추론하고 해당 부분만 집중적으로 재처리하는 방식입니다. ERGO는 강화학습 기반 보상 설계를 통해 모델이 스스로 핵심 영역을 선택·정밀 처리하는 능력을 학습하여 경량화를 구현했습니다.

0e649ece-859c-41ea-934c-4f6467da7f1f.png
▲ 노타 ERGO 구현 방식

안정적인 실험 환경이 만든 결과, ICLR 2026 채택

인프라가 안정적으로 유지된 덕분에 노타는 실험 설계에 집중하며 다양한 조합을 빠르게 검증할 수 있었습니다. 그 결과 ERGO는 전체 Vision token의 약 23%만 활용하면서도 동일한 연산 예산 조건에서 더 높은 벤치마크 성능을 달성했고, 추론 속도는 최대 3배 단축되었습니다. 실제 배포 엔진인 vLLM과의 호환성도 유지했습니다.
Gemini_Generated_Image_q6e1qiq6e1qiq6e1.png
▲ Vision token의 23%만으로 동일 조건 대비 최대 3배 빠른 추론 속도를 달성한 노타 ERGO

이 연구는 구글·메타·딥마인드 등 글로벌 AI 연구기관들이 최신 성과를 발표하는 ICLR(International Conference on Learning Representations) 2026에 채택되며 연구의 독창성과 기술적 완성도를 국제적으로 검증받았습니다.

효율적인 AI 배포를 향한 다음 단계

노타는 앞으로도 Vision-Language 모델의 효율적인 배포와 산업 현장 적용을 위한 연구를 이어갈 계획입니다. ERGO를 통해 고해상도 시각 이해 분야에서 효율 중심의 접근이 학술적으로도, 실용적으로도 유효하다는 것을 확인한 만큼, 이를 기반으로 더 다양한 산업 환경에 적용 가능한 Vision Agent 기술로 발전시켜 나갈 예정입니다.

엘리스클라우드는 노타와 같이 반복적인 실험과 대규모 학습이 필요한 AI 연구 기업이 연구 본연에 집중할 수 있도록 안정적이고 비용 효율적인 GPU 인프라 환경을 제공합니다. AI 모델 연구 단계의 반복 실험부터 고도화까지, AI 기업이 기술 개발에 집중할 수 있는 기반을 만드는 것이 엘리스클라우드의 목표입니다.

안정적이고 비용 효율적인 클라우드 인프라가 필요하다면

AI의 모든 것, 엘리스클라우드로 한 번에 시작하고 싶다면?

엘리스클라우드 도입을 원하시나요? 무료로 시작해보세요.