(5/7 마감) 최대 13억! AX 원스톱 바우처 지원사업 수요기업 모집

국내 최초 스팟 GPU 요금제 출시

(4월 한정) H100・B200 21% 할인 프로모션

Elice Brand Logo

고객 사례

고해상도 비전・언어 모델을 위한 GPU 인프라 - 노타 ERGO 연구 사례

클라우드

고해상도 비전・언어 모델을 위한 GPU 인프라 - 노타 ERGO 연구 사례

AI 모델을 더 빠르고 가볍게 만드는 기업, 노타노타는 AI 모델의 경량화와 효율적인 배포를 전문으로 하는 AI 최적화 기업입니다. AI 모델의 성능은 빠르게 발전하고 있지만, 실제 산업 환경에서는 높은 연산 비용과 응답 지연, 하드웨어 제약으로 인해 현장 적용에 한계가 따릅니다. 노타는 모델 경량화, 하드웨어 친화적 최적화, On-device AI 배포 기술을 고도화해 이 간극을 줄이는 데 집중하고 있습니다.최근에는 Vision-Language 모델의 효율적인 추론과 산업 적용에 전략적으로 집중하고 있으며, 그 중심에는 엘리스클라우드를 활용한 Vision Agent 형태의 고해상도 추론 모델 연구가 있습니다. AI 연구에서 GPU 인프라를 선택하는 기준, 비용 효율과 안정성AI 모델 연구, 특히 강화학습 기반 실험은 수백 번의 반복 실험이 필수입니다. 어떤 보상 설계를 쓰는지, 어떤 하이퍼파라미터(머신러닝/딥러닝 모델을 학습시키기 전, 사용자(개발자)가 직접 설정하는 초기 환경 설정값) 조합을 택하는지에 따라 모델 성능이 민감하게 달라지기 때문에 다양한 조건을 빠르게 시도하고 결과를 검증하는 사이클이 연구의 핵심입니다.이 과정에서 GPU 메모리가 충분해야 더 큰 데이터 묶음을 한 번에 처리하고 다양한 학습 전략을 시도할 수 있는데 인프라가 중간에 불안정해지면 이미 진행된 실험을 처음부터 다시 시작해야 하는 리스크가 생깁니다. 마감이 다가올수록 실험은 늘고 시간은 부족해지는 연구 환경에서, GPU 자원의 안정성과 비용 효율은 연구자가 실험 본연에 집중할 수 있는지를 결정하는 요소입니다.국내 AI 연구 환경에서는 이 문제가 더욱 두드러집니다. 대학 연구실이나 스타트업 단계의 AI 기업은 자체 GPU 서버를 충분히 갖추기 어렵고, 글로벌 클라우드 서비스는 비용 부담이 크거나 국내 데이터 처리 요건을 충족하기 어려운 경우가 많습니다. 그 결과 많은 연구팀이 제한된 자원 안에서 실험 횟수를 줄이거나, 인프라 관리에 시간을 빼앗기는 상황을 반복하고 있습니다. 반복 실험을 중단 없이 이어간 엘리스클라우드 환경노타는 ERGO 고도화 과정에서 충분한 GPU 메모리를 합리적인 비용으로 확보하면서도 장시간 학습과 반복 실험을 중단 없이 이어갈 수 있는 환경이 필요했습니다."엘리스클라우드가 연구에 집중할 수 있는 안정적인 인프라 환경을 제공하는 것을 가장 강조하고 싶습니다. 충분한 VRAM 자원을 합리적인 비용으로 확보할 수 있다는 점과 장시간 학습 및 실험을 중단 없이 운영할 수 있는 안정성은 실제 연구 생산성과 직결됩니다." — 노타 연구팀고해상도 이미지를 처리할수록 커지는 연산 비용과 구조적 한계를 해결한 ERGO노타가 엘리스클라우드에서 진행한 연구는 고해상도 이미지 처리의 구조적 비효율을 해결하는 데서 출발했습니다. 스마트폰 카메라, 의료영상, 산업용 카메라 등 AI 기반 이미지 분석 수요는 빠르게 늘고 있지만, 정확도를 높일수록 연산 비용과 응답 지연이 함께 커지는 한계가 있었습니다.노타는 엘리스클라우드 환경에서 이 접근 방식을 전환했습니다. 이미지 전체를 고해상도로 처리하는 대신, 문맥과 질문을 바탕으로 중요한 영역을 먼저 추론하고 해당 부분만 집중적으로 재처리하는 방식입니다. ERGO는 강화학습 기반 보상 설계를 통해 모델이 스스로 핵심 영역을 선택·정밀 처리하는 능력을 학습하여 경량화를 구현했습니다. ▲ 노타 ERGO 구현 방식 안정적인 실험 환경이 만든 결과, ICLR 2026 채택인프라가 안정적으로 유지된 덕분에 노타는 실험 설계에 집중하며 다양한 조합을 빠르게 검증할 수 있었습니다. 그 결과 ERGO는 전체 Vision token의 약 23%만 활용하면서도 동일한 연산 예산 조건에서 더 높은 벤치마크 성능을 달성했고, 추론 속도는 최대 3배 단축되었습니다. 실제 배포 엔진인 vLLM과의 호환성도 유지했습니다. ▲ Vision token의 23%만으로 동일 조건 대비 최대 3배 빠른 추론 속도를 달성한 노타 ERGO이 연구는 구글·메타·딥마인드 등 글로벌 AI 연구기관들이 최신 성과를 발표하는 ICLR(International Conference on Learning Representations) 2026에 채택되며 연구의 독창성과 기술적 완성도를 국제적으로 검증받았습니다. 효율적인 AI 배포를 향한 다음 단계노타는 앞으로도 Vision-Language 모델의 효율적인 배포와 산업 현장 적용을 위한 연구를 이어갈 계획입니다. ERGO를 통해 고해상도 시각 이해 분야에서 효율 중심의 접근이 학술적으로도, 실용적으로도 유효하다는 것을 확인한 만큼, 이를 기반으로 더 다양한 산업 환경에 적용 가능한 Vision Agent 기술로 발전시켜 나갈 예정입니다.엘리스클라우드는 노타와 같이 반복적인 실험과 대규모 학습이 필요한 AI 연구 기업이 연구 본연에 집중할 수 있도록 안정적이고 비용 효율적인 GPU 인프라 환경을 제공합니다. AI 모델 연구 단계의 반복 실험부터 고도화까지, AI 기업이 기술 개발에 집중할 수 있는 기반을 만드는 것이 엘리스클라우드의 목표입니다.

지놈케어: 유전체 분석과 LLM 서비스를 동시에 운영하는 GPU 클라우드 전환기

클라우드

지놈케어: 유전체 분석과 LLM 서비스를 동시에 운영하는 GPU 클라우드 전환기

유전체 기반 정밀 진단 솔루션 기업, 지놈케어 지놈케어는 유전체 분석 기술과 AI를 결합하여 정밀 진단 솔루션을 제공하는 바이오 기업입니다. 2012년 설립 이후, 생물정보학 기술을 기반으로 산전 진단 분야에서 다양한 유전체 기반 검사 서비스를 개발해왔습니다.대표 서비스로는 산모의 혈액만으로 태아의 염색체 이상 여부를 분석하는 비침습 산전 검사 서비스 '프리시젼 제노맘(Precision Genomom)'과 착상 전 배아 유전체 검사 서비스 '지노브로(GenoBro)'가 있습니다. 연구와 서비스, 사내 GPU 자원 활용의 한계유전체 분석은 사람의 유전 정보를 대량으로 읽어낸 뒤 질병과 관련된 패턴을 찾아내는 작업입니다. 데이터의 양이 방대한 만큼, 이를 빠르고 정확하게 처리하려면 고성능 연산 장치인 GPU가 필수적입니다. 최근에는 유전체 분석뿐 아니라 AI 챗봇이나 업무 자동화 같은 서비스를 개발·운영하는 데에도 GPU가 필요해지면서, GPU 자원에 대한 수요가 빠르게 늘고 있습니다.지놈케어 역시 유전체 데이터 분석, AI 모델 학습, AI 기반 서비스 개발을 동시에 수행하는 환경에서 같은 어려움을 겪고 있었습니다. 기존에는 사내에 직접 구축한 서버를 역할별로 나누어 운영했지만, 서버와 GPU 수가 한정되어 있다 보니 여러 작업이 동시에 몰리면 자원을 적절히 배분하기 어려웠습니다.예를 들어 대량의 유전체 데이터를 분석하는 동안에는 서버의 자원이 대다수 점유되어, 같은 시간에 진행해야 하는 다른 서비스 운영 작업이 지연되는 일이 반복되었습니다."연구 및 서비스 수요에 따라 자원을 유연하게 확장하기 어려운 점이 한계로 작용하면서 보다 효율적이며 경제적으로 자원을 활용할 수 있는 환경에 대한 필요성을 느끼고 있었습니다." — 지놈케어 R&D본부 황창회 책임연구원고성능 GPU, 비용 효율성, 보안 기준을 동시에 충족한 엘리스클라우드지놈케어가 엘리스클라우드를 선택한 가장 큰 이유는 고성능 GPU 인프라입니다. AI 모델 학습뿐 아니라 LLM 기반 서비스 운영, AI 에이전트(특정 목적에 맞게 자율적으로 작업을 수행하는 AI 시스템) 개발까지 다양한 작업을 안정적으로 처리하려면, 여러 워크로드를 동시에 감당할 수 있는 GPU 환경이 필수적이었습니다.비용 효율성도 중요한 판단 기준이었습니다. 대규모 유전체 데이터 분석과 LLM 연구개발을 병행하는 환경에서는 GPU 사용 비용이 운영 전반에 직접적인 영향을 미칩니다. 엘리스클라우드는 해외 주요 클라우드 대비 최대 80% 수준까지 비용 절감이 가능하여, 같은 예산으로 더 많은 연구 자원을 확보할 수 있다는 점이 매력적이었습니다.아울러 유전체 데이터는 개인정보와 밀접하게 연관되어 있어, 클라우드의 보안 수준 역시 도입 여부를 결정짓는 핵심 요소였습니다. 엘리스클라우드는 ISO, CSAP 등 국내·국제 보안 인증 기준을 충족하고 있어, 민감한 데이터를 다루는 연구개발 환경에서도 안전하게 운영할 수 있다는 점이 도입 결정에 힘을 실었습니다. LLM 챗봇 서비스부터 AI 에이전트 기반 업무 자동화까지현재 지놈케어는 엘리스클라우드를 유전체 데이터 기반 AI 모델 연구는 물론, LLM을 활용한 고객 서비스와 AI 에이전트를 통한 업무 자동화에까지 활용하고 있습니다.가장 대표적인 활용 사례는 태아 유전체 검사와 관련된 고객 문의에 자동으로 응답하는 챗봇 '지노챗(GenoChat)'입니다. 지노챗은 엘리스클라우드의 GPU 기반 서버 환경에서 배포·운영되며, 사용자의 질문에 실시간으로 답변하는 구조로 구성되어 있습니다. 빠르고 안정적인 응답 성능이 요구되는 서비스 특성상, 고성능 GPU 인프라가 뒷받침되는 환경이 필수적이었습니다. ▲ 지노챗 샘플 화면 업무 자동화를 위한 AI 에이전트 시스템 역시 엘리스클라우드 위에서 운영됩니다. 엘리스클라우드에서 제공하는 n8n, Dify 같은 워크플로우 자동화 도구와 서버리스 API(별도 서버 관리 없이 필요할 때만 실행되는 방식의 API)를 결합하여, 업계 뉴스 모니터링 및 동향 분석, 검사 데이터 조회 및 요약, 정기 업무 보고서 자동 작성 등 반복적인 업무를 자동화하고 있습니다. 이를 통해 연구 인력이 본연의 분석과 개발에 집중할 수 있는 환경을 만들어가고 있습니다. ▲ 실제 지놈케어의 업계 뉴스 모니터링 시스템 예시 연구·서비스 환경 분리로 처리 병목 해소, 운영 효율 개선엘리스클라우드 도입 이후 지놈케어에서 가장 크게 달라진 점은 연구 환경과 서비스 운영 환경을 명확하게 분리할 수 있게 되었다는 것입니다. 실제 서비스에 사용되는 유전체 분석 전용 서버는 기존 자체 서버 환경으로 유지하면서, AI 모델 학습과 LLM 기반 서비스 배포는 엘리스클라우드로 이관하여 필요에 따라 자원을 유연하게 늘리거나 줄일 수 있는 구조를 갖추었습니다.그 결과, 연산량이 높은 연구 프로젝트를 진행하면서 동시에 대량의 유전체 분석 서비스를 안정적으로 운영하는 것이 가능해졌습니다. 기존에 특정 서버에 부하가 몰려 발생하던 처리 병목이 해소되면서 작업 지연이 크게 줄었고, 전체적인 운영 효율과 처리 성능이 개선되었습니다. 바이오 AI 기업을 위한 GPU 클라우드, 엘리스클라우드지놈케어는 앞으로도 엘리스클라우드를 기반으로 유전체 분석 AI 모델 고도화와 LLM 기반 서비스 확장을 이어갈 계획입니다."엘리스클라우드는 서비스 운영과 연구개발을 병행하는 바이오·AI 기업에 있어, 연구 생산성과 인프라 운영 효율을 동시에 개선할 수 있는 실질적인 선택지입니다." — 지놈케어 R&D본부 황창회 책임연구원유전체 분석과 AI 연구를 병행하면서 GPU 인프라 확보에 어려움을 겪고 있다면 지놈케어의 엘리스클라우드 전환 사례를 확인해보세요.

서울대학교 언어심리연구실: 자체 서버 관리 부담을 없애고 딥러닝 실험 속도를 높인 방법

클라우드

서울대학교 언어심리연구실: 자체 서버 관리 부담을 없애고 딥러닝 실험 속도를 높인 방법

서울대학교 언어심리연구실은 어떤 연구를 하나요?서울대학교 언어심리연구실은 안구 운동 분석을 통한 글 읽기 과정 연구, 대형 언어 모델(LLM) 아키텍처 탐구, 한국어 의미망 구축 등을 주요 과제로 삼고 있는 연구 그룹입니다. 석사과정생 2명과 박사과정생 1명으로 구성된 소규모 연구실이지만 인지과학과 언어학, 딥러닝이 교차하는 영역에서 다양한 연구를 진행하고 있습니다.첫 번째는 한국어 의미망 구축입니다. LLM(대형 언어 모델)은 방대한 텍스트를 학습하는 과정에서 단어들 사이의 관계를 수치로 계산합니다. 연구실은 이 계산 방식을 분석해, 한국어 단어들이 서로 어떤 의미적 관계를 맺고 있는지를 체계적으로 정리한 지도, 즉 의미망을 구축하는 연구를 진행하고 있습니다.두 번째는 해석 가능한 신경망 모델 설계입니다. 기존 AI 모델은 왜 그런 결과를 냈는지 사람이 이해하기 어렵다는 한계가 있습니다. 연구실은 이 문제를 해결하기 위해 물리학의 동역학 원리를 빌려 모델의 내부 구조 자체를 새롭게 설계하는 시도를 하고 있습니다.두 연구 모두 아키텍처를 설계하고 즉각 학습·평가하는 반복 사이클이 핵심인 만큼, GPU 컴퓨팅 환경의 속도와 안정성이 연구 진척 속도와 직결됩니다. 연구원이 직접 서버를 관리할 때 생기는 문제엘리스클라우드 도입 이전, 연구실은 자체 서버를 주된 연구 환경으로 운영하고 있었습니다. 필요에 따라 국가 지원 사업을 신청해 외부 컴퓨팅 자원을 보완적으로 활용하기도 했지만, 상시 사용이 가능한 환경은 아니었기에 연구의 중심은 자체 서버에 놓여 있었습니다.전담 서버 관리자 없이 연구원들이 직접 인프라 운영과 장애 대응을 맡아야 하는 구조에서 가장 큰 문제는 예기치 못한 상황이 발생했을 때였습니다. 서울대학교 건물 리모델링으로 연구실 이전이 불가피해지면서 서버 설정이 변경되는 상황이 발생했고, 문제 해결에 상당한 시간이 소요되면서 일정 기간 연구가 실질적으로 중단되기도 했습니다.딥러닝 실험 속도 측면의 제약도 있었습니다. 자체 서버의 GPU는 최신 딥러닝 연구에서 요구하는 연산 성능과는 격차가 있었습니다. 아키텍처를 수정하고 결과를 확인하는 실험 사이클이 하루 1회 수준에 그쳤고, 다음 수정 작업은 다음 날에야 시작할 수 있었습니다. 연구실이 GPU 클라우드를 선택할 때 고려해야 할 것서울대학교 언어심리연구실은 자체 서버의 대안을 모색하는 과정에서 여러 외부 클라우드 서비스를 검토했습니다. 연구실 환경 특성상 고려해야 할 기준은 크게 두 가지였습니다. 연구 예산에 맞는 가격 구조, 그리고 별도 학습 없이 바로 쓸 수 있는 사용 편의성입니다.연구실은 인프라에 투입할 수 있는 예산이 제한적입니다. 비용 구조를 비교했을 때 엘리스클라우드는 연구 예산에 적합한 수준이었고, 사용한 만큼만 과금되는 온디맨드 방식과 필요에 따라 GPU 자원을 자유롭게 생성하고 삭제할 수 있는 구조 덕분에 실험이 없는 기간에는 불필요한 비용을 줄일 수 있었습니다.사용 편의성 측면에서도 인터페이스와 사용 방법이 간단해 별도의 설정이나 학습 없이 곧바로 연구에 투입할 수 있다는 점이 자체 서버를 대체할 환경을 빠르게 확보해야 하는 상황에서 실질적인 결정 요인이 되었습니다. 연구실이 필요로 한 것은 인프라를 관리하는 환경이 아니라, 딥러닝 실험에 집중할 수 있는 환경이었습니다. 엘리스클라우드로 딥러닝 실험 환경 구성하기현재 연구실은 엘리스클라우드를 주로 모델 학습과 평가 단계에서 활용하고 있습니다. GPU 환경은 A100 위주로 구성되어 있습니다. 향후 학습 데이터 규모가 확대되거나 대용량 텍스트 데이터 전반을 대상으로 한 평가가 필요해지면 H100 활용도 검토할 계획입니다.연구 방식의 특성상 모델 구조를 새롭게 설계한 뒤 제대로 작동하는지를 실시간으로 확인하며 구조를 수정하는 과정이 반복됩니다. 클라우드 서버를 자유롭게 생성하고 삭제할 수 있어 실험 환경 구성에 드는 시간도 기존 대비 크게 줄었습니다. GPU 클라우드 전환 후 달라진 딥러닝 실험 속도엘리스클라우드 도입 이후 연구실에서 가장 크게 체감한 변화는 딥러닝 실험 속도입니다.기존 자체 서버 환경에서는 아키텍처를 설계하고 코드를 실행하면 결과 확인과 수정 작업은 다음 날에야 가능했습니다. 엘리스클라우드로 전환한 뒤에는 당일 아키텍처 수정을 2~3회까지 진행할 수 있을 정도로 실험 사이클이 단축되었습니다.실험 횟수가 늘어난다는 것은 같은 기간 안에 더 많은 설계 방향을 시도해볼 수 있다는 의미입니다. 단순히 연구 시간이 절약되는 것을 넘어, 더 다양한 가설을 검증할 수 있게 되어 연구의 폭과 질 모두에 실질적인 영향을 주었습니다. 엘리스클라우드 활용 연구 성과 — 안구 운동 양자 인지모델 논문 발표엘리스클라우드를 활용한 대표적인 연구 성과로는 2025년 8월 발표된 논문 "Quantum Walk Dynamics in Modeling Eye Fixation Duration Distributions"(이하 '논문')이 있습니다.사람이 글을 읽을 때 눈은 한 곳에 고정되었다가 다음 단어로 이동하는 동작을 반복합니다. 이때 눈이 한 곳에 머무는 시간, 즉 '시선 고정 시간'은 독자가 해당 단어를 얼마나 어렵게 처리하는지를 반영하는 지표로 알려져 있습니다. 기존 연구들은 이 시선 고정 시간의 분포를 고전적인 통계 모형으로 설명해왔습니다.이 연구는 물리학에서 입자의 이동 경로를 설명하는 데 쓰이는 양자 역학 기반의 양자 보행(Quantum Walk) 모델을 인지 연구에 적용해, 시선 고정 시간의 패턴을 보다 정밀하게 설명할 수 있는지를 탐색했습니다. 모델이 실제 안구 운동 데이터에 얼마나 잘 들어맞는지 반복적으로 검증하는 과정에서 상당한 계산량이 수반되었으며, 엘리스클라우드를 활용해 이를 안정적으로 수행함으로써 결과의 재현성과 신뢰성을 확보할 수 있었습니다. ▲ 양자 보행 모델로 생성한 시선 고정 시간 분포(출처: 논문) 멀티모달·대규모 연구로 확장, 다음 단계를 위한 GPU 인프라 준비현재 연구실은 A100 환경에서 모델의 기본 구조를 검증하는 단계에 있습니다. 앞으로는 언어 데이터뿐 아니라 시각 데이터 등 여러 종류의 데이터를 함께 다루는 멀티모달 연구로 확장할 계획이며, 이에 따라 더 큰 규모의 컴퓨팅 자원이 필요해질 것으로 예상하고 있습니다.연구원이 직접 서버를 관리하는 대신 GPU 클라우드를 활용하면 연구 규모의 변화에 따라 자원을 유연하게 조정할 수 있고 인프라 운영에 들어가는 시간을 연구에 온전히 집중하는 데 쓸 수 있습니다. 엘리스클라우드는 앞으로도 대학 연구실을 포함한 AI 연구 조직이 인프라 운영 부담 없이 연구에 집중할 수 있도록 합리적인 비용 구조와 안정적인 GPU 클라우드 환경을 제공할 예정입니다.

검색 결과가 없습니다.

올인원 AI 교육 솔루션, 엘리스와 함께 시작하세요

AI 인프라부터 플랫폼까지, 내게 필요한 맞춤 솔루션을 알아보고 싶다면