온디바이스 AI 최적화 전문 기업, 옵트에이아이(OptAI)
옵트에이아이(OptAI)는 클라우드에서 학습된 AI 모델을 스마트폰, PC, 차량, 로봇 등 다양한 엣지 디바이스(Edge Device, 네트워크 말단에서 데이터를 직접 처리하는 기기)에서 효율적으로 동작하도록 변환·최적화하는 소프트웨어 기술을 개발하는 기업입니다. "Any Model, Any Device"라는 비전 아래 어떤 AI 모델이든 다양한 디바이스 환경에서 안정적으로 실행할 수 있는 기술을 개발하고 있습니다.

▲ 옵트에이아이의 대표 온디바이스 AI 모델, Opt-Hancer
실험을 반복할수록 커지는 GPU 인프라 부담
온디바이스 AI 모델을 개발하려면 양자화(모델의 연산 정밀도를 낮춰 크기와 연산량을 줄이는 기법) 방식, 압축 비율, 컴파일 설정 등 수많은 변수를 조합해 실험하고 결과를 즉시 비교하는 과정을 반복해야 합니다. LLM(대규모 언어 모델)이나 VLM(이미지와 텍스트를 함께 처리하는 대형 AI 모델)처럼 모델 규모가 커질수록 한 번의 실험에 필요한 연산량도 크게 늘어나기 때문에, 충분한 GPU 자원을 안정적으로 확보하는 것이 연구 속도를 좌우합니다.
옵트에이아이 역시 GPU 자원 부족으로 실험 대기 시간이 길어지고, 환경 설정·관리에 드는 운영 부담, 분산된 데이터로 인한 팀 간 협업의 어려움을 겪고 있었습니다.
합리적인 비용과 우수한 보안까지, 엘리스클라우드를 선택한 이유
이를 해결하기 위해 클라우드 서비스를 검토하는 과정에서 엘리스클라우드를 선택한 데에는 두 가지 이유가 있었습니다.
첫째는 비용 대비 GPU 성능과 안정성입니다. 업계에서 비용 대비 서비스 품질이 높다는 평가를 받아왔다는 점이 중요한 기준이었습니다.
둘째는 데이터 보안과 운영 안정성입니다. 국내 데이터센터 기반으로 운영되기 때문에 보안과 컴플라이언스 측면에서 안심할 수 있었고, 장애 발생 시 담당 팀과 직접 소통하며 빠르게 해결할 수 있는 환경이 갖춰져 있었습니다. 엘리스클라우드는 국내 AI PMDC 최초로 CSAP IaaS 인증을 획득했으며, ISO 27001·27701 등 국제 정보보호 인증도 보유하고 있습니다.
맞춤형 GPU 인프라 기반의 모델 최적화 실험
옵트에이아이의 연구팀은 엘리스클라우드를 LLM·VLM·오디오 모델 실험, 모델 양자화 및 성능 평가, 온디바이스 추론(클라우드 없이 디바이스 자체에서 AI가 연산하는 방식) 최적화, 모델 경량화 연구에 활용하고 있습니다. 대표 솔루션 OptHancer는 스마트폰, 태블릿, AI PC 등 제조사와 칩 구조가 서로 다른 디바이스를 대상으로 최적화를 수행하기 때문에, 디바이스 조합이 다양해질수록 실험 횟수가 크게 늘어납니다. 이처럼 실험 규모가 유동적인 환경에서 GPU 자원을 탄력적으로 확보할 수 있는 엘리스클라우드의 인프라가 핵심 역할을 하고 있습니다.
데이터허브로 체계화한 연구 데이터 관리
온디바이스 AI 연구에서는 다양한 데이터셋과 실험 결과가 지속적으로 생성됩니다. 기존에는 이 데이터가 여러 스토리지와 개인 환경에 흩어져 있어 팀 간 공유와 실험 재현이 어려웠습니다. 엘리스클라우드 데이터허브를 도입한 이후에는 데이터셋 관리, 실험 결과 저장, 모델 버전 관리가 하나의 플랫폼에서 이루어지고 있습니다. 연구자가 데이터를 개별적으로 관리하던 방식에서, 팀 전체가 동일한 환경 위에서 연구 워크플로우를 공유하는 방식으로 전환된 것입니다.
하루 단위 실험을 시간 단위로, 모델 실험 사이클 30~50% 단축
![[고객사례] 옵트-1 (1).png](/_next/image?url=https%3A%2F%2Fcdn-cms.elice.io%2Felice-strapi%2F1_1_581b7a8ae9.png%3Fsp%3Dracwd%26st%3D2022-07-11T09%253A43%253A29Z%26se%3D2032-07-11T17%253A43%253A29Z%26spr%3Dhttps%26sv%3D2021-06-08%26sr%3Dc%26sig%3DXE8S5Wrx%252F6RCT1tL2PGNsACU1NvYYJAo7lDuH65zn1A%253D%26width%3D4000%26height%3D2250&w=3840&q=75)
▲ 엘리스클라우드 도입 전후 AI 모델 실험 속도 비교 — 실험 사이클 30~50% 단축
엘리스클라우드 도입 이후 가장 두드러진 변화는 실험 속도입니다. GPU 실험 대기 시간이 크게 줄면서 모델 실험 사이클이 약 30~50% 단축되었고, LLM·VLM 모델 최적화 실험은 하루 단위에서 시간 단위로 전환되었습니다.
데이터허브를 활용하며 데이터 관리와 환경 설정에 소요되던 시간이 줄어들면서 연구자들은 실험 자체에 더 집중할 수 있게 되었습니다. GPU 환경이 안정적으로 운영되면서 인프라 문제로 작업이 중단되는 상황도 줄었습니다.
모바일 NPU 실시간 추론을 향한 다음 단계
옵트에이아이는 앞으로 비전-언어 모델 개발과 모바일 환경 AI 모델 최적화 연구를 확대할 계획입니다. 특히 모바일 NPU 환경에서 실시간 AI 추론을 구현하는 연구를 진행하며, 엘리스클라우드의 GPU 인프라와 데이터허브를 지속적으로 활용할 예정입니다.




