GPU VM에서 대형 LLM 실행하기
이 문서는 Elice Cloud Infrastructure(ECI) 의 GPU 가상머신(VM) 에서 대형 언어 모델(LLM)을 실행하는 실습 가이드입니다.
ECI는 VM 생성 시 블록 스토리지 이미지 선택을 통해 GPU 실행 환경을 미리 구성할 수 있으며, 본 실습에서는 PyTorch가 사전 설치된 GPU 이미지를 사용해 추가 환경 설정 없이 바로 vLLM 기반 LLM 추론을 실행합니다.
실습 목표
이 문서를 완료하면 다음을 할 수 있습니다.
- ECI GPU VM 이미지 선택 방식 이해
- PyTorch가 포함된 GPU VM을 생성해 즉시 LLM 실행
- vLLM을 이용한 대형 LLM 로컬 추론
사전 준비 사항
- ECI 계정
- GPU 인스턴스 사용 가능 환경
- Public IP 설정