분 단위 제공, 컨테이너/이미지로 즉시 시작. 예약/장기 약정(옵션).
GPU 인스턴스 (AI/ML Compute)
학습(Training)부터 추론(Inference)·비디오 처리까지. NVIDIA GPU 기반 환경을 컨테이너/드라이버와 함께 제공하며, 요금은 모두 별도문의로 안내합니다.
단일/멀티 GPU, 혼합 인스턴스, 전용 호스트(옵션).
드라이버·CUDA 관리, 네트워크 정책/보안그룹, 프라이빗 액세스.
GPU/CPU/메모리/디스크/네트워크 메트릭 및 로깅 제공.
라인업(예시)
필터:
| 인스턴스 | GPU | VRAM(GB) | vCPU | RAM(GB) | 로컬 SSD(GB) | 네트워크 | 용도 | 요금 |
|---|---|---|---|---|---|---|---|---|
| g-A10.1x | A10 | 24 | 8 | 32 | 300 | 10GbE | 추론/비디오 | 별도문의 |
| g-A100.40-1x | A100 | 40 | 32 | 128 | 1000 | 25GbE | 학습/파인튜닝 | 별도문의 |
| g-A100.80-4x | A100 ×4 | 320 | 64 | 256 | 2000 | 100GbE(옵션) | 대규모 학습 | 별도문의 |
| g-L4.1x | L4 | 24 | 16 | 64 | 600 | 25GbE | 비디오 트랜스코딩/서비스 | 별도문의 |
| g-RTX6000.1x | RTX 6000 Ada | 48 | 16 | 64 | 600 | 10GbE | 시각화/렌더링 | 별도문의 |
| * 표는 예시입니다. 실제 라인업/사양/요금은 상담 후 확정됩니다. | ||||||||
성능/옵션(협의 제공)
MIG/멀티‑GPU
MIG 분할(가능 모델 한정) 또는 NVLink/멀티 카드 구성.
혼합 정밀도
FP16/BF16/TF32 등으로 속도·메모리 최적화.
예약/전용 호스트
장기 예약/전용 서버로 성능 고정 및 보안 강화.
모니터링
GPUutil/VRAM/온도·전력 등 실시간 지표/알림.
소프트웨어 스택
드라이버/런타임
- NVIDIA Driver, CUDA, cuDNN(버전 고정/호환성 관리)
- Docker + NVIDIA Container Runtime
- PyTorch/TensorFlow 등 프레임워크 컨테이너
샘플 명령
# 드라이버 확인 nvidia-smi # GPU 접근 권한으로 컨테이너 실행 docker run --rm --gpus all nvidia/cuda:12.3.0-base-ubuntu22.04 nvidia-smi
프레임워크 테스트(PyTorch)
python - <<'PY'
import torch
print('cuda available:', torch.cuda.is_available())
print('device count:', torch.cuda.device_count())
print('name:', torch.cuda.get_device_name(0) if torch.cuda.is_available() else 'N/A')
PY
스토리지
로컬 NVMe
고성능 임시 디스크(체크포인트/캐시).
블록/네트워크 스토리지
확장 가능한 볼륨, NFS/Ceph 등 공유 스토리지.
스냅샷/백업
주기 스냅샷과 원격 백업(옵션).
데이터 이행
초기 적재/이전 지원(오프라인/온라인).
네트워크
대역폭
10/25/40/100GbE(협의), 퍼블릭/프라이빗 세그먼트.
보안그룹
인바운드/아웃바운드 정책, 고정 IP(옵션).
로드밸런서
L4/L7 분산 및 헬스체크.
프라이빗 액세스
VPC/전용선/피어링으로 내부 리소스 연동.
배포/예제
Docker Compose
version: "3.9"
services:
trainer:
image: nvcr.io/nvidia/pytorch:24.05-py3
deploy:
resources:
reservations:
devices: [ { capabilities: ["gpu"] } ]
volumes: ["./data:/data"]
command: ["python", "train.py", "--epochs", "3"]
환경 체크
# CUDA/드라이버 확인 nvidia-smi --query-gpu=name,driver_version,memory.total --format=csv # NCCL 테스트(멀티 GPU 환경) # (환경에 맞게 수정) export NPROC_PER_NODE=4 mpirun -np $NPROC_PER_NODE --allow-run-as-root bash -lc 'echo NCCL OK'
요금 안내
요금: 별도문의
GPU 모델/수량, vCPU·RAM, 스토리지/네트워크 구성, 예약 기간(선택)에 따라 산정합니다. 워크로드별 최적 구성을 제안드려요.
GPU로 학습·추론을 바로 시작하세요
모델/데이터/예산을 알려주시면 최적 사양을 추천해드립니다.
GPU 인스턴스 상담
ℹ️
개인정보 처리 안내
문의 응대를 위해서만 사용되며 일정 기간 후 파기됩니다.