사전 빌드된 이미지로 수분 내 워크스페이스 생성. 스냅샷으로 버전 고정.
GPU 워크스페이스 / 노트북
브라우저에서 바로 GPU 개발 환경을 실행하세요. JupyterLab / VS Code 기반 워크스페이스에 PyTorch / CUDA 사전 구성, 스냅샷과 팀 협업까지. 네트워크는 디도스 보호(프록시) 옵션을 연동할 수 있습니다. 요금은 별도문의로 안내합니다.
CUDA/cuDNN, PyTorch, transformers, bitsandbytes 등 최적화 옵션.
프로젝트/VPC 격리, 보안그룹, "디도스 보호(프록시)" 옵션 연동.
GPU/CPU/메모리 조정, 예약/자동 중지로 비용 최적화.
환경 / 개발 툴
| 영역 | 구성 | 설명 |
|---|---|---|
| IDE | JupyterLab, VS Code Server | 브라우저 접근, 확장(SSH-remote, Python, Copilot류) 지원 |
| 런타임 | Python/Conda, Mamba, Node, CUDA | 프로젝트별 가상환경, 캐시/패키지 고정 |
| 컨테이너 | Docker(옵션) | 이미지로 이식성 확보, CI/CD와 연동 |
| 접속 | SSO/SSH, 토큰 | 권한/역할(IAM)과 연동 |
| 협업 | Git, 노트북 공유 | 읽기/편집 권한 및 실행 토큰 분리 |
- 예: RTX 6000 Ada(48GB)
- 소/중규모 추론, 시각화, 경량 튜닝
- 최대 동시 세션 수 제한 존재
- 예: L40S(48GB)
- 멀티모달 추론/RAG, 중간 규모 튜닝
- FP8/TF32 최적화 경로
- 예: A100 80GB
- 대형 LLM 파인튜닝/고성능 추론
- NVLink/멀티 GPU(옵션)
사양 표(예시)
| GPU | VRAM | vCPU / RAM | 저장소 | 용도 |
|---|---|---|---|---|
| RTX 6000 Ada | 48GB | 8~16 vCPU / 32~64GB | NVMe 200~500GB | 경량 튜닝 / 시각화 |
| L40S | 48GB | 16~32 vCPU / 64~128GB | NVMe 400GB~1TB | 중간 규모 학습/추론 |
| A100 | 80GB | 32~64 vCPU / 128~256GB | NVMe 1~2TB | 대규모 LLM 튜닝 |
| * 재고/옵션은 리전/기간에 따라 상이. 실제 구성은 상담 후 확정. | ||||
원클릭 템플릿
예시: Llama 추론
pip install transformers accelerate bitsandbytes
python - <<'PY'
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
m = 'meta-llama/Llama-3.1-8B-Instruct'
tok = AutoTokenizer.from_pretrained(m)
model = AutoModelForCausalLM.from_pretrained(m, torch_dtype=torch.float16, device_map='auto')
print(model.generate(**tok('Hello, world!', return_tensors='pt').to(model.device), max_new_tokens=32))
PY
예시: 간단 RAG
pip install llama-index sentence-transformers faiss-cpu
python - <<'PY'
from llama_index.core import SimpleDirectoryReader, VectorStoreIndex
from llama_index.core.node_parser import SimpleNodeParser
from llama_index.core import Settings
from sentence_transformers import SentenceTransformer
Settings.embed_model = SentenceTransformer('sentence-transformers/all-MiniLM-L6-v2')
docs = SimpleDirectoryReader('docs').load_data()
index = VectorStoreIndex.from_documents(docs)
print(index.as_query_engine().query('요약해줘'))
PY
예시: SFT 파인튜닝
pip install trl peft accelerate transformers datasets bitsandbytes
python - <<'PY'
from trl import SFTTrainer
from transformers import AutoTokenizer, AutoModelForCausalLM
model='meta-llama/Llama-3.1-8B'
tok=AutoTokenizer.from_pretrained(model)
mdl=AutoModelForCausalLM.from_pretrained(model, load_in_8bit=True, device_map='auto')
trainer=SFTTrainer(model=mdl, tokenizer=tok, train_dataset=[{'text':'hello'}], max_seq_length=512)
trainer.train()
PY
예시: 이미지 생성
pip install diffusers accelerate transformers safetensors
python - <<'PY'
from diffusers import StableDiffusionPipeline
import torch
p = StableDiffusionPipeline.from_pretrained('runwayml/stable-diffusion-v1-5', torch_dtype=torch.float16).to('cuda')
img = p('a cozy workspace with a GPU').images[0]
img.save('out.png')
PY
네트워크 / 보안
| 항목 | 구성 | 비고 |
|---|---|---|
| VPC/서브넷 | 프로젝트 격리, 프라이빗 라우팅 | 보안그룹/네트워크 ACL 연동 |
| 퍼블릭 엑세스 | 도메인+TLS, 포트 제한 | IP 허용목록, 세션 시간 제한 |
| 디도스 보호(프록시) | L4/L7 프록시, 레이트 제한 | WAF/봇 차단(옵션) |
| 감사/로그 | 접속/실행 이벤트 기록 | SIEM/웹훅 연동 |
스토리지 / 스냅샷
| 영역 | 옵션 | 설명 |
|---|---|---|
| 워크스페이스 | NVMe SSD | 프로젝트/캐시용 고속 로컬 디스크 |
| 데이터셋 | 파일 스토리지(NFS/SMB) | 공유 마운트, 액세스 제어 |
| 오브젝트 | S3 호환 | 모델/체크포인트 버저닝 |
| 스냅샷 | 이미지/스냅샷 | 한 클릭 복원/복제 |
가격 안내
요금: 별도문의
GPU 종류/수량, vCPU·RAM, 스토리지 용량/종류, 네트워크(egress), 디도스 보호(프록시) 옵션, 이용 시간(온디맨드/예약)에 따라 산정됩니다.
GPU 워크스페이스로 바로 실험하고 배포하세요
요건을 알려주시면 최적의 GPU/스토리지 구성을 제안드립니다.
GPU 워크스페이스 상담
ℹ️
개인정보 처리 안내
문의 응대를 위해서만 사용되며 일정 기간 후 파기됩니다.