반응형
Notice
Recent Posts
Recent Comments
Link
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
| 29 | 30 | 31 |
Tags
- 카오스 엔지니어링
- argocd
- blue/green
- knative
- xdp
- Kubernetes 인증
- CI/CD
- Kubernetes
- Litmus
- MLflow
- eBPF
- kubernetes operator
- Kopf
- opensearch
- serving
- 오퍼레이터
- mlops
- Continuous Deployment
- seldon core
- gitops
- Kubeflow
- opentelemetry
- CANARY
- keda
- Model Serving
- tekton
- nginx ingress
- Pulumi
- operator
- Argo
Archives
- Today
- Total
목록2026/03/02 (1)
Kubernetes 이야기
kubernetes에서 nvidia gpu 공유하기
최근 AI 워크로드가 kubernetes위에 배포되어 운영되는 사례가 증가하고 있다. kubernetes에서 nvidia gpu를 여러 instance 로 사용하기 위해서는 대표적으로 mig, time slicing, multi-process server (mps) 방식이 있다. 이 외에 가상화를 이용한 vGPU ( vGPU 라이선스 필요 ) 기술도 있다. 이 중 gpu 공유기술의 대표적인 mig, time slicing, multi-process server (mps) 를 알아보자. 아래 그림은 time slicing, mps, mig 를 이해하기 쉽게 표현한 그림이다.출처 : https://www.flaticon.com/kr/free-icon/gpu_1089003?related_id=1088744&..
Kubernetes/MLOps
2026. 3. 2. 19:08
