반응형
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- 카오스 엔지니어링
- blue/green
- xdp
- Kopf
- gitops
- eBPF
- MLflow
- argocd
- Argo
- Continuous Deployment
- tekton
- operator
- keda
- opensearch
- mlops
- 오퍼레이터
- nginx ingress
- CI/CD
- serving
- Pulumi
- Kubernetes
- CANARY
- Kubeflow
- Kubernetes 인증
- Litmus
- Model Serving
- seldon core
- opentelemetry
- kubernetes operator
- knative
Archives
- Today
- Total
목록bentoml (1)
Kubernetes 이야기
KServe, Seldon Core, BentoML 비교
기계 학습은 이제 수 많은 기업에서 사용된다. 기계 학습을 통해 나오는 모델은 모델만으로는 큰 가치가 없다. 기계 학습 모델이 개발되는 실험 단계에서 비즈니스에 가치를 제공하기 위해 모델을 제공할 수 있는 생산 단계로 빠르고 안정적으로 이동할 수 있는 것이 매우 중요하다. 이것을 Model Serving이라고 한다. Model Serving 프레임워크를 사용하면 다음을 수행 할 수 있다. API를 통해 모델과 상호 작용한다. 이 때문에 모델과 대화하는 모든 것은 훈련에 사용된 도구나 작성된 언어와 같은 내부 세부 정보를 알지 않고도 사용이 가능하다. 사용자 요구에 맞게 모델을 쉽게 확장한다. 이러한 Model Serving 을 위한 많은 도구들이 있다. 이 중 다음 요소를 고려하는 것이 좋다. 기계 학습..
Kubernetes/MLOps
2023. 4. 3. 20:15