반응형
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- gitea
- CI/CD
- kubernetes operator
- opensearch
- CANARY
- Kubernetes 인증
- argo rollout
- 오퍼레이터
- seldon core
- mlops
- Kopf
- Pulumi
- Kubernetes
- knative
- Continuous Deployment
- Model Serving
- Argo
- MLflow
- opentelemetry
- 카오스 엔지니어링
- argocd
- keda
- blue/green
- gitops
- Kubeflow
- operator
- Litmus
- serving
- tekton
- nginx ingress
Archives
- Today
- Total
목록bentoml (1)
Kubernetes 이야기
KServe, Seldon Core, BentoML 비교
기계 학습은 이제 수 많은 기업에서 사용된다. 기계 학습을 통해 나오는 모델은 모델만으로는 큰 가치가 없다. 기계 학습 모델이 개발되는 실험 단계에서 비즈니스에 가치를 제공하기 위해 모델을 제공할 수 있는 생산 단계로 빠르고 안정적으로 이동할 수 있는 것이 매우 중요하다. 이것을 Model Serving이라고 한다. Model Serving 프레임워크를 사용하면 다음을 수행 할 수 있다. API를 통해 모델과 상호 작용한다. 이 때문에 모델과 대화하는 모든 것은 훈련에 사용된 도구나 작성된 언어와 같은 내부 세부 정보를 알지 않고도 사용이 가능하다. 사용자 요구에 맞게 모델을 쉽게 확장한다. 이러한 Model Serving 을 위한 많은 도구들이 있다. 이 중 다음 요소를 고려하는 것이 좋다. 기계 학습..
Kubernetes/MLOps
2023. 4. 3. 20:15