반응형
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- gitea
- tekton
- nginx ingress
- CI/CD
- Kubernetes
- Argo
- Continuous Deployment
- CANARY
- Kopf
- opensearch
- opentelemetry
- mlops
- seldon core
- blue/green
- 카오스 엔지니어링
- knative
- gitops
- serving
- Kubernetes 인증
- Model Serving
- operator
- kubernetes operator
- Litmus
- MLflow
- Kubeflow
- keda
- argo rollout
- Pulumi
- argocd
- 오퍼레이터
Archives
- Today
- Total
목록KFServing (1)
Kubernetes 이야기
Model Serving
일반적인 ML Workflow는 다음과 같다. 학습한 모델을 프로덕션에 배포하는 것은 비지니스에서 상당히 중요한 일이다. 일반적으로 학습한 모델을 배포하는 방식은 다음과 같다. 모델을 이용하여 서비스하는 방법은 크게 2가지를 생각해 볼 수 있다. 1) Online Model을 embeded 하여 서버를 운영하거나 모델만 API 서버로 구성한 후 클라이언트와 결과를 주고 받는 온라인 서비스 형태가 있다. 아래 그림은 TensorFlow Serving Container가 모델 API 서버 기능을 하고 Flask 가 클라이언트 역할을 하여 서비스 하는 형태가 될 수 있다. 2) ML 모델을 이용한 Stream ML 모델로 데이터 파이프라인을 보강하는 구성이다. 모델을 저장하는 방식도 여러가지 (Tensorfl..
Kubernetes/MLOps
2023. 2. 24. 16:56