반응형
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- Kubeflow
- Kubernetes
- Kopf
- CANARY
- knative
- Argo
- MLflow
- gitea
- mlops
- 카오스 엔지니어링
- opensearch
- kubernetes operator
- 오퍼레이터
- Continuous Deployment
- Kubernetes 인증
- argo rollout
- Litmus
- blue/green
- keda
- Pulumi
- seldon core
- argocd
- nginx ingress
- tekton
- gitops
- CI/CD
- opentelemetry
- operator
- Model Serving
- serving
Archives
- Today
- Total
목록Model Serving (1)
Kubernetes 이야기
온라인 서빙과 배치 서빙
기계 학습 모델을 제공한다는 것은 사용자에게 실시간 예측을 제공하거나 오프라인 사용을 위한 일괄 예측을 제공하기 위해 예측 또는 추론에 사용할 수 있도록 하는 것을 의미한다. 모델 서빙과 관련된 다양한 오픈소스가 있으니, 간단한 모델의 경우 Framework보다 Flask나 Fastapi로 구현하는 경우가 실제 많다. MLFlow에 저장된 모델을 사용하여 온라인 서빙 또는 배치 서빙 하는 방법을 알아보자.온라인 서빙 (Online Serving)온라인 서빙은 실시간 또는 거의 실시간 응답을 제공해야 하는 경우에 적합하다. API를 통해 요청이 들어오면 바로 결과를 반환하게 된다. 구현 방법:FastAPI 또는 Flask 사용: REST API 서버를 구축하는 데 FastAPI 또는 Flask 같은 웹 프..
Kubernetes/MLOps
2024. 5. 6. 22:53