반응형
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- Argo
- kubernetes operator
- Kubeflow
- opensearch
- Kubernetes
- argocd
- argo rollout
- Litmus
- tekton
- blue/green
- Model Serving
- knative
- 오퍼레이터
- serving
- CANARY
- gitops
- MLflow
- seldon core
- Continuous Deployment
- opentelemetry
- keda
- Kopf
- CI/CD
- Pulumi
- mlops
- gitea
- operator
- 카오스 엔지니어링
- Kubernetes 인증
- nginx ingress
Archives
- Today
- Total
목록mlflow serving (1)
Kubernetes 이야기
MLflow Serving
Model Serving에 대해서는 다음의 글을 참고한다. https://kmaster.tistory.com/158 https://kmaster.tistory.com/166 mlflow에서도 Serving 기능을 제공한다. 이에 대해 알아보자. https://mlflow.org/docs/latest/tutorials-and-examples/tutorial.html 예제 소스를 사용하여 Serving을 수행해 보자. # mlflow models serve -m ./mlruns/0//artifacts/model -p 여기서 port는 모델 api를 수신받을 수 있는 임의의 port를 지정하면 된다. # mlflow models serve -m ./mlartifacts/0/9927ff56416742b48544..
Kubernetes/MLOps
2023. 9. 9. 12:51