반응형
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- Kubernetes 인증
- 오퍼레이터
- seldon core
- argocd
- CANARY
- Kubernetes
- Model Serving
- keda
- 카오스 엔지니어링
- gitea
- Argo
- opentelemetry
- nginx ingress
- Kubeflow
- Continuous Deployment
- argo rollout
- serving
- opensearch
- CI/CD
- MLflow
- blue/green
- Pulumi
- Litmus
- gitops
- mlops
- tekton
- operator
- kubernetes operator
- Kopf
- knative
Archives
- Today
- Total
목록랭체인 (1)
Kubernetes 이야기
Ollama and Chainlit으로 Langchain과 RAG 구현하기
최근 유행하고 있는 벡터 저장소와 같은 외부 데이터 아카이브를 사용하여 LLM의 응답 품질을 향상시킬 수 있는 기술인 LangChain 및 RAG를 사용하는 방법을 알아보자. 우선 LangChain 에 대해 알아보자. LangChain LangChain은 언어 모델을 기반으로 하는 애플리케이션을 개발하기 위한 프레임워크이다. 이는 다음과 같은 애플리케이션을 가능하게 한다.상황 인식 : 언어 모델을 상황 소스 (즉시 지침, 몇 가지 예시, 응답을 기반으로 하는 콘텐츠 등)에 연결이유 : 언어 모델을 사용하여 추론 (제공된 맥락에 따라 답변하는 방법, 취해야 할 조치 등에 대해) 구성요소 RAG ( Retrieval-Augmented Generation ) RAG는 LLM에게 미리 질문과 관련된 참고자료를 ..
Kubernetes/MLOps
2023. 12. 30. 23:26