AI
5개 포스트
LiteLLM Proxy 대시보드로 운영 관찰하기
요청/비용/지연을 한눈에 보는 LiteLLM Proxy 대시보드 활용법.
vLLM과 SGLang 차이: 서빙 엔진 vs 제어 언어
vLLM은 추론 엔진, SGLang은 LLM 제어 언어라는 관점에서 차이를 정리합니다.
LoRA로 LLM 파인튜닝하기: 효율적인 모델 학습 가이드
LoRA로 LLM을 효율적으로 파인튜닝하는 방법과 학습 흐름을 정리합니다.
개발자 입장에서 보는 LiteLLM과 LangChain의 차이
LiteLLM은 호출 표준화, LangChain은 워크플로우 구성에 강점이 있습니다.