client.chat.completions.create()(또는 이에 해당하는 호출)를 @weave.op 또는 수동 계측으로 감싸야 하며, 이는 번거롭고 빠뜨리기 쉽습니다.
Weave는 지원되는 LLM 클라이언트 라이브러리를 자동으로 가로채(패치)합니다. 애플리케이션 코드는 변경되지 않습니다. 평소처럼 제공업체 SDK를 사용하면 각 요청이 Weave Call로 기록됩니다. 최소한의 설정으로 전체 트레이싱을 이용할 수 있습니다.
LLM 제공업체
- W&B Inference Service
- Amazon Bedrock
- Anthropic
- Cerebras
- Cohere
- Groq
- Hugging Face Hub
- LiteLLM
- Microsoft Azure
- MistralAI
- NVIDIA NIM
- OpenAI
- OpenRouter
- Together AI
프레임워크
- OpenAI Agents SDK
- LangChain
- LlamaIndex
- DSPy
- Instructor
- CrewAI
- Smolagents
- PydanticAI
- Google Agent Development Kit (ADK)
- AutoGen
- Verdict
- TypeScript SDK
- Vercel AI SDK
- Agno
- Koog