- 음성 에이전트
- 딥 리서치 어시스턴트
- 온프레미스 모델
- 콘텐츠 마케팅 분석 에이전트
왜 Serverless RL인가요?
- 더 낮은 트레이닝 비용: Serverless RL은 여러 사용자에게 공유 인프라를 멀티플렉싱하고, 각 작업마다 설정 과정을 생략하며, 실제로 트레이닝하지 않을 때는 GPU 비용을 0까지 낮춤으로써 트레이닝 비용을 크게 절감합니다.
- 더 빠른 트레이닝 시간: Serverless RL은 Inference Request를 여러 GPU로 분산하고, 필요할 때 즉시 트레이닝 인프라를 프로비저닝하여 트레이닝 작업을 더 빠르게 실행하고 반복 속도를 높일 수 있게 합니다.
- 자동 배포: Serverless RL은 트레이닝한 모든 checkpoint를 자동으로 배포하므로, 호스팅 인프라를 수동으로 설정할 필요가 없습니다. 트레이닝된 모델은 로컬, 스테이징, 또는 프로덕션 환경에서 즉시 액세스하고 테스트할 수 있습니다.
Serverless RL이 W&B 서비스를 사용하는 방식
- Inference: 모델을 실행하기 위해
- Models: LoRA 어댑터의 트레이닝 중 성능 메트릭을 추적하기 위해
- Artifacts: LoRA 어댑터를 저장하고 버전을 관리하기 위해
- Weave (선택): 트레이닝 루프의 각 step에서 모델이 어떻게 응답하는지 관찰할 수 있도록 하기 위해