메인 콘텐츠로 건너뛰기
몇 줄의 코드만으로 머신 러닝 Experiments를 추적할 수 있습니다. 그런 다음 대화형 대시보드에서 결과를 검토하거나, Public API를 사용해 프로그래밍 방식으로 액세스할 수 있도록 데이터를 Python으로 내보낼 수 있습니다. Keras와 같은 널리 사용되는 프레임워크를 사용한다면 W&B 인테그레이션을 활용하세요. 전체 인테그레이션 목록과 코드에 W&B를 추가하는 방법은 W&B 인테그레이션을 참조하세요.
Experiments 대시보드
위 이미지는 여러 runs에 걸친 메트릭을 보고 비교할 수 있는 대시보드 예시를 보여줍니다.

작동 방식

몇 줄의 코드로 머신 러닝 실험을 추적할 수 있습니다:
  1. W&B Run을 생성합니다.
  2. 학습률이나 모델 유형 같은 하이퍼파라미터 딕셔너리를 설정(wandb.Run.config)에 저장합니다.
  3. 정확도와 손실 같은 메트릭을 트레이닝 루프에서 시간의 흐름에 따라 로깅합니다(wandb.Run.log()).
  4. 모델 가중치나 예측 테이블 같은 run 출력물을 저장합니다.
다음 코드는 일반적인 W&B 실험 추적 워크플로를 보여줍니다:
# run을 시작합니다.
#
# 이 블록이 종료되면, 로깅된 데이터 업로드가 완료될 때까지 기다립니다.
# 예외가 발생하면 run은 실패로 표시됩니다.
with wandb.init(entity="", project="my-project-name") as run:
  # 모드 입력값과 하이퍼파라미터를 저장합니다.
  run.config.learning_rate = 0.01

  # 실험 코드를 실행합니다.
  for epoch in range(num_epochs):
    # 트레이닝을 수행합니다...

    # 모델 성능 시각화를 위해 시간 경과에 따른 메트릭을 로깅합니다.
    run.log({"loss": loss})

  # 모델 출력을 아티팩트로 업로드합니다.
  run.log_artifact(model)

시작하기

사용 사례에 따라 W&B Experiments를 시작할 때 다음 리소스를 참고하세요:
  • 데이터셋 artifact를 생성, 추적, 사용하는 데 활용할 수 있는 W&B Python SDK command를 단계별로 설명한 W&B 퀵스타트를 읽어보세요.
  • 이 장에서 다음 방법을 알아보세요:
    • 실험 생성
    • Experiments 설정
    • Experiments의 데이터 로깅
    • Experiments 결과 보기
  • W&B API 레퍼런스 가이드W&B Python Library를 살펴보세요.

모범 사례 및 팁

Experiments와 logging에 관한 모범 사례와 팁은 모범 사례: Experiments와 logging을 참조하세요.