メインコンテンツへスキップ
Run Comparer を使用すると、プロジェクト内の run 間の違いや共通点を確認できます。

Run Comparerパネルを追加する

  1. ページの画面右上にあるAdd panelsボタンを選択します。
  2. 評価セクションからRun comparerを選択します。

Run Comparer を使用する

Run Comparer には、プロジェクト内で現在表示されている先頭 10 件の run の設定とログされたメトリクスが、run ごとに 1 列ずつ表示されます。
  • 比較する run を変更するには、左側の run のリストを検索、フィルター、グループ化、または並べ替えします。Run Comparer は自動的に更新されます。
  • Run Comparer 上部の検索フィールドを使用して、設定キーや、Python バージョンや run の作成時刻などのメタデータキーでフィルターまたは検索します。
  • 差分をすばやく確認し、同じ値を非表示にするには、パネル上部の Diff only を切り替えます。
  • 列幅や行の高さを調整するには、パネル上部の書式設定ボタンを使用します。
  • 設定やメトリクスの値をコピーするには、その値にマウスカーソルを合わせてからコピー ボタンをクリックします。画面に収まりきらないほど長い場合でも、値全体がコピーされます。
デフォルトでは、Run Comparer は job_type の値が異なる run を区別しません。つまり、プロジェクト内で本来は比較に適さない run 同士でも比較できてしまう可能性があります。たとえば、トレーニング run とモデルの評価 run を比較できます。トレーニング run には、run のログ、ハイパーパラメーター、トレーニング時の損失メトリクス、さらにはモデル自体が含まれることがあります。評価 run では、そのモデルを使用して新しいトレーニング データに対するモデルのパフォーマンスを確認できます。Runs Table 内の run のリストを検索、フィルター、グループ化、または並べ替えすると、Run Comparer は先頭 10 件の run を比較するよう自動的に更新されます。job_type でリストをフィルターまたは並べ替えるなど、Runs Table 内でフィルターや検索を行って、類似した run を比較してください。run のフィルタリングの詳細を参照してください。