|
{ |
|
"best_metric": 1.4315592050552368, |
|
"best_model_checkpoint": "vit-base-patch16-224-in21k-rotated-dungeons-v12/checkpoint-300", |
|
"epoch": 27.0, |
|
"eval_steps": 100, |
|
"global_step": 324, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.8333333333333334, |
|
"grad_norm": 3.6018190383911133, |
|
"learning_rate": 9.691358024691358e-06, |
|
"loss": 1.8918, |
|
"step": 10 |
|
}, |
|
{ |
|
"epoch": 1.6666666666666665, |
|
"grad_norm": 3.4979114532470703, |
|
"learning_rate": 9.382716049382717e-06, |
|
"loss": 1.7508, |
|
"step": 20 |
|
}, |
|
{ |
|
"epoch": 2.5, |
|
"grad_norm": 4.02228307723999, |
|
"learning_rate": 9.074074074074075e-06, |
|
"loss": 1.5583, |
|
"step": 30 |
|
}, |
|
{ |
|
"epoch": 3.3333333333333335, |
|
"grad_norm": 3.0986037254333496, |
|
"learning_rate": 8.765432098765432e-06, |
|
"loss": 1.4717, |
|
"step": 40 |
|
}, |
|
{ |
|
"epoch": 4.166666666666667, |
|
"grad_norm": 3.573038339614868, |
|
"learning_rate": 8.456790123456791e-06, |
|
"loss": 1.4678, |
|
"step": 50 |
|
}, |
|
{ |
|
"epoch": 5.0, |
|
"grad_norm": 4.513486385345459, |
|
"learning_rate": 8.148148148148148e-06, |
|
"loss": 1.3504, |
|
"step": 60 |
|
}, |
|
{ |
|
"epoch": 5.833333333333333, |
|
"grad_norm": 2.933511257171631, |
|
"learning_rate": 7.839506172839507e-06, |
|
"loss": 1.28, |
|
"step": 70 |
|
}, |
|
{ |
|
"epoch": 6.666666666666667, |
|
"grad_norm": 4.242460250854492, |
|
"learning_rate": 7.530864197530865e-06, |
|
"loss": 1.2036, |
|
"step": 80 |
|
}, |
|
{ |
|
"epoch": 7.5, |
|
"grad_norm": 4.462291240692139, |
|
"learning_rate": 7.222222222222223e-06, |
|
"loss": 1.1049, |
|
"step": 90 |
|
}, |
|
{ |
|
"epoch": 8.333333333333334, |
|
"grad_norm": 3.108102560043335, |
|
"learning_rate": 6.913580246913581e-06, |
|
"loss": 1.0811, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 8.333333333333334, |
|
"eval_accuracy": 0.4166666666666667, |
|
"eval_loss": 1.6610513925552368, |
|
"eval_runtime": 0.3767, |
|
"eval_samples_per_second": 31.86, |
|
"eval_steps_per_second": 5.31, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 9.166666666666666, |
|
"grad_norm": 2.9008240699768066, |
|
"learning_rate": 6.60493827160494e-06, |
|
"loss": 1.0747, |
|
"step": 110 |
|
}, |
|
{ |
|
"epoch": 10.0, |
|
"grad_norm": 3.7455575466156006, |
|
"learning_rate": 6.296296296296297e-06, |
|
"loss": 0.941, |
|
"step": 120 |
|
}, |
|
{ |
|
"epoch": 10.833333333333334, |
|
"grad_norm": 2.9407384395599365, |
|
"learning_rate": 5.9876543209876546e-06, |
|
"loss": 0.8968, |
|
"step": 130 |
|
}, |
|
{ |
|
"epoch": 11.666666666666666, |
|
"grad_norm": 2.319361448287964, |
|
"learning_rate": 5.6790123456790125e-06, |
|
"loss": 0.8519, |
|
"step": 140 |
|
}, |
|
{ |
|
"epoch": 12.5, |
|
"grad_norm": 4.124772071838379, |
|
"learning_rate": 5.370370370370371e-06, |
|
"loss": 0.9155, |
|
"step": 150 |
|
}, |
|
{ |
|
"epoch": 13.333333333333334, |
|
"grad_norm": 2.6311306953430176, |
|
"learning_rate": 5.061728395061729e-06, |
|
"loss": 0.7229, |
|
"step": 160 |
|
}, |
|
{ |
|
"epoch": 14.166666666666666, |
|
"grad_norm": 2.6873831748962402, |
|
"learning_rate": 4.753086419753087e-06, |
|
"loss": 0.7839, |
|
"step": 170 |
|
}, |
|
{ |
|
"epoch": 15.0, |
|
"grad_norm": 4.260179042816162, |
|
"learning_rate": 4.444444444444444e-06, |
|
"loss": 0.7357, |
|
"step": 180 |
|
}, |
|
{ |
|
"epoch": 15.833333333333334, |
|
"grad_norm": 2.457617998123169, |
|
"learning_rate": 4.135802469135803e-06, |
|
"loss": 0.7007, |
|
"step": 190 |
|
}, |
|
{ |
|
"epoch": 16.666666666666668, |
|
"grad_norm": 2.1463468074798584, |
|
"learning_rate": 3.827160493827161e-06, |
|
"loss": 0.6509, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 16.666666666666668, |
|
"eval_accuracy": 0.5, |
|
"eval_loss": 1.4986978769302368, |
|
"eval_runtime": 0.117, |
|
"eval_samples_per_second": 102.54, |
|
"eval_steps_per_second": 17.09, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 17.5, |
|
"grad_norm": 2.4582600593566895, |
|
"learning_rate": 3.5185185185185187e-06, |
|
"loss": 0.6903, |
|
"step": 210 |
|
}, |
|
{ |
|
"epoch": 18.333333333333332, |
|
"grad_norm": 1.9703677892684937, |
|
"learning_rate": 3.2098765432098767e-06, |
|
"loss": 0.656, |
|
"step": 220 |
|
}, |
|
{ |
|
"epoch": 19.166666666666668, |
|
"grad_norm": 2.4972715377807617, |
|
"learning_rate": 2.901234567901235e-06, |
|
"loss": 0.6353, |
|
"step": 230 |
|
}, |
|
{ |
|
"epoch": 20.0, |
|
"grad_norm": 2.1885712146759033, |
|
"learning_rate": 2.5925925925925925e-06, |
|
"loss": 0.6088, |
|
"step": 240 |
|
}, |
|
{ |
|
"epoch": 20.833333333333332, |
|
"grad_norm": 2.897416591644287, |
|
"learning_rate": 2.283950617283951e-06, |
|
"loss": 0.6143, |
|
"step": 250 |
|
}, |
|
{ |
|
"epoch": 21.666666666666668, |
|
"grad_norm": 1.803607702255249, |
|
"learning_rate": 1.9753086419753087e-06, |
|
"loss": 0.551, |
|
"step": 260 |
|
}, |
|
{ |
|
"epoch": 22.5, |
|
"grad_norm": 2.254380464553833, |
|
"learning_rate": 1.6666666666666667e-06, |
|
"loss": 0.5492, |
|
"step": 270 |
|
}, |
|
{ |
|
"epoch": 23.333333333333332, |
|
"grad_norm": 1.718522548675537, |
|
"learning_rate": 1.3580246913580248e-06, |
|
"loss": 0.5485, |
|
"step": 280 |
|
}, |
|
{ |
|
"epoch": 24.166666666666668, |
|
"grad_norm": 2.0524728298187256, |
|
"learning_rate": 1.0493827160493827e-06, |
|
"loss": 0.5897, |
|
"step": 290 |
|
}, |
|
{ |
|
"epoch": 25.0, |
|
"grad_norm": 3.3403310775756836, |
|
"learning_rate": 7.407407407407407e-07, |
|
"loss": 0.5656, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 25.0, |
|
"eval_accuracy": 0.6666666666666666, |
|
"eval_loss": 1.4315592050552368, |
|
"eval_runtime": 0.138, |
|
"eval_samples_per_second": 86.966, |
|
"eval_steps_per_second": 14.494, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 25.833333333333332, |
|
"grad_norm": 2.1986382007598877, |
|
"learning_rate": 4.320987654320988e-07, |
|
"loss": 0.5497, |
|
"step": 310 |
|
}, |
|
{ |
|
"epoch": 26.666666666666668, |
|
"grad_norm": 1.6566905975341797, |
|
"learning_rate": 1.234567901234568e-07, |
|
"loss": 0.5395, |
|
"step": 320 |
|
}, |
|
{ |
|
"epoch": 27.0, |
|
"step": 324, |
|
"total_flos": 9.624936417107558e+16, |
|
"train_loss": 0.9185323832947531, |
|
"train_runtime": 97.1154, |
|
"train_samples_per_second": 12.789, |
|
"train_steps_per_second": 3.336 |
|
} |
|
], |
|
"logging_steps": 10, |
|
"max_steps": 324, |
|
"num_input_tokens_seen": 0, |
|
"num_train_epochs": 27, |
|
"save_steps": 100, |
|
"stateful_callbacks": { |
|
"TrainerControl": { |
|
"args": { |
|
"should_epoch_stop": false, |
|
"should_evaluate": false, |
|
"should_log": false, |
|
"should_save": true, |
|
"should_training_stop": true |
|
}, |
|
"attributes": {} |
|
} |
|
}, |
|
"total_flos": 9.624936417107558e+16, |
|
"train_batch_size": 4, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|