|
{ |
|
"best_metric": 1.31085205078125, |
|
"best_model_checkpoint": "vit-base-patch16-224-in21k-rotated-dungeons-v9/checkpoint-200", |
|
"epoch": 22.0, |
|
"eval_steps": 100, |
|
"global_step": 264, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.8333333333333334, |
|
"grad_norm": 3.422436237335205, |
|
"learning_rate": 9.621212121212122e-06, |
|
"loss": 1.899, |
|
"step": 10 |
|
}, |
|
{ |
|
"epoch": 1.6666666666666665, |
|
"grad_norm": 2.9997808933258057, |
|
"learning_rate": 9.242424242424244e-06, |
|
"loss": 1.7183, |
|
"step": 20 |
|
}, |
|
{ |
|
"epoch": 2.5, |
|
"grad_norm": 2.6861631870269775, |
|
"learning_rate": 8.863636363636365e-06, |
|
"loss": 1.6224, |
|
"step": 30 |
|
}, |
|
{ |
|
"epoch": 3.3333333333333335, |
|
"grad_norm": 3.1641533374786377, |
|
"learning_rate": 8.484848484848486e-06, |
|
"loss": 1.5044, |
|
"step": 40 |
|
}, |
|
{ |
|
"epoch": 4.166666666666667, |
|
"grad_norm": 3.0927646160125732, |
|
"learning_rate": 8.106060606060606e-06, |
|
"loss": 1.4002, |
|
"step": 50 |
|
}, |
|
{ |
|
"epoch": 5.0, |
|
"grad_norm": 5.397890567779541, |
|
"learning_rate": 7.727272727272727e-06, |
|
"loss": 1.3126, |
|
"step": 60 |
|
}, |
|
{ |
|
"epoch": 5.833333333333333, |
|
"grad_norm": 2.6215243339538574, |
|
"learning_rate": 7.348484848484849e-06, |
|
"loss": 1.246, |
|
"step": 70 |
|
}, |
|
{ |
|
"epoch": 6.666666666666667, |
|
"grad_norm": 2.922886848449707, |
|
"learning_rate": 6.969696969696971e-06, |
|
"loss": 1.1781, |
|
"step": 80 |
|
}, |
|
{ |
|
"epoch": 7.5, |
|
"grad_norm": 2.9494316577911377, |
|
"learning_rate": 6.590909090909091e-06, |
|
"loss": 1.0949, |
|
"step": 90 |
|
}, |
|
{ |
|
"epoch": 8.333333333333334, |
|
"grad_norm": 2.951185941696167, |
|
"learning_rate": 6.212121212121213e-06, |
|
"loss": 1.014, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 8.333333333333334, |
|
"eval_accuracy": 0.5, |
|
"eval_loss": 1.5028076171875, |
|
"eval_runtime": 0.0824, |
|
"eval_samples_per_second": 97.111, |
|
"eval_steps_per_second": 12.139, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 9.166666666666666, |
|
"grad_norm": 2.3550527095794678, |
|
"learning_rate": 5.833333333333334e-06, |
|
"loss": 0.9667, |
|
"step": 110 |
|
}, |
|
{ |
|
"epoch": 10.0, |
|
"grad_norm": 3.0045719146728516, |
|
"learning_rate": 5.4545454545454545e-06, |
|
"loss": 0.947, |
|
"step": 120 |
|
}, |
|
{ |
|
"epoch": 10.833333333333334, |
|
"grad_norm": 2.5184597969055176, |
|
"learning_rate": 5.075757575757576e-06, |
|
"loss": 0.8905, |
|
"step": 130 |
|
}, |
|
{ |
|
"epoch": 11.666666666666666, |
|
"grad_norm": 2.7017855644226074, |
|
"learning_rate": 4.696969696969698e-06, |
|
"loss": 0.8414, |
|
"step": 140 |
|
}, |
|
{ |
|
"epoch": 12.5, |
|
"grad_norm": 2.848036289215088, |
|
"learning_rate": 4.3181818181818185e-06, |
|
"loss": 0.8088, |
|
"step": 150 |
|
}, |
|
{ |
|
"epoch": 13.333333333333334, |
|
"grad_norm": 2.102672815322876, |
|
"learning_rate": 3.93939393939394e-06, |
|
"loss": 0.8036, |
|
"step": 160 |
|
}, |
|
{ |
|
"epoch": 14.166666666666666, |
|
"grad_norm": 2.496983051300049, |
|
"learning_rate": 3.560606060606061e-06, |
|
"loss": 0.7157, |
|
"step": 170 |
|
}, |
|
{ |
|
"epoch": 15.0, |
|
"grad_norm": 2.4299399852752686, |
|
"learning_rate": 3.181818181818182e-06, |
|
"loss": 0.74, |
|
"step": 180 |
|
}, |
|
{ |
|
"epoch": 15.833333333333334, |
|
"grad_norm": 2.3339295387268066, |
|
"learning_rate": 2.803030303030303e-06, |
|
"loss": 0.7226, |
|
"step": 190 |
|
}, |
|
{ |
|
"epoch": 16.666666666666668, |
|
"grad_norm": 2.1871793270111084, |
|
"learning_rate": 2.4242424242424244e-06, |
|
"loss": 0.6464, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 16.666666666666668, |
|
"eval_accuracy": 0.625, |
|
"eval_loss": 1.31085205078125, |
|
"eval_runtime": 0.1066, |
|
"eval_samples_per_second": 75.061, |
|
"eval_steps_per_second": 9.383, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 17.5, |
|
"grad_norm": 2.1216142177581787, |
|
"learning_rate": 2.0454545454545457e-06, |
|
"loss": 0.7092, |
|
"step": 210 |
|
}, |
|
{ |
|
"epoch": 18.333333333333332, |
|
"grad_norm": 1.9975295066833496, |
|
"learning_rate": 1.6666666666666667e-06, |
|
"loss": 0.6497, |
|
"step": 220 |
|
}, |
|
{ |
|
"epoch": 19.166666666666668, |
|
"grad_norm": 1.6665788888931274, |
|
"learning_rate": 1.287878787878788e-06, |
|
"loss": 0.5921, |
|
"step": 230 |
|
}, |
|
{ |
|
"epoch": 20.0, |
|
"grad_norm": 2.3880646228790283, |
|
"learning_rate": 9.090909090909091e-07, |
|
"loss": 0.6673, |
|
"step": 240 |
|
}, |
|
{ |
|
"epoch": 20.833333333333332, |
|
"grad_norm": 2.496356725692749, |
|
"learning_rate": 5.303030303030304e-07, |
|
"loss": 0.6075, |
|
"step": 250 |
|
}, |
|
{ |
|
"epoch": 21.666666666666668, |
|
"grad_norm": 1.9003640413284302, |
|
"learning_rate": 1.5151515151515152e-07, |
|
"loss": 0.6759, |
|
"step": 260 |
|
}, |
|
{ |
|
"epoch": 22.0, |
|
"step": 264, |
|
"total_flos": 8.013030801360077e+16, |
|
"train_loss": 0.9926162858804067, |
|
"train_runtime": 52.1066, |
|
"train_samples_per_second": 19.844, |
|
"train_steps_per_second": 5.067 |
|
} |
|
], |
|
"logging_steps": 10, |
|
"max_steps": 264, |
|
"num_input_tokens_seen": 0, |
|
"num_train_epochs": 22, |
|
"save_steps": 100, |
|
"stateful_callbacks": { |
|
"TrainerControl": { |
|
"args": { |
|
"should_epoch_stop": false, |
|
"should_evaluate": false, |
|
"should_log": false, |
|
"should_save": true, |
|
"should_training_stop": true |
|
}, |
|
"attributes": {} |
|
} |
|
}, |
|
"total_flos": 8.013030801360077e+16, |
|
"train_batch_size": 4, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|