|
{ |
|
"best_metric": 0.7642104625701904, |
|
"best_model_checkpoint": "./vit-base-plankton/checkpoint-300", |
|
"epoch": 2.0, |
|
"eval_steps": 100, |
|
"global_step": 384, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.05, |
|
"learning_rate": 0.00019479166666666668, |
|
"loss": 2.4716, |
|
"step": 10 |
|
}, |
|
{ |
|
"epoch": 0.1, |
|
"learning_rate": 0.00018958333333333332, |
|
"loss": 2.296, |
|
"step": 20 |
|
}, |
|
{ |
|
"epoch": 0.16, |
|
"learning_rate": 0.000184375, |
|
"loss": 2.1599, |
|
"step": 30 |
|
}, |
|
{ |
|
"epoch": 0.21, |
|
"learning_rate": 0.0001791666666666667, |
|
"loss": 1.9804, |
|
"step": 40 |
|
}, |
|
{ |
|
"epoch": 0.26, |
|
"learning_rate": 0.00017395833333333334, |
|
"loss": 1.7886, |
|
"step": 50 |
|
}, |
|
{ |
|
"epoch": 0.31, |
|
"learning_rate": 0.00016875, |
|
"loss": 1.7123, |
|
"step": 60 |
|
}, |
|
{ |
|
"epoch": 0.36, |
|
"learning_rate": 0.00016354166666666668, |
|
"loss": 1.6042, |
|
"step": 70 |
|
}, |
|
{ |
|
"epoch": 0.42, |
|
"learning_rate": 0.00015833333333333332, |
|
"loss": 1.6366, |
|
"step": 80 |
|
}, |
|
{ |
|
"epoch": 0.47, |
|
"learning_rate": 0.000153125, |
|
"loss": 1.5387, |
|
"step": 90 |
|
}, |
|
{ |
|
"epoch": 0.52, |
|
"learning_rate": 0.0001479166666666667, |
|
"loss": 1.5476, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 0.52, |
|
"eval_accuracy": 0.741851368970013, |
|
"eval_loss": 1.2744733095169067, |
|
"eval_runtime": 213.9361, |
|
"eval_samples_per_second": 14.341, |
|
"eval_steps_per_second": 1.795, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 0.57, |
|
"learning_rate": 0.00014270833333333334, |
|
"loss": 1.3298, |
|
"step": 110 |
|
}, |
|
{ |
|
"epoch": 0.62, |
|
"learning_rate": 0.0001375, |
|
"loss": 1.19, |
|
"step": 120 |
|
}, |
|
{ |
|
"epoch": 0.68, |
|
"learning_rate": 0.00013229166666666668, |
|
"loss": 1.0872, |
|
"step": 130 |
|
}, |
|
{ |
|
"epoch": 0.73, |
|
"learning_rate": 0.00012708333333333332, |
|
"loss": 1.1765, |
|
"step": 140 |
|
}, |
|
{ |
|
"epoch": 0.78, |
|
"learning_rate": 0.00012187500000000001, |
|
"loss": 1.1879, |
|
"step": 150 |
|
}, |
|
{ |
|
"epoch": 0.83, |
|
"learning_rate": 0.00011666666666666668, |
|
"loss": 1.0871, |
|
"step": 160 |
|
}, |
|
{ |
|
"epoch": 0.89, |
|
"learning_rate": 0.00011145833333333334, |
|
"loss": 1.1028, |
|
"step": 170 |
|
}, |
|
{ |
|
"epoch": 0.94, |
|
"learning_rate": 0.00010625000000000001, |
|
"loss": 1.1018, |
|
"step": 180 |
|
}, |
|
{ |
|
"epoch": 0.99, |
|
"learning_rate": 0.00010104166666666668, |
|
"loss": 1.1769, |
|
"step": 190 |
|
}, |
|
{ |
|
"epoch": 1.04, |
|
"learning_rate": 9.583333333333334e-05, |
|
"loss": 1.0997, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 1.04, |
|
"eval_accuracy": 0.7842242503259452, |
|
"eval_loss": 0.8653025031089783, |
|
"eval_runtime": 205.776, |
|
"eval_samples_per_second": 14.909, |
|
"eval_steps_per_second": 1.866, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 1.09, |
|
"learning_rate": 9.062500000000001e-05, |
|
"loss": 0.9956, |
|
"step": 210 |
|
}, |
|
{ |
|
"epoch": 1.15, |
|
"learning_rate": 8.541666666666666e-05, |
|
"loss": 1.0083, |
|
"step": 220 |
|
}, |
|
{ |
|
"epoch": 1.2, |
|
"learning_rate": 8.020833333333334e-05, |
|
"loss": 0.9768, |
|
"step": 230 |
|
}, |
|
{ |
|
"epoch": 1.25, |
|
"learning_rate": 7.500000000000001e-05, |
|
"loss": 0.965, |
|
"step": 240 |
|
}, |
|
{ |
|
"epoch": 1.3, |
|
"learning_rate": 6.979166666666666e-05, |
|
"loss": 0.9682, |
|
"step": 250 |
|
}, |
|
{ |
|
"epoch": 1.35, |
|
"learning_rate": 6.458333333333334e-05, |
|
"loss": 0.9361, |
|
"step": 260 |
|
}, |
|
{ |
|
"epoch": 1.41, |
|
"learning_rate": 5.9375e-05, |
|
"loss": 0.9819, |
|
"step": 270 |
|
}, |
|
{ |
|
"epoch": 1.46, |
|
"learning_rate": 5.4166666666666664e-05, |
|
"loss": 0.8521, |
|
"step": 280 |
|
}, |
|
{ |
|
"epoch": 1.51, |
|
"learning_rate": 4.8958333333333335e-05, |
|
"loss": 0.9011, |
|
"step": 290 |
|
}, |
|
{ |
|
"epoch": 1.56, |
|
"learning_rate": 4.375e-05, |
|
"loss": 0.9498, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 1.56, |
|
"eval_accuracy": 0.8050847457627118, |
|
"eval_loss": 0.7642104625701904, |
|
"eval_runtime": 203.4405, |
|
"eval_samples_per_second": 15.081, |
|
"eval_steps_per_second": 1.888, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 1.61, |
|
"learning_rate": 3.854166666666667e-05, |
|
"loss": 0.9927, |
|
"step": 310 |
|
}, |
|
{ |
|
"epoch": 1.67, |
|
"learning_rate": 3.3333333333333335e-05, |
|
"loss": 0.8678, |
|
"step": 320 |
|
}, |
|
{ |
|
"epoch": 1.72, |
|
"learning_rate": 2.8125000000000003e-05, |
|
"loss": 0.8756, |
|
"step": 330 |
|
}, |
|
{ |
|
"epoch": 1.77, |
|
"learning_rate": 2.2916666666666667e-05, |
|
"loss": 0.8625, |
|
"step": 340 |
|
}, |
|
{ |
|
"epoch": 1.82, |
|
"learning_rate": 1.7708333333333335e-05, |
|
"loss": 0.9351, |
|
"step": 350 |
|
}, |
|
{ |
|
"epoch": 1.88, |
|
"learning_rate": 1.25e-05, |
|
"loss": 0.9369, |
|
"step": 360 |
|
}, |
|
{ |
|
"epoch": 1.93, |
|
"learning_rate": 7.2916666666666674e-06, |
|
"loss": 0.9611, |
|
"step": 370 |
|
}, |
|
{ |
|
"epoch": 1.98, |
|
"learning_rate": 2.0833333333333334e-06, |
|
"loss": 0.7286, |
|
"step": 380 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"step": 384, |
|
"total_flos": 6911768078843904.0, |
|
"train_loss": 1.2305065219600995, |
|
"train_runtime": 2179.2388, |
|
"train_samples_per_second": 2.815, |
|
"train_steps_per_second": 0.176 |
|
} |
|
], |
|
"logging_steps": 10, |
|
"max_steps": 384, |
|
"num_train_epochs": 2, |
|
"save_steps": 100, |
|
"total_flos": 6911768078843904.0, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|