easylm-rm-gemma-2-2b / trainer_state.json
scottsuk0306's picture
Model save
bd90e6c verified
raw
history blame
6.17 kB
{
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 1.0,
"eval_steps": 100,
"global_step": 150,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.03333333333333333,
"grad_norm": 18.165170669555664,
"learning_rate": 9.972609476841365e-07,
"loss": 0.7056,
"step": 5
},
{
"epoch": 0.06666666666666667,
"grad_norm": 17.16242218017578,
"learning_rate": 9.890738003669027e-07,
"loss": 0.6646,
"step": 10
},
{
"epoch": 0.1,
"grad_norm": 21.325637817382812,
"learning_rate": 9.755282581475767e-07,
"loss": 0.6945,
"step": 15
},
{
"epoch": 0.13333333333333333,
"grad_norm": 14.320093154907227,
"learning_rate": 9.567727288213004e-07,
"loss": 0.6743,
"step": 20
},
{
"epoch": 0.16666666666666666,
"grad_norm": 10.650166511535645,
"learning_rate": 9.330127018922193e-07,
"loss": 0.676,
"step": 25
},
{
"epoch": 0.2,
"grad_norm": 13.821106910705566,
"learning_rate": 9.045084971874737e-07,
"loss": 0.6838,
"step": 30
},
{
"epoch": 0.23333333333333334,
"grad_norm": 9.151570320129395,
"learning_rate": 8.71572412738697e-07,
"loss": 0.6718,
"step": 35
},
{
"epoch": 0.26666666666666666,
"grad_norm": 7.747379302978516,
"learning_rate": 8.34565303179429e-07,
"loss": 0.687,
"step": 40
},
{
"epoch": 0.3,
"grad_norm": 9.819681167602539,
"learning_rate": 7.938926261462365e-07,
"loss": 0.6653,
"step": 45
},
{
"epoch": 0.3333333333333333,
"grad_norm": 8.698646545410156,
"learning_rate": 7.5e-07,
"loss": 0.6708,
"step": 50
},
{
"epoch": 0.36666666666666664,
"grad_norm": 8.188970565795898,
"learning_rate": 7.033683215379002e-07,
"loss": 0.688,
"step": 55
},
{
"epoch": 0.4,
"grad_norm": 7.681589603424072,
"learning_rate": 6.545084971874736e-07,
"loss": 0.6833,
"step": 60
},
{
"epoch": 0.43333333333333335,
"grad_norm": 7.524262428283691,
"learning_rate": 6.039558454088795e-07,
"loss": 0.6585,
"step": 65
},
{
"epoch": 0.4666666666666667,
"grad_norm": 9.614619255065918,
"learning_rate": 5.522642316338268e-07,
"loss": 0.6364,
"step": 70
},
{
"epoch": 0.5,
"grad_norm": 12.577666282653809,
"learning_rate": 5e-07,
"loss": 0.6842,
"step": 75
},
{
"epoch": 0.5333333333333333,
"grad_norm": 11.13433837890625,
"learning_rate": 4.477357683661733e-07,
"loss": 0.6968,
"step": 80
},
{
"epoch": 0.5666666666666667,
"grad_norm": 9.573627471923828,
"learning_rate": 3.960441545911204e-07,
"loss": 0.6679,
"step": 85
},
{
"epoch": 0.6,
"grad_norm": 6.869621753692627,
"learning_rate": 3.454915028125263e-07,
"loss": 0.672,
"step": 90
},
{
"epoch": 0.6333333333333333,
"grad_norm": 6.626986026763916,
"learning_rate": 2.9663167846209996e-07,
"loss": 0.6644,
"step": 95
},
{
"epoch": 0.6666666666666666,
"grad_norm": 7.816995143890381,
"learning_rate": 2.500000000000001e-07,
"loss": 0.6716,
"step": 100
},
{
"epoch": 0.6666666666666666,
"eval_accuracy": 0.6770833333333334,
"eval_loss": 0.6615803837776184,
"eval_runtime": 0.6663,
"eval_samples_per_second": 144.07,
"eval_steps_per_second": 9.004,
"step": 100
},
{
"epoch": 0.7,
"grad_norm": 7.169824123382568,
"learning_rate": 2.0610737385376348e-07,
"loss": 0.6527,
"step": 105
},
{
"epoch": 0.7333333333333333,
"grad_norm": 7.605311393737793,
"learning_rate": 1.6543469682057104e-07,
"loss": 0.661,
"step": 110
},
{
"epoch": 0.7666666666666667,
"grad_norm": 8.795389175415039,
"learning_rate": 1.284275872613028e-07,
"loss": 0.644,
"step": 115
},
{
"epoch": 0.8,
"grad_norm": 9.404634475708008,
"learning_rate": 9.549150281252632e-08,
"loss": 0.6536,
"step": 120
},
{
"epoch": 0.8333333333333334,
"grad_norm": 9.008624076843262,
"learning_rate": 6.698729810778064e-08,
"loss": 0.6744,
"step": 125
},
{
"epoch": 0.8666666666666667,
"grad_norm": 8.526646614074707,
"learning_rate": 4.322727117869951e-08,
"loss": 0.6722,
"step": 130
},
{
"epoch": 0.9,
"grad_norm": 8.827940940856934,
"learning_rate": 2.4471741852423233e-08,
"loss": 0.6599,
"step": 135
},
{
"epoch": 0.9333333333333333,
"grad_norm": 7.812473297119141,
"learning_rate": 1.0926199633097154e-08,
"loss": 0.645,
"step": 140
},
{
"epoch": 0.9666666666666667,
"grad_norm": 10.083480834960938,
"learning_rate": 2.739052315863355e-09,
"loss": 0.6633,
"step": 145
},
{
"epoch": 1.0,
"grad_norm": 9.186869621276855,
"learning_rate": 0.0,
"loss": 0.6466,
"step": 150
},
{
"epoch": 1.0,
"step": 150,
"total_flos": 0.0,
"train_loss": 0.6696457926432292,
"train_runtime": 575.0153,
"train_samples_per_second": 16.687,
"train_steps_per_second": 0.261
}
],
"logging_steps": 5,
"max_steps": 150,
"num_input_tokens_seen": 0,
"num_train_epochs": 1,
"save_steps": 500,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": true
},
"attributes": {}
}
},
"total_flos": 0.0,
"train_batch_size": 2,
"trial_name": null,
"trial_params": null
}