problem194_model_aug_30 / trainer_state.json
aadityap's picture
Model save
ceab89b verified
{
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 2.0,
"eval_steps": 500,
"global_step": 120,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.016666666666666666,
"grad_norm": 0.011060998003001542,
"learning_rate": 4.166666666666667e-06,
"loss": 0.0198,
"step": 1
},
{
"epoch": 0.03333333333333333,
"grad_norm": 0.04770234443547883,
"learning_rate": 8.333333333333334e-06,
"loss": 0.1063,
"step": 2
},
{
"epoch": 0.05,
"grad_norm": 0.0641068911034988,
"learning_rate": 1.25e-05,
"loss": 0.1268,
"step": 3
},
{
"epoch": 0.06666666666666667,
"grad_norm": 0.016279352850587778,
"learning_rate": 1.6666666666666667e-05,
"loss": 0.0303,
"step": 4
},
{
"epoch": 0.08333333333333333,
"grad_norm": 0.02282512026358852,
"learning_rate": 2.0833333333333336e-05,
"loss": 0.0348,
"step": 5
},
{
"epoch": 0.1,
"grad_norm": 0.03599180804581645,
"learning_rate": 2.5e-05,
"loss": 0.0321,
"step": 6
},
{
"epoch": 0.11666666666666667,
"grad_norm": 0.04476698244423363,
"learning_rate": 2.916666666666667e-05,
"loss": 0.101,
"step": 7
},
{
"epoch": 0.13333333333333333,
"grad_norm": 0.02306031997780077,
"learning_rate": 3.3333333333333335e-05,
"loss": 0.0258,
"step": 8
},
{
"epoch": 0.15,
"grad_norm": 0.047626025785030245,
"learning_rate": 3.7500000000000003e-05,
"loss": 0.0762,
"step": 9
},
{
"epoch": 0.16666666666666666,
"grad_norm": 0.050329867658786526,
"learning_rate": 4.166666666666667e-05,
"loss": 0.0957,
"step": 10
},
{
"epoch": 0.18333333333333332,
"grad_norm": 0.052441593052554865,
"learning_rate": 4.5833333333333334e-05,
"loss": 0.0862,
"step": 11
},
{
"epoch": 0.2,
"grad_norm": 0.032045044906267126,
"learning_rate": 5e-05,
"loss": 0.0635,
"step": 12
},
{
"epoch": 0.21666666666666667,
"grad_norm": 0.04405669977780354,
"learning_rate": 4.998942375205502e-05,
"loss": 0.0759,
"step": 13
},
{
"epoch": 0.23333333333333334,
"grad_norm": 0.015475145188990149,
"learning_rate": 4.995770395678171e-05,
"loss": 0.0337,
"step": 14
},
{
"epoch": 0.25,
"grad_norm": 0.04714976786426904,
"learning_rate": 4.990486745229364e-05,
"loss": 0.0598,
"step": 15
},
{
"epoch": 0.26666666666666666,
"grad_norm": 0.055003011913100024,
"learning_rate": 4.983095894354858e-05,
"loss": 0.0796,
"step": 16
},
{
"epoch": 0.2833333333333333,
"grad_norm": 0.03745992898402242,
"learning_rate": 4.973604096452361e-05,
"loss": 0.0301,
"step": 17
},
{
"epoch": 0.3,
"grad_norm": 0.0650328818940131,
"learning_rate": 4.962019382530521e-05,
"loss": 0.0675,
"step": 18
},
{
"epoch": 0.31666666666666665,
"grad_norm": 0.0474487489870127,
"learning_rate": 4.948351554413879e-05,
"loss": 0.0836,
"step": 19
},
{
"epoch": 0.3333333333333333,
"grad_norm": 0.06953080971326334,
"learning_rate": 4.9326121764495596e-05,
"loss": 0.0475,
"step": 20
},
{
"epoch": 0.35,
"grad_norm": 0.019493472716290587,
"learning_rate": 4.914814565722671e-05,
"loss": 0.0182,
"step": 21
},
{
"epoch": 0.36666666666666664,
"grad_norm": 0.01849348284336558,
"learning_rate": 4.894973780788722e-05,
"loss": 0.0199,
"step": 22
},
{
"epoch": 0.38333333333333336,
"grad_norm": 0.05320268459620259,
"learning_rate": 4.873106608932585e-05,
"loss": 0.0409,
"step": 23
},
{
"epoch": 0.4,
"grad_norm": 0.046887529418569704,
"learning_rate": 4.849231551964771e-05,
"loss": 0.0354,
"step": 24
},
{
"epoch": 0.4166666666666667,
"grad_norm": 0.049896897742181305,
"learning_rate": 4.823368810567056e-05,
"loss": 0.0356,
"step": 25
},
{
"epoch": 0.43333333333333335,
"grad_norm": 0.057269186100769066,
"learning_rate": 4.7955402672006854e-05,
"loss": 0.0628,
"step": 26
},
{
"epoch": 0.45,
"grad_norm": 0.049232264146832384,
"learning_rate": 4.765769467591625e-05,
"loss": 0.0571,
"step": 27
},
{
"epoch": 0.4666666666666667,
"grad_norm": 0.01867891022712165,
"learning_rate": 4.734081600808531e-05,
"loss": 0.0115,
"step": 28
},
{
"epoch": 0.48333333333333334,
"grad_norm": 0.06940220308407626,
"learning_rate": 4.700503477950278e-05,
"loss": 0.0565,
"step": 29
},
{
"epoch": 0.5,
"grad_norm": 0.06524444054796992,
"learning_rate": 4.665063509461097e-05,
"loss": 0.0584,
"step": 30
},
{
"epoch": 0.5166666666666667,
"grad_norm": 0.050370029607705855,
"learning_rate": 4.627791681092499e-05,
"loss": 0.0298,
"step": 31
},
{
"epoch": 0.5333333333333333,
"grad_norm": 0.02468758961583679,
"learning_rate": 4.588719528532342e-05,
"loss": 0.0325,
"step": 32
},
{
"epoch": 0.55,
"grad_norm": 0.02289050548913112,
"learning_rate": 4.54788011072248e-05,
"loss": 0.0164,
"step": 33
},
{
"epoch": 0.5666666666666667,
"grad_norm": 0.029280628319421017,
"learning_rate": 4.50530798188761e-05,
"loss": 0.0343,
"step": 34
},
{
"epoch": 0.5833333333333334,
"grad_norm": 0.07708890185625418,
"learning_rate": 4.4610391622989396e-05,
"loss": 0.0598,
"step": 35
},
{
"epoch": 0.6,
"grad_norm": 0.03239408805039867,
"learning_rate": 4.415111107797445e-05,
"loss": 0.0208,
"step": 36
},
{
"epoch": 0.6166666666666667,
"grad_norm": 0.13904900666207362,
"learning_rate": 4.36756267810249e-05,
"loss": 0.0531,
"step": 37
},
{
"epoch": 0.6333333333333333,
"grad_norm": 0.062226668692424984,
"learning_rate": 4.318434103932622e-05,
"loss": 0.0381,
"step": 38
},
{
"epoch": 0.65,
"grad_norm": 0.09748174624561869,
"learning_rate": 4.267766952966369e-05,
"loss": 0.0343,
"step": 39
},
{
"epoch": 0.6666666666666666,
"grad_norm": 0.08862856959347302,
"learning_rate": 4.215604094671835e-05,
"loss": 0.0396,
"step": 40
},
{
"epoch": 0.6833333333333333,
"grad_norm": 0.060607923284431604,
"learning_rate": 4.1619896640348445e-05,
"loss": 0.0343,
"step": 41
},
{
"epoch": 0.7,
"grad_norm": 0.02624633866541891,
"learning_rate": 4.1069690242163484e-05,
"loss": 0.0197,
"step": 42
},
{
"epoch": 0.7166666666666667,
"grad_norm": 0.1089990544289727,
"learning_rate": 4.05058872817065e-05,
"loss": 0.0739,
"step": 43
},
{
"epoch": 0.7333333333333333,
"grad_norm": 0.09205600091089387,
"learning_rate": 3.9928964792569655e-05,
"loss": 0.0346,
"step": 44
},
{
"epoch": 0.75,
"grad_norm": 0.08713032672562156,
"learning_rate": 3.933941090877615e-05,
"loss": 0.0477,
"step": 45
},
{
"epoch": 0.7666666666666667,
"grad_norm": 0.024984301303442875,
"learning_rate": 3.873772445177015e-05,
"loss": 0.0142,
"step": 46
},
{
"epoch": 0.7833333333333333,
"grad_norm": 0.0729066319228273,
"learning_rate": 3.8124414508364e-05,
"loss": 0.0282,
"step": 47
},
{
"epoch": 0.8,
"grad_norm": 0.07500810772220752,
"learning_rate": 3.7500000000000003e-05,
"loss": 0.0471,
"step": 48
},
{
"epoch": 0.8166666666666667,
"grad_norm": 0.08964899580888298,
"learning_rate": 3.686500924369101e-05,
"loss": 0.021,
"step": 49
},
{
"epoch": 0.8333333333333334,
"grad_norm": 0.053528813707592576,
"learning_rate": 3.621997950501156e-05,
"loss": 0.0246,
"step": 50
},
{
"epoch": 0.85,
"grad_norm": 0.058374303645117254,
"learning_rate": 3.556545654351749e-05,
"loss": 0.0374,
"step": 51
},
{
"epoch": 0.8666666666666667,
"grad_norm": 0.048229479234652914,
"learning_rate": 3.490199415097892e-05,
"loss": 0.014,
"step": 52
},
{
"epoch": 0.8833333333333333,
"grad_norm": 0.1116537762164303,
"learning_rate": 3.423015368281711e-05,
"loss": 0.0608,
"step": 53
},
{
"epoch": 0.9,
"grad_norm": 0.10061044105577996,
"learning_rate": 3.355050358314172e-05,
"loss": 0.0516,
"step": 54
},
{
"epoch": 0.9166666666666666,
"grad_norm": 0.03632666996645082,
"learning_rate": 3.2863618903790346e-05,
"loss": 0.0175,
"step": 55
},
{
"epoch": 0.9333333333333333,
"grad_norm": 0.09798325714369964,
"learning_rate": 3.217008081777726e-05,
"loss": 0.0539,
"step": 56
},
{
"epoch": 0.95,
"grad_norm": 0.041871432689224525,
"learning_rate": 3.147047612756302e-05,
"loss": 0.0165,
"step": 57
},
{
"epoch": 0.9666666666666667,
"grad_norm": 0.027807008725540924,
"learning_rate": 3.076539676856101e-05,
"loss": 0.0148,
"step": 58
},
{
"epoch": 0.9833333333333333,
"grad_norm": 0.09552739074203695,
"learning_rate": 3.0055439308300952e-05,
"loss": 0.0488,
"step": 59
},
{
"epoch": 1.0,
"grad_norm": 0.07404717305489242,
"learning_rate": 2.9341204441673266e-05,
"loss": 0.0146,
"step": 60
},
{
"epoch": 1.0,
"eval_loss": 0.06926747411489487,
"eval_runtime": 0.4224,
"eval_samples_per_second": 2.368,
"eval_steps_per_second": 2.368,
"step": 60
},
{
"epoch": 1.0166666666666666,
"grad_norm": 0.09788865996950347,
"learning_rate": 2.8623296482681166e-05,
"loss": 0.0356,
"step": 61
},
{
"epoch": 1.0333333333333334,
"grad_norm": 0.08079771593539767,
"learning_rate": 2.7902322853130757e-05,
"loss": 0.0229,
"step": 62
},
{
"epoch": 1.05,
"grad_norm": 0.0760928280834032,
"learning_rate": 2.717889356869146e-05,
"loss": 0.0389,
"step": 63
},
{
"epoch": 1.0666666666666667,
"grad_norm": 0.041864616374130206,
"learning_rate": 2.6453620722761896e-05,
"loss": 0.0151,
"step": 64
},
{
"epoch": 1.0833333333333333,
"grad_norm": 0.042533462897305765,
"learning_rate": 2.5727117968577784e-05,
"loss": 0.0052,
"step": 65
},
{
"epoch": 1.1,
"grad_norm": 0.03216872547341198,
"learning_rate": 2.5e-05,
"loss": 0.0121,
"step": 66
},
{
"epoch": 1.1166666666666667,
"grad_norm": 0.07057618074910738,
"learning_rate": 2.4272882031422215e-05,
"loss": 0.0143,
"step": 67
},
{
"epoch": 1.1333333333333333,
"grad_norm": 0.04041230452288535,
"learning_rate": 2.3546379277238107e-05,
"loss": 0.0158,
"step": 68
},
{
"epoch": 1.15,
"grad_norm": 0.08569115880014322,
"learning_rate": 2.2821106431308544e-05,
"loss": 0.0256,
"step": 69
},
{
"epoch": 1.1666666666666667,
"grad_norm": 0.027987976628450678,
"learning_rate": 2.2097677146869242e-05,
"loss": 0.0156,
"step": 70
},
{
"epoch": 1.1833333333333333,
"grad_norm": 0.08651128575293122,
"learning_rate": 2.1376703517318837e-05,
"loss": 0.0205,
"step": 71
},
{
"epoch": 1.2,
"grad_norm": 0.0528463020872861,
"learning_rate": 2.0658795558326743e-05,
"loss": 0.0124,
"step": 72
},
{
"epoch": 1.2166666666666668,
"grad_norm": 0.027896804918357394,
"learning_rate": 1.9944560691699057e-05,
"loss": 0.0104,
"step": 73
},
{
"epoch": 1.2333333333333334,
"grad_norm": 0.11788558334728132,
"learning_rate": 1.9234603231438995e-05,
"loss": 0.0301,
"step": 74
},
{
"epoch": 1.25,
"grad_norm": 0.0685772094585912,
"learning_rate": 1.852952387243698e-05,
"loss": 0.0086,
"step": 75
},
{
"epoch": 1.2666666666666666,
"grad_norm": 0.06295226557924795,
"learning_rate": 1.7829919182222752e-05,
"loss": 0.0171,
"step": 76
},
{
"epoch": 1.2833333333333332,
"grad_norm": 0.03456170544272382,
"learning_rate": 1.7136381096209664e-05,
"loss": 0.0099,
"step": 77
},
{
"epoch": 1.3,
"grad_norm": 0.11262701718603377,
"learning_rate": 1.6449496416858284e-05,
"loss": 0.0112,
"step": 78
},
{
"epoch": 1.3166666666666667,
"grad_norm": 0.0919125667332246,
"learning_rate": 1.5769846317182893e-05,
"loss": 0.0264,
"step": 79
},
{
"epoch": 1.3333333333333333,
"grad_norm": 0.04086689300793229,
"learning_rate": 1.509800584902108e-05,
"loss": 0.0084,
"step": 80
},
{
"epoch": 1.35,
"grad_norm": 0.040678611618594124,
"learning_rate": 1.443454345648252e-05,
"loss": 0.0174,
"step": 81
},
{
"epoch": 1.3666666666666667,
"grad_norm": 0.05993883779270187,
"learning_rate": 1.3780020494988446e-05,
"loss": 0.0239,
"step": 82
},
{
"epoch": 1.3833333333333333,
"grad_norm": 0.12993806838445923,
"learning_rate": 1.313499075630899e-05,
"loss": 0.033,
"step": 83
},
{
"epoch": 1.4,
"grad_norm": 0.07304189039011323,
"learning_rate": 1.2500000000000006e-05,
"loss": 0.0197,
"step": 84
},
{
"epoch": 1.4166666666666667,
"grad_norm": 0.0689091678299678,
"learning_rate": 1.1875585491636e-05,
"loss": 0.007,
"step": 85
},
{
"epoch": 1.4333333333333333,
"grad_norm": 0.08774236445685372,
"learning_rate": 1.126227554822985e-05,
"loss": 0.02,
"step": 86
},
{
"epoch": 1.45,
"grad_norm": 0.04323670987559839,
"learning_rate": 1.0660589091223855e-05,
"loss": 0.0146,
"step": 87
},
{
"epoch": 1.4666666666666668,
"grad_norm": 0.07693867684542874,
"learning_rate": 1.0071035207430352e-05,
"loss": 0.0353,
"step": 88
},
{
"epoch": 1.4833333333333334,
"grad_norm": 0.14474863169788849,
"learning_rate": 9.494112718293501e-06,
"loss": 0.0188,
"step": 89
},
{
"epoch": 1.5,
"grad_norm": 0.04526977561356337,
"learning_rate": 8.930309757836517e-06,
"loss": 0.0108,
"step": 90
},
{
"epoch": 1.5166666666666666,
"grad_norm": 0.06404092500617438,
"learning_rate": 8.380103359651553e-06,
"loss": 0.0137,
"step": 91
},
{
"epoch": 1.5333333333333332,
"grad_norm": 0.050088760216599394,
"learning_rate": 7.843959053281663e-06,
"loss": 0.0093,
"step": 92
},
{
"epoch": 1.55,
"grad_norm": 0.027150842383504944,
"learning_rate": 7.3223304703363135e-06,
"loss": 0.0045,
"step": 93
},
{
"epoch": 1.5666666666666667,
"grad_norm": 0.06557649736799927,
"learning_rate": 6.815658960673782e-06,
"loss": 0.0084,
"step": 94
},
{
"epoch": 1.5833333333333335,
"grad_norm": 0.06327635909564981,
"learning_rate": 6.324373218975105e-06,
"loss": 0.0112,
"step": 95
},
{
"epoch": 1.6,
"grad_norm": 0.07147697528679606,
"learning_rate": 5.848888922025553e-06,
"loss": 0.0031,
"step": 96
},
{
"epoch": 1.6166666666666667,
"grad_norm": 0.06388348686946749,
"learning_rate": 5.389608377010608e-06,
"loss": 0.0118,
"step": 97
},
{
"epoch": 1.6333333333333333,
"grad_norm": 0.06065918119652541,
"learning_rate": 4.946920181123904e-06,
"loss": 0.0095,
"step": 98
},
{
"epoch": 1.65,
"grad_norm": 0.10599974220901706,
"learning_rate": 4.521198892775203e-06,
"loss": 0.0082,
"step": 99
},
{
"epoch": 1.6666666666666665,
"grad_norm": 0.0973089891401389,
"learning_rate": 4.112804714676594e-06,
"loss": 0.0192,
"step": 100
},
{
"epoch": 1.6833333333333333,
"grad_norm": 0.05421100465758873,
"learning_rate": 3.7220831890750067e-06,
"loss": 0.0187,
"step": 101
},
{
"epoch": 1.7,
"grad_norm": 0.055025688908890945,
"learning_rate": 3.3493649053890326e-06,
"loss": 0.0128,
"step": 102
},
{
"epoch": 1.7166666666666668,
"grad_norm": 0.08261057437659475,
"learning_rate": 2.9949652204972254e-06,
"loss": 0.0125,
"step": 103
},
{
"epoch": 1.7333333333333334,
"grad_norm": 0.049683664163191955,
"learning_rate": 2.659183991914696e-06,
"loss": 0.0029,
"step": 104
},
{
"epoch": 1.75,
"grad_norm": 0.03474246809944209,
"learning_rate": 2.3423053240837515e-06,
"loss": 0.0045,
"step": 105
},
{
"epoch": 1.7666666666666666,
"grad_norm": 0.0593959450525547,
"learning_rate": 2.044597327993153e-06,
"loss": 0.0059,
"step": 106
},
{
"epoch": 1.7833333333333332,
"grad_norm": 0.07521006569566444,
"learning_rate": 1.7663118943294366e-06,
"loss": 0.0209,
"step": 107
},
{
"epoch": 1.8,
"grad_norm": 0.07150089860742137,
"learning_rate": 1.5076844803522922e-06,
"loss": 0.0114,
"step": 108
},
{
"epoch": 1.8166666666666667,
"grad_norm": 0.03264869509686978,
"learning_rate": 1.2689339106741527e-06,
"loss": 0.0042,
"step": 109
},
{
"epoch": 1.8333333333333335,
"grad_norm": 0.05100618836209095,
"learning_rate": 1.0502621921127776e-06,
"loss": 0.0117,
"step": 110
},
{
"epoch": 1.85,
"grad_norm": 0.043294737145527,
"learning_rate": 8.51854342773295e-07,
"loss": 0.0089,
"step": 111
},
{
"epoch": 1.8666666666666667,
"grad_norm": 0.020341331582946622,
"learning_rate": 6.738782355044049e-07,
"loss": 0.0033,
"step": 112
},
{
"epoch": 1.8833333333333333,
"grad_norm": 0.09957102033265092,
"learning_rate": 5.164844558612131e-07,
"loss": 0.0172,
"step": 113
},
{
"epoch": 1.9,
"grad_norm": 0.0546951438405961,
"learning_rate": 3.7980617469479953e-07,
"loss": 0.0107,
"step": 114
},
{
"epoch": 1.9166666666666665,
"grad_norm": 0.06741408064690184,
"learning_rate": 2.6395903547638825e-07,
"loss": 0.0102,
"step": 115
},
{
"epoch": 1.9333333333333333,
"grad_norm": 0.08608549474937367,
"learning_rate": 1.6904105645142444e-07,
"loss": 0.0129,
"step": 116
},
{
"epoch": 1.95,
"grad_norm": 0.04846554328673263,
"learning_rate": 9.513254770636137e-08,
"loss": 0.0103,
"step": 117
},
{
"epoch": 1.9666666666666668,
"grad_norm": 0.046597213387501495,
"learning_rate": 4.229604321829561e-08,
"loss": 0.0167,
"step": 118
},
{
"epoch": 1.9833333333333334,
"grad_norm": 0.06801021245949673,
"learning_rate": 1.0576247944985018e-08,
"loss": 0.0082,
"step": 119
},
{
"epoch": 2.0,
"grad_norm": 0.0779627871610986,
"learning_rate": 0.0,
"loss": 0.0156,
"step": 120
},
{
"epoch": 2.0,
"eval_loss": 0.06514051556587219,
"eval_runtime": 1.4905,
"eval_samples_per_second": 0.671,
"eval_steps_per_second": 0.671,
"step": 120
},
{
"epoch": 2.0,
"step": 120,
"total_flos": 1264763535360.0,
"train_loss": 0.029849421388159197,
"train_runtime": 358.0189,
"train_samples_per_second": 0.67,
"train_steps_per_second": 0.335
}
],
"logging_steps": 1,
"max_steps": 120,
"num_input_tokens_seen": 0,
"num_train_epochs": 2,
"save_steps": 500,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": true
},
"attributes": {}
}
},
"total_flos": 1264763535360.0,
"train_batch_size": 2,
"trial_name": null,
"trial_params": null
}