--- library_name: peft base_model: KT-AI/midm-bitext-S-7B-inst-v1 datasets: - nsmc metrics: - accuracy 90.0% --- # Model Card for Model ID ## Model Description ### midm-bitext-S-7B-inst-v1 미세 튜닝 해당 모델은 네이버 영화 리뷰 데이터셋인 NSMC에 대해 KT-AI/midm-bitext-S-7B-inst-v1을 미세튜닝한 모델입니다. 영화 리뷰 텍스트를 프롬프트에 포함하여 모델에 입력시,'긍정' 또는 '부정' 이라고 예측 텍스트를 직접 생성합니다. 결과적으로, 정확도 90.0%를 가지는 모델을 완성했습니다. ### Train, Test 데이터셋 해당 모델은 NSMC의 train 데이터의 상위 2,000개의 샘플을 학습에 사용했습니다. 해당 모델은 NSMC의 test 데이터의 상위 1,000개의 샘플을 평가에 사용했습니다. ## Training_step_loss ![image/png](https://cdn-uploads.huggingface.co/production/uploads/651bf3be3fa6c4e182910420/WIBCaCIemHUS1QXqKzyPy.png) ## Confusion_Matrix ![image/png](https://cdn-uploads.huggingface.co/production/uploads/651bf3be3fa6c4e182910420/X2nTz9ltBFbAeqWJBfQz_.png) ## Accuracy_Classification_Report ![image/png](https://cdn-uploads.huggingface.co/production/uploads/651bf3be3fa6c4e182910420/GJpzAVO7ee3cQcbHxiYSG.png) ## Training procedure The following `bitsandbytes` quantization config was used during training: - quant_method: bitsandbytes - load_in_8bit: False - load_in_4bit: True - llm_int8_threshold: 6.0 - llm_int8_skip_modules: None - llm_int8_enable_fp32_cpu_offload: False - llm_int8_has_fp16_weight: False - bnb_4bit_quant_type: nf4 - bnb_4bit_use_double_quant: False - bnb_4bit_compute_dtype: bfloat16 ### Framework versions - PEFT 0.7.0