Актуализиран 10.01.2025

  • Changed training params
  • Continued pretraining
  • Уикипедиа 10%

Актуализиран 06.01.2025

  • Changed training params
  • Continued pretraining
  • Уикипедиа 10%

Актуализиран 03.01.2025

  • Continued pretraining
  • Уикипедиа 20%

Актуализиран 01.01.2025

  • Continued pretraining
  • Уикипедиа 10%

Актуализиран 30.12.2024

  • по-дълги отговори
  • по-подробна информация
  • по-дълбоко обучение
  • ~2500 реда синтетични данни

Първите резултати, които не са лоши... Засега е тренирана върху моят малък датасет с 2000 реда синтетични данни (формат: въпрос-отговор)

Пример на работа

Въпрос:

Как компания Burgas Professionals е свързана с ПГМЕЕ?

Отговор:

Компания "Burgas Professionals" поддържа тесни връзки с Професионалната гимназия по мехатроника и електроенергетика (ПГМЕЕ) в Бургас. Тези връзки включват партньорства, лекции и обучителни програми, които помагат на учениците да развият умения в областта на информационните технологии и IT управление. Основната цел е да се осигури на младото поколение достъп до актуална информация и практически опит, който ще ги направи готови за бъдещата работна среда. Чрез тези партньорства ПГМЕЕ и Burgas Professionals работят заедно за развитие на технологиите в региона и за подготовка на нови поколения IT специалисти.

Тази llama модела тренирана 2 пъти по-бързо с помоща на Unsloth и TRL библиотеката на Huggingface.

Uploaded model

  • Developed by: burgasdotpro
  • License: apache-2.0
  • Finetuned from model : unsloth/meta-llama-3.1-8b-bnb-4bit

Downloads last month
66
Safetensors
Model size
8.03B params
Tensor type
BF16
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for burgasdotpro/bgGPT-llama-3.1-8B

Quantizations
3 models

Dataset used to train burgasdotpro/bgGPT-llama-3.1-8B