metadata
base_model: inecnuc/Llama-3.1-8B-4bit-turkish-chat
language:
- tr
license: apache-2.0
tags:
- text-generation-inference
- transformers
- inetnuc
- llama
- gguf
Llama-3.1-8B Türkçe Sohbet Modeli
- Geliştiren: inetnuc
- Lisans: apache-2.0
- Temel Model: unsloth/Llama-3.1-8B-4bit
Bu Llama-3.1-8B modeli, Türkçe dili ile ilgili konular için metin üretim yeteneklerini artırmak amacıyla ince ayar yapılmıştır. Eğitim süreci, Unsloth ve Huggingface'in TRL kütüphanesi kullanılarak hızlandırılmış olup, 2 kat daha hızlı performans elde edilmiştir.
İnce Ayar Süreci
Model, Unsloth kütüphanesi kullanılarak ince ayar yapılmıştır ve süreç aşağıdaki adımları içermektedir:
- Veri Hazırlama: Türkçe dili ile ilgili veriler yüklendi ve ön işlemden geçirildi.
- Model Yükleme:
unsloth/Llama-3.1-8B-4bit
temel model olarak kullanıldı. - LoRA Uygulaması: Etkin eğitim için LoRA (Düşük Rütbe Adaptasyonu) uygulandı.
- Eğitim: Optimize edilmiş hiperparametrelerle Hugging Face'in TRL kütüphanesi kullanılarak model ince ayar yapıldı.
Model Detayları
- Temel Model:
unsloth/Llama-3.1-8B-4bit
- Dil: Türkçe (
tr
) - Lisans: Apache-2.0
Yazar
MUSTAFA UMUT ÖZBEK
https://www.linkedin.com/in/mustafaumutozbek/ https://x.com/m_umut_ozbek
Kullanım
Modeli Yükleme
Modeli ve tokenizer'ı aşağıdaki kod parçası ile yükleyebilirsiniz:
from transformers import AutoModelForCausalLM, AutoTokenizer
# Tokenizer ve modeli yükleme
tokenizer = AutoTokenizer.from_pretrained("inetnuc/Llama-3.1-8B-4bit-turkish-chat")
model = AutoModelForCausalLM.from_pretrained("inetnuc/Llama-3.1-8B-4bit-turkish-chat")
# Metin üretim örneği
inputs = tokenizer("IAEA'nın siber güvenlik yaklaşımı nedir?", return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=128)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))