--- base_model: inecnuc/Llama-3.1-8B-4bit-turkish-chat language: - tr license: apache-2.0 tags: - text-generation-inference - transformers - inetnuc - llama - gguf --- # Llama-3.1-8B Türkçe Sohbet Modeli - **Geliştiren:** inetnuc - **Lisans:** apache-2.0 - **Temel Model:** unsloth/Llama-3.1-8B-4bit Bu Llama-3.1-8B modeli, Türkçe dili ile ilgili konular için metin üretim yeteneklerini artırmak amacıyla ince ayar yapılmıştır. Eğitim süreci, [Unsloth](https://github.com/unslothai/unsloth) ve Huggingface'in TRL kütüphanesi kullanılarak hızlandırılmış olup, 2 kat daha hızlı performans elde edilmiştir. ## İnce Ayar Süreci Model, Unsloth kütüphanesi kullanılarak ince ayar yapılmıştır ve süreç aşağıdaki adımları içermektedir: 1. **Veri Hazırlama:** Türkçe dili ile ilgili veriler yüklendi ve ön işlemden geçirildi. 2. **Model Yükleme:** `unsloth/Llama-3.1-8B-4bit` temel model olarak kullanıldı. 3. **LoRA Uygulaması:** Etkin eğitim için LoRA (Düşük Rütbe Adaptasyonu) uygulandı. 4. **Eğitim:** Optimize edilmiş hiperparametrelerle Hugging Face'in TRL kütüphanesi kullanılarak model ince ayar yapıldı. ## Model Detayları - **Temel Model:** `unsloth/Llama-3.1-8B-4bit` - **Dil:** Türkçe (`tr`) - **Lisans:** Apache-2.0 ## Yazar **MUSTAFA UMUT ÖZBEK** **https://www.linkedin.com/in/mustafaumutozbek/** **https://x.com/m_umut_ozbek** ## Kullanım ### Modeli Yükleme Modeli ve tokenizer'ı aşağıdaki kod parçası ile yükleyebilirsiniz: ```python from transformers import AutoModelForCausalLM, AutoTokenizer # Tokenizer ve modeli yükleme tokenizer = AutoTokenizer.from_pretrained("inetnuc/Llama-3.1-8B-4bit-turkish-chat") model = AutoModelForCausalLM.from_pretrained("inetnuc/Llama-3.1-8B-4bit-turkish-chat") # Metin üretim örneği inputs = tokenizer("IAEA'nın siber güvenlik yaklaşımı nedir?", return_tensors="pt") outputs = model.generate(**inputs, max_new_tokens=128) print(tokenizer.decode(outputs[0], skip_special_tokens=True))