--- license: mit base_model: - utter-project/EuroLLM-1.7B --- Continued the pretraining of EuroLM 1.7B via Unsloth. It took **more than 50 hours** to continue the pretraining on **~450M high quality, recently scraped Turkish tokens** using my poor RTX 3090. The aim of this project was to create a decent base model for further dataset generation & augmentation. --- Unsloth aracılığıyla EuroLM 1.7B'ye continued pretraining yapıldı. Tek RTX 3090 ile **~450M yüksek kaliteli, yakın zamanda scrape ettiğim** Türkçe tokenler ile continued pretraining süreci **50 saatten fazla sürdü**. Bu projenin amacı, daha fazla veri seti oluşturmak için iyi bir temel model oluşturmak. ![image/png](https://cdn-uploads.huggingface.co/production/uploads/6324eabf05bd8a54c6eb1650/LErN4OWVRgvyXoLEQ6oW2.png)