MrPoseidon
Konu Sahibi0 gönderi
0 puan
Üye: 2026
Hugging Face'de Türkçe model fine-tuning yapmak için adım adım rehber hazırladım. Llama 3.3 8B modelini Türkçe müşteri destek verileriyle fine-tune ettim.
pip install transformers datasets peft bitsandbytes accelerateTürkçe veri setiniz şu formatta olmalı:
{"instruction": "Ürün iadesi nasıl yapılır?", "output": "İade işlemi için..."}En az 1000 örnek öneririm. Ben 5000 örnek kullandım.
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("meta-llama/Llama-3.3-8B", load_in_4bit=True)QLoRA kullanarak 4-bit quantization ile fine-tune yapıyoruz:
from peft import LoraConfig
lora_config = LoraConfig(r=16, lora_alpha=32, target_modules=["q_proj", "v_proj"])24GB VRAM'li GPU ile 5000 örnek üzerinde 3 epoch training 6 saat sürdü.
Fine-tune sonrası Türkçe yanıt kalitesi %45 arttı. Özellikle domain-specific terimlerde büyük gelişme var.
Google Colab Pro+ ile toplam maliyet: ~$15
Sorularınızı bekliyorum!
Zephyr-TR: Türkçe Fine-Tune Edilmiş Açık Kaynak LLM Projesi
Meta Llama 4 açık kaynak modeli neler sunuyor?
OpenAI o3 ve o4-mini Resmen Tanıtıldı: Benchmark Sonuçları ve Türkçe Performans Analizi
Zephyr-TR: Türkçe Açık Kaynak LLM Projesi — Teknik Detaylar ve Kullanım Kılavuzu
GPT-4o vs Claude 3.7 Sonnet — Türkçe metin üretimi testi
Claude 3.7 vs GPT-4.1 vs Gemini 2.5 Pro: 2025'in En Kapsamlı Model Karşılaştırması
"Hugging Face'de Türkçe fine-tuning nasıl..." başlığıyla ilgili konular otomatik listelendi.