·Makine Öğrenimi
Sıcak Makine Öğrenimi

Hugging Face'de Türkçe fine-tuning nasıl yapılır? [Detaylı Rehber]

#fine-tuning#Hugging-Face#Türkçe-NLP#LoRA
5 gün önce 513 0 yanıt
M
MrPoseidonOPYönetici
5 gün önce· #1

Hugging Face'de Türkçe model fine-tuning yapmak için adım adım rehber hazırladım. Llama 3.3 8B modelini Türkçe müşteri destek verileriyle fine-tune ettim.

1. Ortam Hazırlığı

pip install transformers datasets peft bitsandbytes accelerate

2. Veri Seti Hazırlama

Türkçe veri setiniz şu formatta olmalı:

{"instruction": "Ürün iadesi nasıl yapılır?", "output": "İade işlemi için..."}

En az 1000 örnek öneririm. Ben 5000 örnek kullandım.

3. Model Yükleme

from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("meta-llama/Llama-3.3-8B", load_in_4bit=True)

4. LoRA Konfigürasyonu

QLoRA kullanarak 4-bit quantization ile fine-tune yapıyoruz:

from peft import LoraConfig
lora_config = LoraConfig(r=16, lora_alpha=32, target_modules=["q_proj", "v_proj"])

5. Training

24GB VRAM'li GPU ile 5000 örnek üzerinde 3 epoch training 6 saat sürdü.

Sonuçlar

Fine-tune sonrası Türkçe yanıt kalitesi %45 arttı. Özellikle domain-specific terimlerde büyük gelişme var.

Maliyetler

Google Colab Pro+ ile toplam maliyet: ~$15

Sorularınızı bekliyorum!

0 Yanıt

Yanıt Yaz

Yanıt yazmak için giriş yapmalısınız

Tartışmaya katılmak ve yanıt göndermek için hesabınıza giriş yapın.

Bu Konuyla İlgili Diğer Tartışmalar

"Hugging Face'de Türkçe fine-tuning nasıl..." başlığıyla ilgili konular otomatik listelendi.

Talk with Us