feat: PR#8 - SFT/DPO 学習スクリプト追加

#8
by YUGOROU - opened
training/README.md ADDED
@@ -0,0 +1,91 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # TeenEmo 学習スクリプト
2
+
3
+ LFM2-1.2B を TeenEmo データセットで SFT → DPO の順に学習するスクリプト群。
4
+
5
+ ## ファイル構成
6
+
7
+ | ファイル | 役割 |
8
+ |---------|------|
9
+ | `train_config.py` | 全設定値(環境変数で上書き可能) |
10
+ | `train_utils.py` | 共通ユーティリティ(ログ・データ読み込み) |
11
+ | `train_sft.py` | SFT(教師あり微調整)学習スクリプト |
12
+ | `train_dpo.py` | DPO(直接選好最適化)学習スクリプト |
13
+
14
+ ## セットアップ
15
+
16
+ ```bash
17
+ pip install unsloth trl datasets transformers
18
+ ```
19
+
20
+ ## 実行手順
21
+
22
+ ### 1. 環境変数の設定
23
+
24
+ ```bash
25
+ export HF_TOKEN="hf_xxxx"
26
+ export HF_USERNAME="YUGOROU"
27
+ ```
28
+
29
+ ### 2. SFT 学習
30
+
31
+ ```bash
32
+ python train_sft.py
33
+ ```
34
+
35
+ 完了すると以下が生成されます:
36
+ - `./outputs/sft/lora/` — LoRA アダプタ
37
+ - `./outputs/sft/gguf/` — GGUF ファイル(q4_k_m)
38
+ - HF Hub: `YUGOROU/TeenEmo-LFM2-1.2B-SFT`
39
+
40
+ ### 3. DPO 学習
41
+
42
+ ```bash
43
+ python train_dpo.py
44
+ ```
45
+
46
+ 完了すると以下が生成されます:
47
+ - `./outputs/dpo/lora/` — LoRA アダプタ
48
+ - `./outputs/dpo/gguf/` — GGUF ファイル(q4_k_m)
49
+ - HF Hub: `YUGOROU/TeenEmo-LFM2-1.2B-DPO`
50
+ - HF Hub: `YUGOROU/TeenEmo-LFM2-1.2B-GGUF`
51
+
52
+ ## 設定のカスタマイズ
53
+
54
+ `train_config.py` の値は全て環境変数で上書き可能:
55
+
56
+ ```bash
57
+ # エポック数を変更
58
+ SFT_EPOCHS=2 python train_sft.py
59
+
60
+ # バッチサイズを変更(OOM 対策)
61
+ SFT_BATCH_SIZE=4 SFT_GRAD_ACCUM=8 python train_sft.py
62
+
63
+ # DPO beta を変更
64
+ DPO_BETA=0.05 python train_dpo.py
65
+
66
+ # GGUF 保存をスキップ
67
+ SAVE_GGUF=false python train_dpo.py
68
+ ```
69
+
70
+ ## ログ
71
+
72
+ 学習ログは `./outputs/sft/logs/` および `./outputs/dpo/logs/` に保存されます。
73
+ 詳細なエラートレースも含まれます。
74
+
75
+ ## デフォルト設定値
76
+
77
+ ### SFT
78
+ - ベースモデル: `liquidai/LFM2-1.2B`
79
+ - データセット: `YUGOROU/teememo-sft-validation`
80
+ - エポック: 3
81
+ - バッチサイズ: 8 × 勾配累積 4(実効バッチ 32)
82
+ - 学習率: 2e-4(cosine スケジューラ)
83
+ - LoRA rank: 32, alpha: 64
84
+
85
+ ### DPO
86
+ - ベースモデル: SFT 済みアダプタ
87
+ - データセット: `YUGOROU/teememo-pref-data`
88
+ - エポック: 2
89
+ - バッチサイズ: 4 × 勾配累積 8(実効バッチ 32)
90
+ - 学習率: 5e-5
91
+ - beta: 0.1
training/train_config.py ADDED
@@ -0,0 +1,80 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ """
2
+ train_config.py — TeenEmo 学習設定
3
+
4
+ 全ての設定値を一箇所で管理する。
5
+ 環境変数で上書き可能。
6
+ """
7
+
8
+ from __future__ import annotations
9
+ import os
10
+
11
+ # ── Hugging Face ──────────────────────────────────────────────
12
+ HF_TOKEN: str = os.environ.get("HF_TOKEN", "")
13
+ HF_USERNAME: str = os.environ.get("HF_USERNAME", "YUGOROU")
14
+
15
+ # ── ベースモデル ───────────────────────────────────────────────
16
+ # LFM2.5-1.2B-Base を使用
17
+ BASE_MODEL: str = os.environ.get("BASE_MODEL", "LiquidAI/LFM2.5-1.2B-Base")
18
+
19
+ # ── データセット ───────────────────────────────────────────────
20
+ # SFT: teememo-sft-validation(本番データが格納されている)
21
+ SFT_DATASET: str = os.environ.get("SFT_DATASET", f"{HF_USERNAME}/teememo-sft-validation")
22
+ PREF_DATASET: str = os.environ.get("PREF_DATASET", f"{HF_USERNAME}/teememo-pref-data")
23
+
24
+ # ── 出力先 ─────────────────────────────────────────────────────
25
+ SFT_OUTPUT_DIR: str = os.environ.get("SFT_OUTPUT_DIR", "./outputs/sft")
26
+ DPO_OUTPUT_DIR: str = os.environ.get("DPO_OUTPUT_DIR", "./outputs/dpo")
27
+ SFT_HF_REPO: str = os.environ.get("SFT_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2.5-1.2B-SFT")
28
+ DPO_HF_REPO: str = os.environ.get("DPO_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2.5-1.2B-DPO")
29
+ GGUF_HF_REPO: str = os.environ.get("GGUF_HF_REPO", f"{HF_USERNAME}/TeenEmo-LFM2.5-1.2B-GGUF")
30
+
31
+ # ── LoRA 設定 ─────────────────────────────────────────────────
32
+ # LFM2.5 のアーキテクチャに合わせたターゲットモジュール
33
+ # 参考: https://unsloth.ai/docs/models/tutorials/lfm2.5
34
+ LORA_R: int = int(os.environ.get("LORA_R", "32"))
35
+ LORA_ALPHA: int = int(os.environ.get("LORA_ALPHA", "64")) # r * 2 推奨
36
+ LORA_DROPOUT: float = float(os.environ.get("LORA_DROPOUT", "0"))
37
+ LORA_TARGET_MODULES: list = [
38
+ # LFM2.5 固有のモジュール(通常の Transformer とは異なる)
39
+ "q_proj", "k_proj", "v_proj", "out_proj", "in_proj",
40
+ "w1", "w2", "w3",
41
+ ]
42
+
43
+ # ── シーケンス長 ───────────────────────────────────────────────
44
+ # LFM2.5 は最大 32768 トークン対応、SFT データに合わせて 2048 に設定
45
+ MAX_SEQ_LENGTH: int = int(os.environ.get("MAX_SEQ_LENGTH", "2048"))
46
+
47
+ # ── SFT 学習設定(A100 80GB 最適化)─────────────────────────
48
+ # A100 80GB: LFM2.5-1.2B は bf16 で非常に小さいため大バッチが可能
49
+ # 実効バッチ = SFT_BATCH_SIZE × SFT_GRAD_ACCUM = 32 × 4 = 128
50
+ SFT_BATCH_SIZE: int = int(os.environ.get("SFT_BATCH_SIZE", "32"))
51
+ SFT_GRAD_ACCUM: int = int(os.environ.get("SFT_GRAD_ACCUM", "4"))
52
+ SFT_EPOCHS: int = int(os.environ.get("SFT_EPOCHS", "3"))
53
+ SFT_LR: float = float(os.environ.get("SFT_LR", "2e-4"))
54
+ SFT_WARMUP_RATIO: float = float(os.environ.get("SFT_WARMUP_RATIO","0.05"))
55
+ SFT_LR_SCHEDULER: str = os.environ.get("SFT_LR_SCHEDULER", "cosine")
56
+ SFT_WEIGHT_DECAY: float = float(os.environ.get("SFT_WEIGHT_DECAY","0.01"))
57
+ SFT_LOGGING_STEPS: int = int(os.environ.get("SFT_LOGGING_STEPS", "10"))
58
+ SFT_SAVE_STEPS: int = int(os.environ.get("SFT_SAVE_STEPS", "100"))
59
+ SFT_PACKING: bool = os.environ.get("SFT_PACKING", "false").lower() == "true"
60
+
61
+ # ── DPO 学習設定(A100 80GB 最適化)─────────────────────────
62
+ # DPO は chosen/rejected の2倍メモリが必要なためバッチサイズを抑える
63
+ # 実効バッチ = DPO_BATCH_SIZE × DPO_GRAD_ACCUM = 8 × 4 = 32
64
+ DPO_BATCH_SIZE: int = int(os.environ.get("DPO_BATCH_SIZE", "8"))
65
+ DPO_GRAD_ACCUM: int = int(os.environ.get("DPO_GRAD_ACCUM", "4"))
66
+ DPO_EPOCHS: int = int(os.environ.get("DPO_EPOCHS", "2"))
67
+ DPO_LR: float = float(os.environ.get("DPO_LR", "5e-5"))
68
+ DPO_WARMUP_RATIO: float = float(os.environ.get("DPO_WARMUP_RATIO","0.1"))
69
+ DPO_LR_SCHEDULER: str = os.environ.get("DPO_LR_SCHEDULER", "cosine")
70
+ DPO_WEIGHT_DECAY: float = float(os.environ.get("DPO_WEIGHT_DECAY","0.01"))
71
+ DPO_LOGGING_STEPS: int = int(os.environ.get("DPO_LOGGING_STEPS", "5"))
72
+ DPO_SAVE_STEPS: int = int(os.environ.get("DPO_SAVE_STEPS", "100"))
73
+ DPO_BETA: float = float(os.environ.get("DPO_BETA", "0.1"))
74
+ DPO_MAX_PROMPT_LENGTH: int = int(os.environ.get("DPO_MAX_PROMPT_LENGTH", "512"))
75
+ DPO_MAX_LENGTH: int = int(os.environ.get("DPO_MAX_LENGTH", "1024"))
76
+
77
+ # ── GGUF 量子化 ────────────────────────────────────────────────
78
+ GGUF_QUANTIZATION: str = os.environ.get("GGUF_QUANTIZATION", "q4_k_m")
79
+ SAVE_GGUF: bool = os.environ.get("SAVE_GGUF", "true").lower() == "true"
80
+ PUSH_TO_HUB: bool = os.environ.get("PUSH_TO_HUB", "true").lower() == "true"
training/train_dpo.py ADDED
@@ -0,0 +1,229 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ """
2
+ train_dpo.py — TeenEmo DPO(SFT済みLoRAへの継続学習)
3
+
4
+ フロー:
5
+ 1. SFT 済み LoRA アダプタを HF Hub またはローカルからロード
6
+ 2. DPO 用 LoRA アダプタを追加設定
7
+ 3. 選好データセットを HF Hub から取得・チャットテンプレート適用
8
+ 4. DPOTrainer で学習(SFT アダプタに継続学習)
9
+ 5. [STEP 2/3] DPO 完了 → HF Hub に push
10
+ 6. [STEP 3/3] GGUF 変換 → HF Hub に push
11
+
12
+ 実行例:
13
+ python train_dpo.py
14
+ DPO_EPOCHS=1 DPO_BETA=0.05 python train_dpo.py
15
+ """
16
+
17
+ from __future__ import annotations
18
+
19
+ import os
20
+ import sys
21
+ import traceback
22
+ from datetime import datetime, timezone
23
+ from pathlib import Path
24
+
25
+ if not os.environ.get("HF_TOKEN"):
26
+ print("[ERROR] HF_TOKEN が未設定です。export HF_TOKEN='hf_...' を実行してください。")
27
+ sys.exit(1)
28
+
29
+ import torch
30
+ from unsloth import FastLanguageModel, PatchDPOTrainer, is_bfloat16_supported
31
+ from trl import DPOTrainer, DPOConfig
32
+
33
+ import train_config as cfg
34
+ from train_utils import (
35
+ setup_logger, log_gpu_info, log_training_config,
36
+ load_pref_dataset, apply_chat_template_dpo,
37
+ )
38
+
39
+
40
+ def main() -> None:
41
+ # DPOTrainer の Unsloth パッチ(必ず最初に呼ぶ)
42
+ PatchDPOTrainer()
43
+
44
+ start_time = datetime.now(timezone.utc)
45
+ log_dir = Path(cfg.DPO_OUTPUT_DIR) / "logs"
46
+ log_dir.mkdir(parents=True, exist_ok=True)
47
+ log_file = log_dir / f"dpo_{start_time.strftime('%Y%m%d_%H%M%S')}.log"
48
+
49
+ logger = setup_logger("dpo", str(log_file))
50
+ logger.info(f"=== TeenEmo DPO 開始 [{start_time.isoformat()}] ===")
51
+
52
+ log_gpu_info(logger)
53
+ log_training_config(logger, "DPO")
54
+
55
+ # ── SFT 済み LoRA アダプタのロード ───────────────────────
56
+ # ローカルに SFT アダプタがあればそちらを優先
57
+ sft_lora_dir = Path(cfg.SFT_OUTPUT_DIR) / "lora"
58
+ if sft_lora_dir.exists():
59
+ model_path = str(sft_lora_dir)
60
+ logger.info(f"SFT LoRA アダプタ(ローカル)からロード: {model_path}")
61
+ else:
62
+ model_path = cfg.SFT_HF_REPO
63
+ logger.info(f"SFT LoRA アダプタ(HF Hub)からロード: {model_path}")
64
+
65
+ try:
66
+ model, tokenizer = FastLanguageModel.from_pretrained(
67
+ model_name=model_path,
68
+ max_seq_length=cfg.MAX_SEQ_LENGTH,
69
+ dtype=None,
70
+ load_in_4bit=False,
71
+ token=cfg.HF_TOKEN or None,
72
+ )
73
+ logger.info("SFT モデルロード完了 ✅")
74
+ except Exception as e:
75
+ logger.error(f"モデルロードエラー: {e}")
76
+ logger.debug(traceback.format_exc())
77
+ logger.info("先に train_sft.py を実行してください。")
78
+ raise
79
+
80
+ # ── DPO 用 LoRA アダプタ追加 ─────────────────────────────
81
+ logger.info("DPO 用 LoRA アダプタ追加中...")
82
+ try:
83
+ model = FastLanguageModel.get_peft_model(
84
+ model,
85
+ r=cfg.LORA_R,
86
+ target_modules=cfg.LORA_TARGET_MODULES,
87
+ lora_alpha=cfg.LORA_ALPHA,
88
+ lora_dropout=cfg.LORA_DROPOUT,
89
+ bias="none",
90
+ use_gradient_checkpointing="unsloth",
91
+ random_state=3407,
92
+ )
93
+ trainable = sum(p.numel() for p in model.parameters() if p.requires_grad)
94
+ logger.info(f" 学習可能パラメータ: {trainable:,}")
95
+ except Exception as e:
96
+ logger.error(f"LoRA 設定エラー: {e}")
97
+ logger.debug(traceback.format_exc())
98
+ raise
99
+
100
+ # ── データセット準備 ──────────────────────────────────────
101
+ logger.info("選好データセット準備中...")
102
+ try:
103
+ raw_ds = load_pref_dataset(logger)
104
+
105
+ # チャットテンプレート適用(SFT と同じフォーマットに統一)
106
+ logger.info("チャットテンプレート適用中...")
107
+ ds = raw_ds.map(
108
+ lambda x: apply_chat_template_dpo(x, tokenizer, logger),
109
+ batched=True,
110
+ desc="DPO チャットテンプレート適用",
111
+ )
112
+ logger.info(f"選好データ準備完了: {len(ds)} 件")
113
+
114
+ # サンプル確認
115
+ logger.debug(f" prompt[0]: {ds[0]['prompt'][:100]}")
116
+ logger.debug(f" chosen[0]: {ds[0]['chosen'][:100]}")
117
+ except Exception as e:
118
+ logger.error(f"データセット準備エラー: {e}")
119
+ logger.debug(traceback.format_exc())
120
+ raise
121
+
122
+ # ── DPOTrainer 初期化 ─────────────────────────────────────
123
+ logger.info("DPOTrainer 初期化中...")
124
+ try:
125
+ dpo_trainer = DPOTrainer(
126
+ model=model,
127
+ ref_model=None, # implicit reference(メモリ節約)
128
+ args=DPOConfig(
129
+ output_dir=cfg.DPO_OUTPUT_DIR,
130
+ per_device_train_batch_size=cfg.DPO_BATCH_SIZE,
131
+ gradient_accumulation_steps=cfg.DPO_GRAD_ACCUM,
132
+ num_train_epochs=cfg.DPO_EPOCHS,
133
+ learning_rate=cfg.DPO_LR,
134
+ warmup_ratio=cfg.DPO_WARMUP_RATIO,
135
+ lr_scheduler_type=cfg.DPO_LR_SCHEDULER,
136
+ weight_decay=cfg.DPO_WEIGHT_DECAY,
137
+ fp16=not is_bfloat16_supported(),
138
+ bf16=is_bfloat16_supported(),
139
+ logging_steps=cfg.DPO_LOGGING_STEPS,
140
+ save_steps=cfg.DPO_SAVE_STEPS,
141
+ save_total_limit=2,
142
+ optim="adamw_8bit",
143
+ seed=42,
144
+ report_to="none",
145
+ ),
146
+ beta=cfg.DPO_BETA,
147
+ train_dataset=ds,
148
+ tokenizer=tokenizer,
149
+ max_length=cfg.DPO_MAX_LENGTH,
150
+ max_prompt_length=cfg.DPO_MAX_PROMPT_LENGTH,
151
+ )
152
+ logger.info("DPOTrainer 初期化完了 ✅")
153
+ except Exception as e:
154
+ logger.error(f"DPOTrainer 初期化エラー: {e}")
155
+ logger.debug(traceback.format_exc())
156
+ raise
157
+
158
+ # ── DPO 学習実行 ──────────────────────────────────────────
159
+ logger.info("DPO 学習開始...")
160
+ try:
161
+ train_result = dpo_trainer.train()
162
+ logger.info("DPO 学習完了 ✅")
163
+ logger.info(f" train_loss: {train_result.training_loss:.4f}")
164
+ logger.info(f" train_runtime: {train_result.metrics.get('train_runtime', 0):.0f}s")
165
+ logger.info(f" samples/sec: {train_result.metrics.get('train_samples_per_second', 0):.2f}")
166
+ logger.info(f" rewards/chosen: {train_result.metrics.get('rewards/chosen', 'N/A')}")
167
+ logger.info(f" rewards/rejected: {train_result.metrics.get('rewards/rejected', 'N/A')}")
168
+ logger.info(f" rewards/margin: {train_result.metrics.get('rewards/margins', 'N/A')}")
169
+ except Exception as e:
170
+ logger.error(f"DPO 学習エラー: {e}")
171
+ logger.debug(traceback.format_exc())
172
+ raise
173
+
174
+ # ── LoRA アダプタ保存 ─────────────────────────────────────
175
+ lora_dir = Path(cfg.DPO_OUTPUT_DIR) / "lora"
176
+ logger.info(f"LoRA アダプタ保存: {lora_dir}")
177
+ try:
178
+ model.save_pretrained(str(lora_dir))
179
+ tokenizer.save_pretrained(str(lora_dir))
180
+ logger.info("LoRA アダプタ保存完了 ✅")
181
+ except Exception as e:
182
+ logger.error(f"LoRA 保存エラー: {e}")
183
+ logger.debug(traceback.format_exc())
184
+ raise
185
+
186
+ # ── [STEP 2/3] HF Hub に SFT+DPO チェックポイント push ───
187
+ if cfg.PUSH_TO_HUB and cfg.HF_TOKEN:
188
+ logger.info(f"[STEP 2/3] HF Hub に SFT+DPO チェックポイント push: {cfg.DPO_HF_REPO}")
189
+ try:
190
+ model.push_to_hub(cfg.DPO_HF_REPO, token=cfg.HF_TOKEN)
191
+ tokenizer.push_to_hub(cfg.DPO_HF_REPO, token=cfg.HF_TOKEN)
192
+ logger.info(f" ✅ https://huggingface.co/{cfg.DPO_HF_REPO}")
193
+ except Exception as e:
194
+ logger.error(f"DPO push エラー: {e}")
195
+ logger.debug(traceback.format_exc())
196
+
197
+ # ── [STEP 3/3] GGUF 変換 + HF Hub push ───────────────────
198
+ if cfg.SAVE_GGUF:
199
+ logger.info(f"[STEP 3/3] GGUF 変換中 ({cfg.GGUF_QUANTIZATION})...")
200
+ try:
201
+ gguf_dir = Path(cfg.DPO_OUTPUT_DIR) / "gguf"
202
+ gguf_dir.mkdir(parents=True, exist_ok=True)
203
+
204
+ if cfg.PUSH_TO_HUB and cfg.HF_TOKEN:
205
+ model.push_to_hub_gguf(
206
+ cfg.GGUF_HF_REPO,
207
+ tokenizer,
208
+ quantization_method=cfg.GGUF_QUANTIZATION,
209
+ token=cfg.HF_TOKEN,
210
+ )
211
+ logger.info(f" ✅ https://huggingface.co/{cfg.GGUF_HF_REPO}")
212
+ else:
213
+ model.save_pretrained_gguf(
214
+ str(gguf_dir),
215
+ tokenizer,
216
+ quantization_method=cfg.GGUF_QUANTIZATION,
217
+ )
218
+ logger.info(f" ✅ ローカル保存: {gguf_dir}")
219
+ except Exception as e:
220
+ logger.error(f"GGUF 変換エラー: {e}")
221
+ logger.debug(traceback.format_exc())
222
+
223
+ elapsed = (datetime.now(timezone.utc) - start_time).total_seconds()
224
+ logger.info(f"=== DPO 完了 ({elapsed/60:.1f}分) ===")
225
+ logger.info(f"ログ: {log_file}")
226
+
227
+
228
+ if __name__ == "__main__":
229
+ main()
training/train_sft.py ADDED
@@ -0,0 +1,191 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ """
2
+ train_sft.py — TeenEmo SFT(教師あり微調整)
3
+
4
+ フロー:
5
+ 1. LFM2.5-1.2B-Base を HF Hub からロード
6
+ 2. LoRA アダプタを設定
7
+ 3. SFT データセットを HF Hub から取得・変換
8
+ 4. SFTTrainer で学習
9
+ 5. SFT 完了 → HF Hub にチェックポイントを push(STEP 1/3)
10
+ ※ GGUF保存は DPO 完了後に train_dpo.py が行う
11
+
12
+ 実行例:
13
+ python train_sft.py
14
+ SFT_EPOCHS=2 SFT_BATCH_SIZE=16 python train_sft.py
15
+ """
16
+
17
+ from __future__ import annotations
18
+
19
+ import os
20
+ import sys
21
+ import traceback
22
+ from datetime import datetime, timezone
23
+ from pathlib import Path
24
+
25
+ if not os.environ.get("HF_TOKEN"):
26
+ print("[ERROR] HF_TOKEN が未設定です。export HF_TOKEN='hf_...' を実行してください。")
27
+ sys.exit(1)
28
+
29
+ import torch
30
+ from unsloth import FastLanguageModel, is_bfloat16_supported
31
+ from trl import SFTTrainer, SFTConfig
32
+
33
+ import train_config as cfg
34
+ from train_utils import (
35
+ setup_logger, log_gpu_info, log_training_config,
36
+ load_sft_dataset, apply_chat_template_sft,
37
+ )
38
+
39
+
40
+ def main() -> None:
41
+ start_time = datetime.now(timezone.utc)
42
+ log_dir = Path(cfg.SFT_OUTPUT_DIR) / "logs"
43
+ log_dir.mkdir(parents=True, exist_ok=True)
44
+ log_file = log_dir / f"sft_{start_time.strftime('%Y%m%d_%H%M%S')}.log"
45
+
46
+ logger = setup_logger("sft", str(log_file))
47
+ logger.info(f"=== TeenEmo SFT 開始 [{start_time.isoformat()}] ===")
48
+
49
+ log_gpu_info(logger)
50
+ log_training_config(logger, "SFT")
51
+
52
+ # ── モデルロード ──────────────────────────────────────────
53
+ logger.info(f"モデルロード中: {cfg.BASE_MODEL}")
54
+ try:
55
+ model, tokenizer = FastLanguageModel.from_pretrained(
56
+ model_name=cfg.BASE_MODEL,
57
+ max_seq_length=cfg.MAX_SEQ_LENGTH,
58
+ dtype=None, # A100 → bfloat16 自動選択
59
+ load_in_4bit=False, # LFM2.5: bf16 LoRA 推奨
60
+ token=cfg.HF_TOKEN or None,
61
+ )
62
+ logger.info("モデルロード完了 ✅")
63
+ except Exception as e:
64
+ logger.error(f"モデルロードエラー: {e}")
65
+ logger.debug(traceback.format_exc())
66
+ raise
67
+
68
+ # ── LoRA 設定 ──────────────────────────────────────────────
69
+ logger.info("LoRA アダプタ設定中...")
70
+ try:
71
+ model = FastLanguageModel.get_peft_model(
72
+ model,
73
+ r=cfg.LORA_R,
74
+ target_modules=cfg.LORA_TARGET_MODULES,
75
+ lora_alpha=cfg.LORA_ALPHA,
76
+ lora_dropout=cfg.LORA_DROPOUT,
77
+ bias="none",
78
+ use_gradient_checkpointing="unsloth",
79
+ random_state=3407,
80
+ use_rslora=False,
81
+ loftq_config=None,
82
+ )
83
+ total_params = sum(p.numel() for p in model.parameters())
84
+ trainable_params = sum(p.numel() for p in model.parameters() if p.requires_grad)
85
+ logger.info(f" 全パラメータ数: {total_params:,}")
86
+ logger.info(f" 学習可能パラメータ数: {trainable_params:,} ({trainable_params/total_params*100:.2f}%)")
87
+ except Exception as e:
88
+ logger.error(f"LoRA 設定エラー: {e}")
89
+ logger.debug(traceback.format_exc())
90
+ raise
91
+
92
+ # ── データセット準備 ──────────────────────────────────────
93
+ logger.info("データセット準備中...")
94
+ try:
95
+ raw_ds = load_sft_dataset(logger)
96
+ logger.info("チャットテンプレート適用中...")
97
+ ds = raw_ds.map(
98
+ lambda x: apply_chat_template_sft(x, tokenizer, logger),
99
+ batched=True,
100
+ remove_columns=raw_ds.column_names,
101
+ desc="チャットテンプレート適用",
102
+ )
103
+ before = len(ds)
104
+ ds = ds.filter(lambda x: len(x["text"]) > 0)
105
+ logger.info(f" 変換後: {before} → {len(ds)} 件")
106
+ logger.debug(f" サンプル[0]:\n{ds[0]['text'][:300]}")
107
+ except Exception as e:
108
+ logger.error(f"データセット準備エラー: {e}")
109
+ logger.debug(traceback.format_exc())
110
+ raise
111
+
112
+ # ── SFTTrainer 初期化 ─────────────────────────────────────
113
+ logger.info("SFTTrainer 初期化中...")
114
+ try:
115
+ trainer = SFTTrainer(
116
+ model=model,
117
+ tokenizer=tokenizer,
118
+ train_dataset=ds,
119
+ dataset_text_field="text",
120
+ max_seq_length=cfg.MAX_SEQ_LENGTH,
121
+ packing=cfg.SFT_PACKING,
122
+ args=SFTConfig(
123
+ output_dir=cfg.SFT_OUTPUT_DIR,
124
+ per_device_train_batch_size=cfg.SFT_BATCH_SIZE,
125
+ gradient_accumulation_steps=cfg.SFT_GRAD_ACCUM,
126
+ num_train_epochs=cfg.SFT_EPOCHS,
127
+ learning_rate=cfg.SFT_LR,
128
+ warmup_ratio=cfg.SFT_WARMUP_RATIO,
129
+ lr_scheduler_type=cfg.SFT_LR_SCHEDULER,
130
+ weight_decay=cfg.SFT_WEIGHT_DECAY,
131
+ fp16=not is_bfloat16_supported(),
132
+ bf16=is_bfloat16_supported(),
133
+ logging_steps=cfg.SFT_LOGGING_STEPS,
134
+ save_steps=cfg.SFT_SAVE_STEPS,
135
+ save_total_limit=2,
136
+ optim="adamw_8bit",
137
+ seed=3407,
138
+ report_to="none",
139
+ dataset_num_proc=2,
140
+ ),
141
+ )
142
+ logger.info("SFTTrainer 初期化完了 ✅")
143
+ except Exception as e:
144
+ logger.error(f"SFTTrainer 初期化エラー: {e}")
145
+ logger.debug(traceback.format_exc())
146
+ raise
147
+
148
+ # ── 学習実行 ──────────────────────────────────────────────
149
+ logger.info("SFT 学習開始...")
150
+ try:
151
+ train_result = trainer.train()
152
+ logger.info("SFT 学習完了 ✅")
153
+ logger.info(f" train_loss: {train_result.training_loss:.4f}")
154
+ logger.info(f" train_runtime: {train_result.metrics.get('train_runtime', 0):.0f}s")
155
+ logger.info(f" samples/sec: {train_result.metrics.get('train_samples_per_second', 0):.2f}")
156
+ except Exception as e:
157
+ logger.error(f"SFT 学習エラー: {e}")
158
+ logger.debug(traceback.format_exc())
159
+ raise
160
+
161
+ # ── LoRA アダプタ保存 ─────────────────────────────────────
162
+ lora_dir = Path(cfg.SFT_OUTPUT_DIR) / "lora"
163
+ logger.info(f"LoRA アダプタ保存: {lora_dir}")
164
+ try:
165
+ model.save_pretrained(str(lora_dir))
166
+ tokenizer.save_pretrained(str(lora_dir))
167
+ logger.info("LoRA アダプタ保存完了 ✅")
168
+ except Exception as e:
169
+ logger.error(f"LoRA 保存エラー: {e}")
170
+ logger.debug(traceback.format_exc())
171
+ raise
172
+
173
+ # ── [STEP 1/3] HF Hub に SFT チェックポイント push ───────
174
+ if cfg.PUSH_TO_HUB and cfg.HF_TOKEN:
175
+ logger.info(f"[STEP 1/3] HF Hub に SFT チェックポイント push: {cfg.SFT_HF_REPO}")
176
+ try:
177
+ model.push_to_hub(cfg.SFT_HF_REPO, token=cfg.HF_TOKEN)
178
+ tokenizer.push_to_hub(cfg.SFT_HF_REPO, token=cfg.HF_TOKEN)
179
+ logger.info(f" ✅ https://huggingface.co/{cfg.SFT_HF_REPO}")
180
+ except Exception as e:
181
+ logger.error(f"SFT push エラー: {e}")
182
+ logger.debug(traceback.format_exc())
183
+
184
+ elapsed = (datetime.now(timezone.utc) - start_time).total_seconds()
185
+ logger.info(f"=== SFT 完了 ({elapsed/60:.1f}分) ===")
186
+ logger.info(f"次のステップ: python train_dpo.py")
187
+ logger.info(f"ログ: {log_file}")
188
+
189
+
190
+ if __name__ == "__main__":
191
+ main()
training/train_utils.py ADDED
@@ -0,0 +1,253 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ """
2
+ train_utils.py — 共通ユーティリティ
3
+
4
+ ログ出力・データセット読み込み・チャットテンプレート適用など
5
+ SFT/DPO 両スクリプトで共有する処理をまとめる。
6
+ """
7
+
8
+ from __future__ import annotations
9
+
10
+ import json
11
+ import logging
12
+ import os
13
+ import sys
14
+ import traceback
15
+ from datetime import datetime, timezone
16
+ from pathlib import Path
17
+ from typing import Any
18
+
19
+ import torch
20
+ from datasets import Dataset, load_dataset
21
+ from transformers import PreTrainedTokenizer
22
+
23
+ import train_config as cfg
24
+
25
+
26
+ # ── ロガー設定 ────────────────────────────────────────────────
27
+
28
+ def setup_logger(name: str, log_file: str | None = None) -> logging.Logger:
29
+ """
30
+ 詳細なログを出力するロガーを設定する。
31
+ ファイルとstdoutの両方に出力する。
32
+ """
33
+ logger = logging.getLogger(name)
34
+ logger.setLevel(logging.DEBUG)
35
+ fmt = logging.Formatter(
36
+ "[%(asctime)s] [%(levelname)s] [%(name)s] %(message)s",
37
+ datefmt="%Y-%m-%d %H:%M:%S",
38
+ )
39
+
40
+ # stdout ハンドラ
41
+ sh = logging.StreamHandler(sys.stdout)
42
+ sh.setLevel(logging.DEBUG)
43
+ sh.setFormatter(fmt)
44
+ logger.addHandler(sh)
45
+
46
+ # ファイルハンドラ(オプション)
47
+ if log_file:
48
+ Path(log_file).parent.mkdir(parents=True, exist_ok=True)
49
+ fh = logging.FileHandler(log_file, encoding="utf-8")
50
+ fh.setLevel(logging.DEBUG)
51
+ fh.setFormatter(fmt)
52
+ logger.addHandler(fh)
53
+
54
+ return logger
55
+
56
+
57
+ # ── GPU 情報 ──────────────────────────────────────────────────
58
+
59
+ def log_gpu_info(logger: logging.Logger) -> None:
60
+ if not torch.cuda.is_available():
61
+ logger.warning("CUDA が利用できません。CPU で実行します。")
62
+ return
63
+ for i in range(torch.cuda.device_count()):
64
+ props = torch.cuda.get_device_properties(i)
65
+ total_gb = props.total_memory / 1e9
66
+ logger.info(f"GPU {i}: {props.name} VRAM: {total_gb:.1f}GB")
67
+ logger.info(f"bfloat16 サポート: {torch.cuda.is_bf16_supported()}")
68
+
69
+
70
+ # ── SFT データセット読み込み ──────────────────────────────────
71
+
72
+ def load_sft_dataset(logger: logging.Logger) -> Dataset:
73
+ """
74
+ HF Hub から SFT データセットを読み込み、チャット形式に変換する。
75
+ フォーマット: messages フィールド(OpenAI 形式)
76
+ """
77
+ logger.info(f"SFT データセット読み込み: {cfg.SFT_DATASET}")
78
+ try:
79
+ ds = load_dataset(
80
+ cfg.SFT_DATASET,
81
+ split="train",
82
+ token=cfg.HF_TOKEN or None,
83
+ )
84
+ except Exception as e:
85
+ logger.error(f"データセット読み込みエラー: {e}")
86
+ logger.debug(traceback.format_exc())
87
+ raise
88
+
89
+ logger.info(f" 件数: {len(ds)}")
90
+ logger.info(f" カラム: {ds.column_names}")
91
+
92
+ # サンプル確認
93
+ sample = ds[0]
94
+ logger.debug(f" サンプル[0] キー: {list(sample.keys())}")
95
+ if "messages" in sample:
96
+ for m in sample["messages"][:2]:
97
+ logger.debug(f" role={m['role']} content={m['content'][:80]}...")
98
+
99
+ return ds
100
+
101
+
102
+ # ── DPO データセット読み込み ──────────────────────────────────
103
+
104
+ def load_pref_dataset(logger: logging.Logger) -> Dataset:
105
+ """
106
+ HF Hub から選好データセットを読み込む。
107
+ フォーマット: prompt / chosen / rejected フィールド
108
+ """
109
+ logger.info(f"選好データセット読み込み: {cfg.PREF_DATASET}")
110
+ try:
111
+ ds = load_dataset(
112
+ cfg.PREF_DATASET,
113
+ split="train",
114
+ token=cfg.HF_TOKEN or None,
115
+ )
116
+ except Exception as e:
117
+ logger.error(f"データセット読み込みエラー: {e}")
118
+ logger.debug(traceback.format_exc())
119
+ raise
120
+
121
+ logger.info(f" 件数: {len(ds)}")
122
+ logger.info(f" カラム: {ds.column_names}")
123
+
124
+ # バリデーション
125
+ required = {"prompt", "chosen", "rejected"}
126
+ missing = required - set(ds.column_names)
127
+ if missing:
128
+ raise ValueError(f"DPO データセットに必須カラムが不足: {missing}")
129
+
130
+ # サンプル確認
131
+ sample = ds[0]
132
+ logger.debug(f" prompt[0]: {sample['prompt'][:80]}")
133
+ logger.debug(f" chosen[0]: {sample['chosen'][:80]}")
134
+ logger.debug(f" rejected[0]: {sample['rejected'][:80]}")
135
+
136
+ # chosen/rejected に <synth> タグが残っていないか確認
137
+ synth_count = sum(1 for x in ds["chosen"] if "<synth>" in x)
138
+ if synth_count > 0:
139
+ logger.warning(f" chosen に <synth> タグが {synth_count} 件残存しています!")
140
+ else:
141
+ logger.info(" chosen <synth> タグなし ✅")
142
+
143
+ return ds
144
+
145
+
146
+ # ── チャットテンプレート適用(SFT用) ─────────────────────────
147
+
148
+ def apply_chat_template_sft(
149
+ examples: dict,
150
+ tokenizer: PreTrainedTokenizer,
151
+ logger: logging.Logger,
152
+ ) -> dict:
153
+ """
154
+ messages フィールドをチャットテンプレートで text に変換する。
155
+ LFM2 のチャットテンプレートに対応。
156
+ """
157
+ texts = []
158
+ errors = 0
159
+ for messages in examples["messages"]:
160
+ try:
161
+ text = tokenizer.apply_chat_template(
162
+ messages,
163
+ tokenize=False,
164
+ add_generation_prompt=False,
165
+ )
166
+ texts.append(text)
167
+ except Exception as e:
168
+ logger.warning(f"チャットテンプレート適用エラー: {e}")
169
+ logger.debug(traceback.format_exc())
170
+ texts.append("")
171
+ errors += 1
172
+ if errors > 0:
173
+ logger.warning(f"チャットテンプレート適用エラー: {errors} 件")
174
+ return {"text": texts}
175
+
176
+
177
+ # ── DPO データ変換(チャットテンプレート適用) ────────────────
178
+
179
+ def apply_chat_template_dpo(
180
+ examples: dict,
181
+ tokenizer: PreTrainedTokenizer,
182
+ logger: logging.Logger,
183
+ ) -> dict:
184
+ """
185
+ DPO データの prompt/chosen/rejected にチャットテンプレートを適用する。
186
+ prompt は user ターンのみ、chosen/rejected は assistant ターンとして整形する。
187
+ """
188
+ prompts, chosens, rejecteds = [], [], []
189
+
190
+ for prompt, chosen, rejected in zip(
191
+ examples["prompt"], examples["chosen"], examples["rejected"]
192
+ ):
193
+ try:
194
+ # prompt: user メッセージ
195
+ prompt_text = tokenizer.apply_chat_template(
196
+ [{"role": "user", "content": prompt}],
197
+ tokenize=False,
198
+ add_generation_prompt=True,
199
+ )
200
+ # chosen: assistant メッセージ
201
+ chosen_text = tokenizer.apply_chat_template(
202
+ [
203
+ {"role": "user", "content": prompt},
204
+ {"role": "assistant", "content": chosen},
205
+ ],
206
+ tokenize=False,
207
+ add_generation_prompt=False,
208
+ )
209
+ # rejected: assistant メッセージ
210
+ rejected_text = tokenizer.apply_chat_template(
211
+ [
212
+ {"role": "user", "content": prompt},
213
+ {"role": "assistant", "content": rejected},
214
+ ],
215
+ tokenize=False,
216
+ add_generation_prompt=False,
217
+ )
218
+ prompts.append(prompt_text)
219
+ chosens.append(chosen_text)
220
+ rejecteds.append(rejected_text)
221
+ except Exception as e:
222
+ logger.warning(f"DPO チャットテンプレート適用エラー: {e}")
223
+ prompts.append(prompt)
224
+ chosens.append(chosen)
225
+ rejecteds.append(rejected)
226
+
227
+ return {"prompt": prompts, "chosen": chosens, "rejected": rejecteds}
228
+
229
+
230
+ # ── 学習設定のサマリー出力 ─────────────────────────────────────
231
+
232
+ def log_training_config(logger: logging.Logger, mode: str) -> None:
233
+ logger.info(f"=== {mode} 学習設定 ===")
234
+ logger.info(f" ベースモデル : {cfg.BASE_MODEL}")
235
+ if mode == "SFT":
236
+ logger.info(f" データセット : {cfg.SFT_DATASET}")
237
+ logger.info(f" エポック数 : {cfg.SFT_EPOCHS}")
238
+ logger.info(f" バッチサイズ : {cfg.SFT_BATCH_SIZE} × 勾配累積 {cfg.SFT_GRAD_ACCUM}")
239
+ logger.info(f" 学習率 : {cfg.SFT_LR}")
240
+ logger.info(f" 出力先 : {cfg.SFT_OUTPUT_DIR}")
241
+ logger.info(f" HF リポジトリ: {cfg.SFT_HF_REPO}")
242
+ else:
243
+ logger.info(f" データセット : {cfg.PREF_DATASET}")
244
+ logger.info(f" エポック数 : {cfg.DPO_EPOCHS}")
245
+ logger.info(f" バッチサイズ : {cfg.DPO_BATCH_SIZE} × 勾配累積 {cfg.DPO_GRAD_ACCUM}")
246
+ logger.info(f" 学習率 : {cfg.DPO_LR}")
247
+ logger.info(f" DPO beta : {cfg.DPO_BETA}")
248
+ logger.info(f" 出力先 : {cfg.DPO_OUTPUT_DIR}")
249
+ logger.info(f" HF リポジトリ: {cfg.DPO_HF_REPO}")
250
+ logger.info(f" LoRA rank : {cfg.LORA_R} alpha: {cfg.LORA_ALPHA}")
251
+ logger.info(f" 最大長 : {cfg.MAX_SEQ_LENGTH}")
252
+ logger.info(f" GGUF 保存 : {cfg.SAVE_GGUF} ({cfg.GGUF_QUANTIZATION})")
253
+ logger.info(f" HF Push : {cfg.PUSH_TO_HUB}")