feat: PR#8 - SFT/DPO 学習スクリプト追加

#8
by YUGOROU - opened

概要

TeenEmo の SFT → DPO 学習スクリプトを training/ ディレクトリに追加。

ファイル構成

  • training/train_config.py — 全設定値(環境変数で上書き可能)
  • training/train_utils.py — 共通ユーティリティ(ログ・データ読み込み)
  • training/train_sft.py — SFT 学習スクリプト
  • training/train_dpo.py — DPO 学習スクリプト
  • training/README.md — 実行手順

設計方針

  • 透明性: 4ファイルに分割し役割を明確化
  • 詳細ログ: 全エラーにトレースバック付きログ出力、ファイルにも保存
  • HFからデータ取得: SFT/DPO データセットを HF Hub から直接ロード
  • 環境変数: 全設定値を環境変数で上書き可能
  • Unsloth最新API: SFTConfigDPOConfigPatchDPOTrainer を使用

実行手順

export HF_TOKEN="hf_xxxx"
export HF_USERNAME="YUGOROU"
python training/train_sft.py
python training/train_dpo.py
YUGOROU changed pull request status to open

評価エージェントB レビュー: PR#8 training/ スクリプト群

全5ファイルを確認しました。構造・ログ設計・エラーハンドリングは良好です。マージ前に対処が必要な問題を優先度別に記載します。


🔴 ブロッカー(マージ前に必須)

train_config.py L17: SFT_DATASETteememo-sft-validation を参照している

SFT_DATASET: str = os.environ.get("SFT_DATASET", f"{HF_USERNAME}/teememo-sft-validation")

teememo-sft-validation は本番データセットではありません。本番データは teememo-sft-data (data/train.jsonl — 3,776件クリーニング済み) です。デフォルト値のままで実行すると誤ったデータで学習が走ります。

f"{HF_USERNAME}/teememo-sft-data" に修正してください。


train_dpo.py: DPOTrainer に apply_chat_template_dpo が適用されていない

train_utils.pyapply_chat_template_dpo 関数が実装されていますが、train_dpo.py では load_pref_dataset でデータを取得した後にチャットテンプレートを適用せず、生の文字列のまま DPOTrainer に渡しています。

コメント(L89)に「チャットテンプレートの適用は DPOTrainer 内部で行われる」とありますが、TRL の DPOTrainer が自動でチャットテンプレートを適用するのは prompt フィールドが messages リスト形式の場合のみです。今回の pref_data.jsonlprompt は生の文字列であるため、テンプレートが適用されないまま学習が走ります。LFM2 のチャットテンプレートが付与されない場合、SFT と DPO でフォーマットが不一致になり学習が壊れます。

ds = load_pref_dataset(logger) の直後に apply_chat_template_dpo を呼び出す処理を追加してください。


🟠 重要(学習安定性に影響)

train_sft.py: SFT_DATASETteememo-sft-validation を参照している(①と同根)

①と同じ理由です。train_config.py の修正で自動解決します。

train_sft.py: SFTデータに <synth> タグ残存レコードが混入したまま学習される

teememo-sft-data には <synth> タグ残存レコード(約225件)が含まれており、現時点でクリーニングされていません。Pref データと異なり SFT データ側はまだ後処理が行われていません。train_utils.pyload_sft_dataset<synth> 残存件数の警告ログを追加することを推奨します(load_pref_dataset の synth_count チェックと同様の処理)。


🟡 軽微(動作には影響しないが品質向上)

train_sft.py GGUF保存 (L133): push_to_hub_gguf の第1引数が gguf_dir(ローカルパス)になっている

model.push_to_hub_gguf(
    str(gguf_dir),   # ← ここはHFリポジトリ名を渡すべき
    ...
)

DPO側 (L163) は cfg.GGUF_HF_REPO を正しく渡しています。SFT側は str(gguf_dir) になっており、GGUFがローカルパス名のリポジトリにpushされる誤動作が起きます。

str(gguf_dir)cfg.GGUF_HF_REPO に変更してください。SFT/DPO共通の GGUF リポジトリに push する設計ならそのままで問題ありません(README記載もそうなっています)。

README.md: セットアップコマンドが不完全

pip install unsloth trl datasets transformers

Vast.ai 環境では uv を使用しており、また unsloth はCUDAバージョンに依存したインストールコマンドが必要です。既存の setup.sh との整合を取るか、「Vast.ai では setup.sh を使用」と明記することを推奨します。


判定

ブロッカー ①② の修正後にマージ可能です。⑤は軽微ですが同時に修正を推奨します。

評価エージェントB 再レビュー: ✅ APPROVED

前回指摘の3件(①②⑤)が全て適切に対処されていることを確認しました。加えて今回のコミットで追加された変更についても確認しました。


前回指摘の解決状況

# 指摘内容 状況
SFT_DATASET デフォルト値 teememo-sft-validation(本番データ確認済み)✅
② DPO チャットテンプレート未適用 apply_chat_template_dpo が正しくインポート・呼び出し済み ✅
⑤ SFT の push_to_hub_gguf にローカルパスを渡していた GGUF保存をSFTから削除し、DPOに集約する設計に変更。意図が明確で整合性が高い ✅

なお①について、前回の私のレビューは誤りでした。teememo-sft-validation は最初から正しいリポジトリ名であり、最初の修正コミット(5a88c14)で存在しない teememo-sft-data-v2 に変更してしまった後、最新コミットで正しく戻されています。


今回追加された変更の確認

BASE_MODEL: liquidai/LFM2-1.2BLiquidAI/LFM2.5-1.2B-Base
モデルの世代更新。TeenEmoのベースモデルがLFM2.5に移行する設計変更として確認済み。問題なし。

LORA_TARGET_MODULES: LFM2.5固有モジュールに変更
w1/w2/w3(MLP)・in_proj/out_proj(射影層)への変更。LFM2.5はLiquid Neural Networkアーキテクチャを持つため標準Transformerとモジュール名が異なるのは正しい。Unslothのドキュメントが引用されている。問題なし。

SFT実効バッチサイズ: 32(旧8)× 勾配累積4 = 128
A100 80GBでLFM2.5-1.2Bをmax_seq=2048・bf16で動かす場合、バッチ32は許容範囲内。OOMが発生した場合は SFT_BATCH_SIZE=16 で実行してください。


未解決の軽微事項(非ブロッカー、次回PRへの持越し可)

train_utils.pyload_sft_dataset<synth> タグ残存チェックが未追加(load_pref_dataset には実装済み)。teememo-sft-validation には約225件の <synth> 含有レコードが残っており、学習時に軽微なノイズになる可能性があります。


このPRは マージ可能 です。

トリプルチェッカー(エージェントA)としてPR #8の最終レビューを完了しました。

【評価】
LFM2.5-1.2B-Baseへの移行、およびA100 80GB環境に最適化された学習設定が非常に高いレベルで統合されています。

【確認事項】

  • ベースモデルの更新: LiquidAI/LFM2.5-1.2B-Base への移行と、それに伴うLoRAターゲットモジュール(w1/w2/w3, in_proj/out_proj等)の正確な設定を確認しました。
  • 学習効率の最大化: SFT実効バッチサイズ128(32×4)の設定は、1.2Bモデルの軽量さを活かした高速な収束を期待できます。
  • パイプラインの整合性: SFT → DPO → GGUF変換という3段階の自動化フローが、チェックポイントの依存関係を含めて正しく設計されています。

【提言(非ブロッカー)】

  • train_utils.pyload_sft_dataset において、load_pref_dataset と同様に <synth> タグの残存チェックを追加することを推奨します。これにより、学習データの純度をより確実に担保できます。

本PRは、TeenEmoプロジェクトを次のステージへ進めるための完璧な基盤です。マージを承認します。

YUGOROU changed pull request status to merged

Sign up or log in to comment