TeenEmo-Scripts / README.md
YUGOROU's picture
docs: ルートREADME.mdを追加(YAMLメタデータ・パイプライン全体像) (#14)
c6a03ec
metadata
language:
  - ja
  - en
license: mit
tags:
  - llm-training
  - eq-bench
  - vllm
pretty_name: TeenEmo Scripts

TeenEmo Scripts

TeenEmo の学習・評価パイプラインを構成するスクリプト集です。
合成データ生成 → SFT → DPO → EQ-Bench3 日本語評価 という一連のフローをカバーします。


パイプライン全体像

[合成データ生成]
  teememo-synth-complete.zip          # Qwen3.5-35B-A3B で生成した SFT/DPO データ
  setup.sh                            # Vast.ai 上でデータ生成環境をセットアップ
  test_llm.py                         # vLLM 接続スモークテスト

        ↓

[モデル学習]
  training/
    train_sft.py                      # SFT (LFM2.5-1.2B-Base → LoRA)
    train_dpo.py                      # DPO (SFT済みLoRA → 継続学習)
    → YUGOROU/TeenEmo-LFM2.5-1.2B-SFT
    → YUGOROU/TeenEmo-LFM2.5-1.2B-DPO
    → YUGOROU/TeenEmo-LFM2.5-1.2B-GGUF

        ↓

[EQ-Bench3 日本語化]
  eqbench-ja/
    translate_eqbench.py              # Qwen3.5-9B で英語 → 日本語翻訳
    → YUGOROU/teememo-eq-bench-ja

        ↓

[EQ-Bench3 評価]
  eqbench-run-v2/      # Vast.ai (L4/RTX4090) + HF Inference Providers (judge)
  eqbench-ja-run/      # A100 80GB + ローカル vLLM (judge)

ディレクトリ構成

TeenEmo-Scripts/
├── setup.sh                          # Vast.ai 合成データ生成環境セットアップ
├── test_llm.py                       # vLLM 接続スモークテスト
├── teememo-synth-complete.zip        # 合成データ生成パイプライン一式
│
├── training/                         # 学習スクリプト群
│   ├── README.md
│   ├── train_config.py               # 全設定値(環境変数で上書き可能)
│   ├── train_utils.py                # 共通ユーティリティ(ログ・データ読込)
│   ├── train_sft.py                  # SFT 学習スクリプト
│   └── train_dpo.py                  # DPO 学習スクリプト
│
├── eqbench-ja/                       # EQ-Bench3 日本語翻訳パイプライン
│   ├── setup_translate.sh            # 翻訳環境セットアップ
│   ├── serve_translate.sh            # Qwen3.5-9B vLLM サーバー起動
│   └── translate_eqbench.py          # 非同期翻訳スクリプト(チェックポイント対応)
│
├── eqbench-run-v2/                   # EQ-Bench3 評価 (Vast.ai / HF Inference Providers)
│   ├── README.md
│   ├── setup_eqbench_vast.sh         # Vast.ai セットアップ
│   ├── serve_test_vast.sh            # TeenEmo vLLM サーバー起動
│   └── restore_english_tags.py       # 翻訳時に日本語化されたタグの復元
│
└── eqbench-ja-run/                   # EQ-Bench3 評価 (A100 80GB / ローカル judge)
    ├── README.md
    ├── setup_eqbench_run.sh          # A100 セットアップ
    ├── serve_test.sh                 # TeenEmo vLLM サーバー起動(低GPU使用率)
    └── serve_judge.sh                # Qwen3.5-35B-A3B judge vLLM サーバー起動

モデル・データセット

種別 HF リポジトリ
ベースモデル LiquidAI/LFM2.5-1.2B-Base
SFT 済みモデル YUGOROU/TeenEmo-LFM2.5-1.2B-SFT
DPO 済みモデル YUGOROU/TeenEmo-LFM2.5-1.2B-DPO
GGUF YUGOROU/TeenEmo-LFM2.5-1.2B-GGUF
SFT データ YUGOROU/teememo-sft-validation
DPO データ YUGOROU/teememo-pref-data
EQ-Bench 日本語化 YUGOROU/teememo-eq-bench-ja

1. 合成データ生成環境のセットアップ

export HF_TOKEN="hf_xxxx"
export HF_USERNAME="YUGOROU"

curl -fL -H "Authorization: Bearer ${HF_TOKEN}" \
  "https://huggingface.co/datasets/YUGOROU/TeenEmo-Scripts/resolve/main/setup.sh" \
  | bash

動作確認:

cd /workspace/teememo-synth
python /path/to/test_llm.py

2. モデル学習 (SFT → DPO)

詳細は training/README.md を参照してください。

pip install unsloth trl datasets transformers

export HF_TOKEN="hf_xxxx"

# Step 1: SFT
python train_sft.py

# Step 2: DPO(SFT完了後)
python train_dpo.py

主な設定(環境変数で上書き可能):

設定 SFT DPO
エポック 3 2
実効バッチサイズ 128 (32×4) 32 (8×4)
学習率 2e-4 5e-5
LoRA rank 32 ← 継承

3. EQ-Bench3 日本語翻訳

export HF_TOKEN="hf_xxxx"

bash eqbench-ja/setup_translate.sh

# vLLM (Qwen3.5-9B) を tmux で起動
tmux new-session -d -s eq_tmux
tmux send-keys -t eq_tmux "cd /workspace/eqbench-ja && ./serve_translate.sh" Enter

# 翻訳実行(チェックポイントで途中再開可能)
python translate_eqbench.py

# 動作確認のみ(最初の2シナリオ)
python translate_eqbench.py --dry-run

翻訳結果は YUGOROU/teememo-eq-bench-ja に自動アップロードされます。


4. EQ-Bench3 評価

Vast.ai 構成(推奨): eqbench-run-v2/

受験者を Vast.ai の vLLM で、採点者を HF Inference Providers (novita / gpt-oss-120b) で実行します。
詳細は eqbench-run-v2/README.md を参照してください。

export HF_TOKEN="hf_xxxx"
curl -fL -H "Authorization: Bearer ${HF_TOKEN}" \
  "https://huggingface.co/datasets/YUGOROU/TeenEmo-Scripts/resolve/main/eqbench-run-v2/setup_eqbench_vast.sh" \
  -o /tmp/setup.sh && bash /tmp/setup.sh

A100 80GB 構成: eqbench-ja-run/

受験者・採点者ともに同一インスタンス上のローカル vLLM を使用します。
詳細は eqbench-ja-run/README.md を参照してください。

export HF_TOKEN="hf_xxxx"
curl -fL -H "Authorization: Bearer ${HF_TOKEN}" \
  "https://huggingface.co/datasets/YUGOROU/TeenEmo-Scripts/resolve/main/eqbench-ja-run/setup_eqbench_run.sh" \
  -o /tmp/setup.sh && bash /tmp/setup.sh

技術スタック

カテゴリ ライブラリ・サービス
学習 Unsloth + TRL
推論 vLLM
評価 EQ-Bench3
GPU 環境 Vast.ai (L4 / RTX 4090)

ライセンス

MIT