feat: PR#10 - EQ-Bench3 ローカルvLLM評価スクリプト
概要
TeenEmo-LFM2.5-1.2B-DPO を EQ-Bench3 日本語版で評価するための実行スクリプト群を eqbench-ja-run/ に追加。
ファイル構成
setup_eqbench_run.sh— 依存DL・.env生成・日本語シナリオ差し替えまでの一括セットアップserve_test.sh— TeenEmo受験者サーバー(port 8000、GPU_UTIL=0.10で軽量起動)serve_judge.sh— Qwen3.5-35B-A3B採点者サーバー(port 8001)README.md— 同時起動/順次実行モードの手順書
設計ポイント
- EQ-Bench3の
.envを自動生成し、TEST/JUDGE URLをそれぞれlocalhost:8000/8001に向ける - TeenEmoはGPU_UTIL=0.10(~3GB)に抑え、Judgeと同時起動できるよう設計
- OOM時のフォールバックとして順次実行モードをREADMEに記載
- Qwen3.5-35B-A3BはVLMのため
--language-model-onlyフラグを付与
評価実行コマンド
cd /workspace/eqbench-run/eqbench3
python eqbench3.py \
--test-model YUGOROU/TeenEmo-LFM2.5-1.2B-DPO \
--model-name TeenEmo-DPO \
--judge-model Qwen/Qwen3.5-35B-A3B \
--no-elo \
--iterations 1
評価エージェントB レビュー: PR#10 EQ-Bench3 評価スクリプト
4ファイルを確認しました。まず確認済みの点から報告します。
事前確認(問題なし)
- EQ-Bench3 の CLI 引数(
--test-model,--judge-model,--model-name,--no-elo,--iterations): 実際のソースと一致 ✅ .envの変数名(TEST_API_URL,TEST_API_KEY,JUDGE_API_URL,JUDGE_API_KEY): 実際のソースと一致 ✅Qwen3.5-35B-A3Bの--language-model-only: VLMのため正当 ✅
🔴 ブロッカー: serve_test.sh で LoRA アダプタを直接 serve できない
# 現状
exec vllm serve "YUGOROU/TeenEmo-LFM2.5-1.2B-DPO" ...
YUGOROU/TeenEmo-LFM2.5-1.2B-DPO は LoRA アダプタのみのリポジトリ(88.9MB)です。vllm serve はフルモデルを要求するため、このコマンドは起動エラーになります。
vLLM で LoRA アダプタを serve するには、ベースモデルと LoRA モジュールを分けて指定する必要があります:
exec vllm serve "LiquidAI/LFM2.5-1.2B-Base" --enable-lora --lora-modules teememo-dpo=YUGOROU/TeenEmo-LFM2.5-1.2B-DPO --served-model-name YUGOROU/TeenEmo-LFM2.5-1.2B-DPO ...
--served-model-name を YUGOROU/TeenEmo-LFM2.5-1.2B-DPO に揃えることで、EQ-Bench3 の --test-model YUGOROU/TeenEmo-LFM2.5-1.2B-DPO がそのまま機能します。
また、LiquidAI/LFM2.5-1.2B-Base が VLM であれば --language-model-only の追加も必要になります(PR#9で確認した Qwen3.5 と同様のケース)。
🟠 要修正: 順次実行モードのフォールバックが機能しない可能性
README の順次実行モードに以下の記述があります:
# → 採点時にjudge APIが返せずエラーになるが応答データは保存される
EQ-Bench3 がジャッジエラー時に応答データを保存するかどうかはソース依存です。実際の EQ-Bench3 は --save-interval オプションで定期保存しますが、ジャッジエラーで途中終了した場合に生成済み応答が残るかどうかは保証されません。信頼できないフォールバック手順をREADMEに記載することは混乱を招きます。
Phase 1 で --save-interval 1 を明示するか、または Phase 1 の段階でジャッジを無効化する方法(例: ダミーの judge URL を指定して意図的に失敗させる)を検討してください。
🟡 軽微: VRAM 表記の混在
serve_test.sh のコメントと README の表で「3GB」とあります。これはモデルの実際のサイズです。vLLM が 8GB(GPU_UTIL=0.10)」に統一することを推奨します。GPU_UTIL=0.10 × 80GB = 8GB を確保するため、VRAM 割り当ては 8GB です。KVキャッシュの余裕として 8GB は合理的な設定ですが、3GB と 8GB の両方が書かれていて読み手が混乱します。README の表を「
判定
ブロッカー(① LoRA serve 方法)の修正後にマージ可能です。順次実行モードの修正(②)も合わせて対処を推奨します。
評価エージェントB 再レビュー: ✅ APPROVED
前回指摘の全2件を確認しました。
解決状況
① serve_test.sh の LoRA serve 修正
LiquidAI/LFM2.5-1.2B-Base をベースモデルとして指定し、--enable-lora --lora-modules teenemo-dpo=YUGOROU/TeenEmo-LFM2.5-1.2B-DPO でアダプタをロードする形式に修正されています。LORA_NAME・LORA_REPO・BASE_MODEL が環境変数で上書き可能な設計になっており、README・setup_eqbench_run.sh・serve_test.sh の全3ファイルで --test-model teenemo-dpo に統一されていることを確認しました。✅
LiquidAI/LFM2.5-1.2B-Base の HF API も確認しました。pipeline_tag: text-generation、architectures: Lfm2ForCausalLM であり、VLM ではないため --language-model-only は不要で現在の設定は正しいです。✅
② 順次実行モードの改善
--save-interval 1 が Phase 1・Phase 2 双方のコマンドに追加されています。「応答データは保存される」という保証のない記述が「完了済みタスクはスキップされ採点のみ実行される」という確実な動作の説明に置き換えられています。pkill -f "vllm serve LiquidAI" によるプロセス停止も堅牢化されています。✅
残軽微事項(非ブロッカー、持越し可)
README のモデル構成表の VRAM 列が ~3GB のままです(前回の軽微指摘)。実際は GPU_UTIL=0.10 × 80GB = 8GB を確保します。実害はありません。
このPRは マージ可能 です。