feat: PR#12 - Vast.ai + HF Inference Providers統合・エラーハンドリング改善

#12
by YUGOROU - opened
eqbench-vast/README.md ADDED
@@ -0,0 +1,74 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # EQ-Bench3 評価 (Vast.ai + HF Inference Providers)
2
+
3
+ ## 構成
4
+
5
+ | 役割 | 実装 | 備考 |
6
+ |------|------|------|
7
+ | 受験者 | TeenEmo-LFM2.5-1.2B-DPO (LoRA on vLLM) | Vast.ai L4/RTX4090 |
8
+ | 採点者 | openai/gpt-oss-120b | HF Inference Providers / novita |
9
+
10
+ 採点者をHF Inference Providersに外出しすることで **OOM問題を完全に回避** し、TeenEmoに全GPUを投入できる。
11
+
12
+ ## 今セッションで発生した問題と修正
13
+
14
+ | Fix | 問題 | 修正 |
15
+ |-----|------|------|
16
+ | Fix-1 | `LoRA rank 32 > max_lora_rank 16` | `--max-lora-rank 32` を追加 |
17
+ | Fix-2 | `max_tokens=12000 > max_model_len=4096` | `--max-model-len 32768` に設定 |
18
+ | Fix-3 | Judge URLが誤り | `https://router.huggingface.co/novita/v1/chat/completions` |
19
+ | Fix-4 | 途中失敗で再起動不可 | `--save-interval 1` で1タスクごと保存 |
20
+ | Fix-5 | HF APIタイムアウト | `MAX_RETRIES=6`, `RETRY_DELAY=10`, `REQUEST_TIMEOUT=300` |
21
+
22
+ ## 対象GPU
23
+
24
+ L4 / RTX 4090 (24GB) / L40S (48GB)
25
+ LFM2.5-1.2B-Base (bf16 ~2.5GB) + LoRA → 24GBで十分
26
+
27
+ ## 推定コスト
28
+
29
+ - Vast.ai: L4 ~$0.35/hr × ~30分 = **~$0.18**
30
+ - HF Inference Providers: 46シナリオ × ~8,000 input + ~500 output tokens = **~$0.024**
31
+ - **合計: ~$0.20**
32
+
33
+ ## セットアップ
34
+
35
+ ```bash
36
+ export HF_TOKEN="hf_xxxx" && export HF_USERNAME="YUGOROU" && \
37
+ curl -fL -H "Authorization: Bearer ${HF_TOKEN}" \
38
+ "https://huggingface.co/datasets/YUGOROU/Test-2/resolve/main/eqbench-vast/setup_eqbench_vast.sh" \
39
+ -o /tmp/setup_eqbench_vast.sh && bash /tmp/setup_eqbench_vast.sh
40
+ ```
41
+
42
+ ## 実行
43
+
44
+ ```bash
45
+ # Step 1: TeenEmoサーバー起動
46
+ tmux new-session -d -s eq_run
47
+ tmux send-keys -t eq_run "cd /workspace/eqbench-run && export HF_TOKEN='hf_xxx' && ./serve_test_vast.sh" Enter
48
+
49
+ # Step 2: 起動確認
50
+ tmux capture-pane -t eq_run -p | grep "startup complete"
51
+
52
+ # Step 3: 評価実行
53
+ cd /workspace/eqbench-run/eqbench3
54
+ python eqbench3.py \
55
+ --test-model teenemo-dpo \
56
+ --model-name TeenEmo-DPO \
57
+ --judge-model openai/gpt-oss-120b \
58
+ --no-elo \
59
+ --save-interval 1 \
60
+ --iterations 1
61
+ ```
62
+
63
+ ## 結果確認
64
+
65
+ ```bash
66
+ cat /workspace/eqbench-run/eqbench3/eqbench3_runs.json | python3 -c "
67
+ import json, sys
68
+ data = json.load(sys.stdin)
69
+ for k, v in data.items():
70
+ if 'TeenEmo' in k:
71
+ print(f'Score: {v.get(\"eq_bench_score\", \"N/A\")}')
72
+ print(f'Status: {v.get(\"status\")}')
73
+ "
74
+ ```
eqbench-vast/serve_test_vast.sh ADDED
@@ -0,0 +1,56 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ #!/usr/bin/env bash
2
+ # =============================================================================
3
+ # serve_test_vast.sh — TeenEmo 受験者サーバー (Vast.ai L4/RTX4090/L40S)
4
+ #
5
+ # 今セッションで判明した問題の修正:
6
+ # [Fix-1] --max-lora-rank 32: UnslothのLoRAはrank=32のためデフォルト値16では起動失敗
7
+ # [Fix-2] --max-model-len 32768: EQ-Bench3はmax_tokens=12000を要求するため
8
+ # max_model_len >= 12000 + プロンプト長 が必要
9
+ # [Fix-3] --gpu-memory-utilization 0.95: TeenEmo専用インスタンスのため全GPU投入
10
+ #
11
+ # 採点者はHF Inference Providers (novita/gpt-oss-120b) を使用するため
12
+ # Judge用のVRAMを確保する必要はない。
13
+ #
14
+ # 対象GPU: L4 (24GB) / RTX 4090 (24GB) / L40S (48GB)
15
+ # LFM2.5-1.2B-Base (bf16 ~2.5GB) + LoRA overhead → 24GBで十分
16
+ # =============================================================================
17
+
18
+ set -euo pipefail
19
+
20
+ BASE_MODEL="${TEST_BASE_MODEL:-LiquidAI/LFM2.5-1.2B-Base}"
21
+ LORA_REPO="${TEST_LORA_REPO:-YUGOROU/TeenEmo-LFM2.5-1.2B-DPO}"
22
+ LORA_NAME="${TEST_LORA_NAME:-teenemo-dpo}"
23
+ PORT="${TEST_PORT:-8000}"
24
+ HOST="${VLLM_HOST:-0.0.0.0}"
25
+ # [Fix-3] TeenEmo専用インスタンスのため全GPU投入
26
+ GPU_UTIL="${TEST_GPU_UTIL:-0.95}"
27
+ # [Fix-2] EQ-Bench3がmax_tokens=12000を要求 + プロンプト長を考慮して32768に設定
28
+ MAX_MODEL_LEN="${TEST_MAX_MODEL_LEN:-32768}"
29
+ DTYPE="${VLLM_DTYPE:-auto}"
30
+ HF_TOKEN="${HF_TOKEN:-}"
31
+
32
+ echo "=== TeenEmo 受験者サーバー起動 (Vast.ai 専用) ==="
33
+ echo " ベースモデル : ${BASE_MODEL}"
34
+ echo " LoRAアダプタ : ${LORA_REPO} (name=${LORA_NAME})"
35
+ echo " ポート : ${PORT}"
36
+ echo " GPU 使用率 : ${GPU_UTIL} (TeenEmo専用)"
37
+ echo " 最大コンテキスト: ${MAX_MODEL_LEN} (EQ-Bench3: max_tokens=12000 対応)"
38
+ echo ""
39
+
40
+ python -c "import vllm; print(f' vLLM: {vllm.__version__}')" 2>/dev/null || true
41
+ echo ""
42
+
43
+ exec vllm serve "${BASE_MODEL}" \
44
+ --host "${HOST}" \
45
+ --port "${PORT}" \
46
+ --dtype "${DTYPE}" \
47
+ --gpu-memory-utilization "${GPU_UTIL}" \
48
+ --max-model-len "${MAX_MODEL_LEN}" \
49
+ --tensor-parallel-size 1 \
50
+ --max-num-seqs 16 \
51
+ --enable-prefix-caching \
52
+ --enable-lora \
53
+ --max-lora-rank 32 \
54
+ --lora-modules "${LORA_NAME}=${LORA_REPO}" \
55
+ --trust-remote-code \
56
+ ${HF_TOKEN:+--hf-token "${HF_TOKEN}"}
eqbench-vast/setup_eqbench_vast.sh ADDED
@@ -0,0 +1,126 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ #!/usr/bin/env bash
2
+ # =============================================================================
3
+ # setup_eqbench_vast.sh — EQ-Bench3 評価セットアップ (Vast.ai + HF Inference Providers)
4
+ #
5
+ # 構成:
6
+ # 受験者: TeenEmo-LFM2.5-1.2B-DPO (LoRA) on Vast.ai vLLM (port 8000)
7
+ # 採点者: openai/gpt-oss-120b via HF Inference Providers / novita
8
+ # → 別インスタンス不要・OOM不要・$0.05/$0.25 per 1M tokens
9
+ #
10
+ # 今セッションで判明した問題と対策:
11
+ # [Fix-1] max_lora_rank=32: Unsloth LoRAはrank=32のためデフォルト16では失敗
12
+ # [Fix-2] max_model_len=32768: EQ-Bench3のmax_tokens=12000に対応
13
+ # [Fix-3] HF Inference ProvidersのJudge URL: router.huggingface.co/novita
14
+ # [Fix-4] --save-interval 1: 1タスクごとに保存して途中再開を保証
15
+ # [Fix-5] MAX_RETRIES=6, REQUEST_TIMEOUT=300: HF APIのレート制限・遅延に対応
16
+ # =============================================================================
17
+
18
+ set -euo pipefail
19
+
20
+ HF_TOKEN="${HF_TOKEN:?HF_TOKEN が未設定です。export HF_TOKEN='hf_xxxx'}"
21
+ HF_USERNAME="${HF_USERNAME:-YUGOROU}"
22
+ WORKSPACE="/workspace/eqbench-run"
23
+ TEST_PORT="${TEST_PORT:-8000}"
24
+ LORA_NAME="${TEST_LORA_NAME:-teenemo-dpo}"
25
+
26
+ echo "[setup] EQ-Bench3 Vast.ai セットアップ"
27
+ echo "[setup] 採点者: HF Inference Providers / novita / gpt-oss-120b"
28
+
29
+ # ── 依存パッケージ ──────────────────────────────────────────
30
+ echo "[setup] 依存パッケージのインストール..."
31
+ pip install -q requests python-dotenv tqdm numpy scipy trueskill 2>/dev/null || true
32
+ apt-get install -y tmux git 2>/dev/null || true
33
+
34
+ # ── EQ-Bench3 クローン ────────────────────────────────────────
35
+ mkdir -p "${WORKSPACE}"
36
+ if [ -d "${WORKSPACE}/eqbench3" ]; then
37
+ echo "[setup] EQ-Bench3 更新中..."
38
+ git -C "${WORKSPACE}/eqbench3" pull --ff-only 2>/dev/null || true
39
+ else
40
+ echo "[setup] EQ-Bench3 クローン中..."
41
+ git clone --depth=1 https://github.com/EQ-bench/eqbench3.git "${WORKSPACE}/eqbench3"
42
+ fi
43
+ echo "[setup] ✅ EQ-Bench3"
44
+
45
+ # ── 日本語版シナリオDL(存在する場合) ────────────────────
46
+ echo "[setup] 日本語版シナリオをDL中..."
47
+ for pair in \
48
+ "scenario_prompts_ja.txt|${WORKSPACE}/eqbench3/data/scenario_prompts.txt" \
49
+ "scenario_notes_ja.txt|${WORKSPACE}/eqbench3/data/scenario_notes.txt"; do
50
+ SRC="${pair%%|*}"; DEST="${pair##*|}"
51
+ cp "${DEST}" "${DEST}.en.bak" 2>/dev/null || true
52
+ if curl -sfL -H "Authorization: Bearer ${HF_TOKEN}" \
53
+ "https://huggingface.co/datasets/${HF_USERNAME}/teememo-eq-bench-ja/resolve/main/data/${SRC}" \
54
+ -o "${DEST}"; then
55
+ echo "[setup] ✅ 日本語版差し替え: $(basename ${DEST})"
56
+ else
57
+ cp "${DEST}.en.bak" "${DEST}" 2>/dev/null || true
58
+ echo "[setup] ⚠️ 英語版を使用: $(basename ${DEST})"
59
+ fi
60
+ done
61
+
62
+ # ── serve_test_vast.sh DL ────────────────────────────────────
63
+ curl -fL -H "Authorization: Bearer ${HF_TOKEN}" \
64
+ "https://huggingface.co/datasets/${HF_USERNAME}/Test-2/resolve/main/eqbench-vast/serve_test_vast.sh" \
65
+ -o "${WORKSPACE}/serve_test_vast.sh"
66
+ chmod +x "${WORKSPACE}/serve_test_vast.sh"
67
+ echo "[setup] ✅ serve_test_vast.sh"
68
+
69
+ # ── .env 生成 ─────────────────────────────────────────────────
70
+ # [Fix-3] HF Inference Providers の正しいURL
71
+ # [Fix-5] タイムアウト・リトライ値を強化
72
+ cat > "${WORKSPACE}/eqbench3/.env" << ENVEOF
73
+ # ==========================================================
74
+ # EQ-Bench3 設定 (Vast.ai + HF Inference Providers)
75
+ # 自動生成: $(date -u +%Y-%m-%dT%H:%M:%SZ)
76
+ #
77
+ # 受験者: TeenEmo LoRA on vLLM (localhost:${TEST_PORT})
78
+ # [Fix-1] --max-lora-rank 32 をserve_test_vast.shで設定済み
79
+ # [Fix-2] --max-model-len 32768 をserve_test_vast.shで設定済み
80
+ #
81
+ # 採点者: openai/gpt-oss-120b via HF Inference Providers (novita)
82
+ # 推定コスト: ~$0.024 (46シナリオ, Pro $2クレジット内)
83
+ # Input: $0.05/1M tokens, Output: $0.25/1M tokens
84
+ # ==========================================================
85
+
86
+ # 受験者: TeenEmo (vLLM ローカル)
87
+ TEST_API_URL=http://localhost:${TEST_PORT}/v1/chat/completions
88
+ TEST_API_KEY=dummy
89
+
90
+ # [Fix-3] 採点者: HF Inference Providers → novita → gpt-oss-120b
91
+ JUDGE_API_URL=https://router.huggingface.co/novita/v1/chat/completions
92
+ JUDGE_API_KEY=${HF_TOKEN}
93
+
94
+ # [Fix-5] HF APIのレート制限・遅延対応
95
+ MAX_RETRIES=6
96
+ RETRY_DELAY=10
97
+ REQUEST_TIMEOUT=300
98
+ ENVEOF
99
+ echo "[setup] ✅ .env 生成完了"
100
+
101
+ echo ""
102
+ echo "[setup] =============================="
103
+ echo "[setup] セットアップ完了"
104
+ echo "[setup] =============================="
105
+ echo ""
106
+ echo "【実行手順】"
107
+ echo ""
108
+ echo "# Step 1: tmuxセッション作成 + TeenEmoサーバー起動"
109
+ echo "tmux new-session -d -s eq_run"
110
+ echo "tmux send-keys -t eq_run \"cd ${WORKSPACE} && export HF_TOKEN='${HF_TOKEN}' && ./serve_test_vast.sh\" Enter"
111
+ echo ""
112
+ echo "# Step 2: 起動確認(Application startup complete. まで待つ)"
113
+ echo "tmux capture-pane -t eq_run -p | tail -5"
114
+ echo ""
115
+ echo "# Step 3: EQ-Bench3 実行"
116
+ echo "cd ${WORKSPACE}/eqbench3"
117
+ echo "python eqbench3.py \\"
118
+ echo " --test-model ${LORA_NAME} \\"
119
+ echo " --model-name TeenEmo-DPO \\"
120
+ echo " --judge-model openai/gpt-oss-120b \\"
121
+ echo " --no-elo \\"
122
+ echo " --save-interval 1 \\"
123
+ echo " --iterations 1"
124
+ echo ""
125
+ echo "# [Fix-4] 途中で失敗した場合は再実行するとチェックポイントから再開"
126
+ echo "# 完了済みタスクはスキップされる"