#!/usr/bin/env bash # ============================================================================= # serve_translate.sh — EQ-Bench 日本語化用 vLLM サーバー起動スクリプト # ベースモデル: Qwen/Qwen3.5-9B(日英翻訳品質が高い) # setup.sh からフォーク。翻訳タスク向けに最適化(長文対応・高精度設定) # ============================================================================= # 使用方法: # chmod +x serve_translate.sh && ./serve_translate.sh # # 環境変数で挙動を上書き可能: # TRANSLATE_MODEL=Qwen/Qwen3.5-9B ./serve_translate.sh # ============================================================================= set -euo pipefail MODEL="${TRANSLATE_MODEL:-Qwen/Qwen3.5-9B}" PORT="${VLLM_PORT:-8000}" HOST="${VLLM_HOST:-0.0.0.0}" GPU_UTIL="${VLLM_GPU_UTIL:-0.88}" MAX_MODEL_LEN="${VLLM_MAX_MODEL_LEN:-8192}" TENSOR_PARALLEL="${VLLM_TENSOR_PARALLEL:-1}" DTYPE="${VLLM_DTYPE:-auto}" MAX_NUM_SEQS="${VLLM_MAX_NUM_SEQS:-32}" echo "=== vLLM 翻訳サーバー起動 ===" echo " モデル : ${MODEL}" echo " ポート : ${PORT}" echo " GPU 使用率 : ${GPU_UTIL}" echo " 最大コンテキスト: ${MAX_MODEL_LEN}" echo " 並列度 : ${TENSOR_PARALLEL}" echo "" python -c "import vllm; print(f' vLLM バージョン : {vllm.__version__}')" 2>/dev/null || true echo "" # Qwen3.5 は Vision encoder を内蔵した VLM(pipeline_tag: image-text-to-text)のため # --language-model-only が必須。このフラグなしでは vLLM が vision モードで起動しようとし # テキスト専用タスクでエラーまたはパフォーマンス劣化が発生する。 # 参考: HF model card https://huggingface.co/Qwen/Qwen3.5-9B (image-text-to-text) # --enable-prefix-caching: 翻訳プロンプトの共通システムプロンプト部分をキャッシュ exec vllm serve "${MODEL}" \ --host "${HOST}" \ --port "${PORT}" \ --dtype "${DTYPE}" \ --gpu-memory-utilization "${GPU_UTIL}" \ --max-model-len "${MAX_MODEL_LEN}" \ --tensor-parallel-size "${TENSOR_PARALLEL}" \ --max-num-seqs "${MAX_NUM_SEQS}" \ --language-model-only \ --enable-prefix-caching \ --trust-remote-code