YAML Metadata Warning: empty or missing yaml metadata in repo card (https://huggingface.co/docs/hub/model-cards#model-card-metadata)

pi05_gguf 文件来源说明

本目录用于存放 openvla.cpp/tools/pi05 推理所需/相关 GGUF 文件。

文件与来源

文件 来源模型/用途 典型生成方式
siglip.gguf OpenPI 中 PaliGemma 视觉塔(SigLIP)权重 openvla.cpp/tools/pi05/export_pi05_gguf.py 导出
paligemma.gguf OpenPI 中 paligemma_with_expert.paligemma.language_model(pi05 主流程使用) openvla.cpp/tools/pi05/export_pi05_gguf.py 导出
action_expert.gguf OpenPI 中 paligemma_with_expert.gemma_expert.model(含 AdaRMS 相关参数) openvla.cpp/tools/pi05/export_pi05_gguf.py 导出
action_proj.gguf 动作输入/输出投影层与时间相关投影参数 openvla.cpp/tools/pi05/export_pi05_gguf.py 导出
norm_stats.json 归一化统计信息(动作/状态后处理) 来自 OpenPI checkpoint 的 assets/.../norm_stats.json
paligemma_tokenizer.model PaliGemma SentencePiece tokenizer 通常来自 ~/.cache/openpi/big_vision/paligemma_tokenizer.model
paligemma_f16.gguf 单独导出的 Gemma language model(F16 版本) HF 导出后,用 convert_hf_to_gguf.py --outtype f16
paligemma_bf16.gguf 单独导出的 Gemma language model(BF16 版本) HF 导出后,用 convert_hf_to_gguf.py --outtype bf16
paligemma_q8_0.gguf paligemma_f16.ggufpaligemma_bf16.gguf 的量化版本 llama-quantize ... q8_0
paligemma_tokenizer.lock tokenizer 相关锁文件 运行时产生,可忽略

主要导出脚本

  1. Pi0.5 拆分导出(siglip.gguf / paligemma.gguf / action_expert.gguf / action_proj.gguf
cd /home/ubuntu/data_1/chenxing/openvla.cpp/tools/pi05
python export_pi05_gguf.py \
  --checkpoint_dir /home/ubuntu/data_1/chenxing/openpi/pi05_droid_pytorch/model \
  --output_dir /home/ubuntu/data_1/chenxing/pi05_gguf \
  --config_name pi05_droid
  1. 单独导出 Gemma language model(HF -> GGUF)
# 先导出 HF 目录(见export_hf_language_model.py)
python /home/ubuntu/data_1/chenxing/openpi/export_hf_language_model.py

# 再转 GGUF(主干 BF16 + norm 保留 F32”的混合精度导出)
python /home/ubuntu/data_1/chenxing/openvla.cpp/convert_hf_to_gguf.py \
  /home/ubuntu/data_1/chenxing/openpi/pi05_paligemma_lang_hf \
  --outfile /home/ubuntu/data_1/chenxing/pi05_gguf/paligemma_bf16.gguf \
  --outtype bf16
  1. 量化为 Q8_0
cd /home/ubuntu/data_1/chenxing/openvla.cpp/build/bin
./llama-quantize \
  /home/ubuntu/data_1/chenxing/pi05_gguf/paligemma_bf16.gguf \
  /home/ubuntu/data_1/chenxing/pi05_gguf/paligemma_q8_0.gguf \
  q8_0

使用建议

  1. tools/pi05 主流程优先使用同批次导出的四件套:siglip.ggufpaligemma.ggufaction_expert.ggufaction_proj.gguf
  2. paligemma_f16/bf16/q8_0.gguf 主要用于语言干路对比或单模型转换验证,不应与不匹配批次的 expert/proj 混用。
  3. 若出现结果偏移,先确认:模型文件是否同批次、tokenizer 是否一致、norm 语义是否重复处理。
Downloads last month
574
GGUF
Model size
0.7B params
Architecture
undefined
Hardware compatibility
Log In to add your hardware

8-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support