GRN-CCFM:基于 Attention-Delta 的扰动预测模型
Context
CCFM 当前两个核心问题:(1) 维度不对等——512 维 latent 压缩到 128 维 backbone;(2) scGPT encoder output 编码绝对状态,非扰动变化。此外还有一个实际 bug:scDFM/scGPT 词表未对齐,缺失基因在 latent 路径上处理不正确。
三个问题合并为一个方案,代码从 CCFM 复制到 GRN/grn_ccfm/ 独立开发。
用户决策
- 保留 LatentForcing 两阶段 cascaded 范式
- 维度对齐:d_model=512 + 加法融合(同 LatentForcing,不用 concat)
- 特征替换:Attention-Delta(
Δ_attn @ gene_emb) - scGPT 保留为 backbone
- 修复缺失基因处理
项目结构
GRN/grn_ccfm/ # 新建子文件夹
├── _bootstrap_scdfm.py # 复制自 CCFM
├── config/
│ └── config_cascaded.py # 【修改】d_model=512 + 新参数
├── src/
│ ├── _scdfm_imports.py # 复制
│ ├── utils.py # 复制
│ ├── model/
│ │ ├── model.py # 【小改】无结构变化,d_model=512 自动适配
│ │ └── layers.py # 【小改】LatentEmbedder 简化
│ ├── data/
│ │ ├── data.py # 复制
│ │ ├── scgpt_extractor.py # 【核心】新增 attention-delta + missing mask
│ │ └── scgpt_cache.py # 复制
│ └── denoiser.py # 【修改】feature_mode 路由 + 缺失基因处理
├── scripts/
│ └── run_cascaded.py # 【修改】传新参数
└── run_grn.sh # 【新增】GPU 提交脚本
复制命令:
CCFM=/home/hp250092/ku50001222/qian/aivc/lfj/transfer/code/CCFM
GRN=/home/hp250092/ku50001222/qian/aivc/lfj/GRN/grn_ccfm
mkdir -p $GRN/{config,src/model,src/data,scripts}
cp $CCFM/_bootstrap_scdfm.py $GRN/
cp $CCFM/config/config_cascaded.py $GRN/config/
cp $CCFM/src/{_scdfm_imports.py,utils.py,__init__.py} $GRN/src/
cp $CCFM/src/model/{model.py,layers.py,__init__.py} $GRN/src/model/
cp $CCFM/src/data/{data.py,scgpt_extractor.py,scgpt_cache.py,__init__.py} $GRN/src/data/
cp $CCFM/src/denoiser.py $GRN/src/
cp $CCFM/scripts/run_cascaded.py $GRN/scripts/
Part 1:d_model=512 + 加法融合
d_model 从 128 增到 512 后,latent 512→512 无压缩,expression 1→512 充足容量。加法融合与 LatentForcing 完全一致(pixel_emb + dino_emb in 1024-dim space)。model.py 的 forward() 不改结构。
改动 1:config/config_cascaded.py
d_model: int = 512 # 128 → 512
d_hid: int = 2048 # d_model * 4
bottleneck_dim: int = 512 # 匹配 d_model
# 新增
feature_mode: str = "encoder"
attn_layer: int = 11
attn_use_rank_norm: bool = True
attn_multi_layer: str = ""
改动 2:src/model/layers.py
LatentEmbedder:scgpt_dim == d_model 时简化为 LayerNorm + Linear。
改动 3:src/model/model.py
无结构改动。forward() 保持 x = expr_tokens + latent_tokens。所有层随 d_model=512 自动适配:
- GeneadaLN:参数化 by hidden_size ✓
- ContinuousValueEncoder:1→d_model MLP ✓
- ExprDecoder(use_batch_labels=True):接受 2*d_model 输入 ✓
- DiffPerceiverBlock:参数化 by d_model ✓
Part 2:Attention-Delta 特征
计算流程
输入: control_expr (B, G), target_expr (B, G), gene_ids (G_sel,)
Step 1: gene_emb = scGPT.encoder(gene_ids) → (G_sel, 512) [查表,静态]
Step 2: hidden_ctrl = scGPT_layers_0_to_10(ctrl) → (B, S, 512)
hidden_tgt = scGPT_layers_0_to_10(tgt) → (B, S, 512)
Step 3: attn_ctrl = Q_ctrl @ K_ctrl^T (rank norm, avg heads) → (B, S, S)
attn_tgt = Q_tgt @ K_tgt^T (rank norm, avg heads) → (B, S, S)
Step 4: Δ_attn = attn_tgt - attn_ctrl, 去 CLS → (B, G_sel, G_sel)
Step 5: features = Δ_attn @ gene_emb → (B, G_sel, 512)
Step 6: scatter 到 G 位 + 归一化 → (B, G, 512)
改动 4:src/data/scgpt_extractor.py
保留 extract() 不变。新增:
_prepare_gene_selection(gene_indices, device)→ 共享的基因子集逻辑_forward_to_layer(src, values, mask, target_layer)→ scGPT 前 L 层_compute_attention(hidden, layer_idx, use_rank_norm)→ Q/K viain_proj_weight+ rank normextract_attention_delta(control_expr, target_expr, ...)→ 核心方法,输出 (B, G, 512)get_missing_gene_mask(gene_indices)→ 返回布尔 mask,True = 缺失基因
Q/K 提取细节:CCFM 设 use_fast_transformer=False,self_attn 是标准 nn.MultiheadAttention,Q/K/V 权重在 in_proj_weight 中按 [W_q; W_k; W_v] 排列。_load_pretrained_safe() 已处理 Wqkv→in_proj_weight 映射。
改动 5:src/denoiser.py
feature_mode 路由 + 缺失基因处理(见 Part 3)。
改动 6:scripts/run_cascaded.py
传入新参数。attention_delta 模式下 cache 不可用。
Part 3:缺失基因修复
问题
scDFM 有 5000 HVG,部分不在 scGPT vocab 中。当前:scGPT 特征为零,但 latent 噪声/归一化/loss/推理 未适配。
修复:missing_mask 贯穿 latent 全路径
在 scgpt_extractor 中获取 mask:
def get_missing_gene_mask(self, gene_indices=None):
"""返回 (G,) bool tensor, True = 该基因不在 scGPT vocab"""
hvg_ids = self.hvg_to_scgpt_id[gene_indices] if gene_indices is not None else self.hvg_to_scgpt_id
return hvg_ids < 0
训练路径:denoiser.train_step() 中 4 处使用 mask
missing = self.scgpt_extractor.get_missing_gene_mask(input_gene_ids) # (G_sub,)
# ① z_target 已经是零(extractor scatter 保证),无需改
# ② Latent 噪声置零
noise_latent = torch.randn_like(z_target)
noise_latent[:, missing, :] = 0.0 # 缺失基因无噪声
# ③ 归一化跳过缺失基因
# 已有逻辑: nonzero_mask = output.abs().sum(-1) > 0 → 天然跳过零值 ✓
# ④ Latent loss mask 缺失基因
loss_latent_per_gene = ((pred_v_latent - path_latent.dx_t) ** 2).mean(dim=-1) # (B, G)
loss_latent_per_gene[:, missing] = 0.0
n_valid = (~missing).sum().clamp(min=1)
loss_latent_per_sample = loss_latent_per_gene.sum(dim=-1) / n_valid
推理路径:denoiser.generate() 中 3 处使用 mask
generate() 不调用 extractor,但需要 missing_mask。通过 get_missing_gene_mask() 获取全量基因的 mask(推理时用全部 5000 基因,不做随机子集):
@torch.no_grad()
def generate(self, source, perturbation_id, gene_ids, ...):
B, G = source.shape
# 获取全量 missing mask(推理用全部基因,gene_indices=None)
missing = self.scgpt_extractor.get_missing_gene_mask() # (G_full,)
# ⑤ 初始 latent 噪声置零
z_t = torch.randn(B, G, scgpt_dim, device=device)
z_t[:, missing, :] = 0.0
# ⑥ ODE 积分过程中,每步后强制置零(防止数值漂移)
# RK4 模式:在 latent_vf 返回前
def latent_vf(t, z):
v_expr, v_latent = self.model(...)
v_latent[:, missing, :] = 0.0 # 缺失基因速度为零
return v_latent
# ⑦ Euler 模式:每步更新后
z_t[:, missing, :] = 0.0 # 每步 Euler 更新后置零
Expression flow 完全不受影响——expression 不依赖 scGPT vocab。
实施顺序
- 从 CCFM 复制文件到
GRN/grn_ccfm/ config/config_cascaded.py— d_model=512 + 新字段src/model/layers.py— LatentEmbedder 适配src/data/scgpt_extractor.py— attention-delta + get_missing_gene_masksrc/denoiser.py— feature_mode 路由 + missing mask 训练 4 处 + 推理 3 处scripts/run_cascaded.py— 传参run_grn.sh— GPU 提交脚本
验证
# scDFM baseline(已有 GRN/baseline/)
# GRN-CCFM: encoder 特征(隔离维度+vocab修复效果)
pjsub run_grn.sh # --feature-mode encoder
# GRN-CCFM: attention-delta(完整方案)
pjsub run_grn.sh # --feature-mode attention_delta
- Shape 验证:attention-delta 输出 (B, G, 512)
- Sanity: control==target 时 Δ_attn≈0
- Missing mask: 缺失基因 latent noise/loss/velocity 均为零
- cell-eval 对比三个实验
后续优化方向(不在本次实施范围)
1. 聚合基底:gene_emb → z_ctrl
当前 Δ_attn @ gene_emb(静态身份向量)。可改为 Δ_attn @ z_ctrl(上下文相关,编码身份+表达状态)。z_ctrl 在 attention 提取时已算出,几乎免费。更丰富但可能更不稳定。
2. MLP 增强版融合
z_change = MLP(concat(Δ_attn @ z_ctrl, Δ_attn @ z_tgt, z_tgt - z_ctrl))
引入可学习参数,可端到端训练。增加复杂度但可能提升表现。
3. 多层 attention 计算优化
用 attn_multi_layer="9,10,11" 时,共享 0→8 层计算,只对 9/10/11 层分别续接。
4. LR / 训练超参适配
d_model 从 128→512,参数量 ~15 倍。可能需要:更多 warmup(2000→4000)、略低 LR(5e-5→3e-5)。初次实验先用原值观察 loss 曲线。
5. 横向对比备忘
- vs LatentForcing:未使用 Bottleneck 两阶段投影(LF 用 Conv2d 做空间降采样,我们不需要)
- vs scGPT Tutorial:单细胞 attention 比群体平均更嘈杂,但 flow matching + 矩阵乘聚合有降噪效果
- vs scDFM:所有 block(DiffPerceiverBlock, GeneadaLN, ExprDecoder)均参数化 by d_model,已验证 512 维兼容