lfj-code / GRN /GRN_latent_design.md
ethan1115's picture
Upload folder using huggingface_hub
9f5e507 verified

GRN-CCFM:基于 Attention-Delta 的扰动预测模型

Context

CCFM 当前两个核心问题:(1) 维度不对等——512 维 latent 压缩到 128 维 backbone;(2) scGPT encoder output 编码绝对状态,非扰动变化。此外还有一个实际 bug:scDFM/scGPT 词表未对齐,缺失基因在 latent 路径上处理不正确。

三个问题合并为一个方案,代码从 CCFM 复制到 GRN/grn_ccfm/ 独立开发。

用户决策

  • 保留 LatentForcing 两阶段 cascaded 范式
  • 维度对齐:d_model=512 + 加法融合(同 LatentForcing,不用 concat)
  • 特征替换:Attention-DeltaΔ_attn @ gene_emb
  • scGPT 保留为 backbone
  • 修复缺失基因处理

项目结构

GRN/grn_ccfm/                          # 新建子文件夹
├── _bootstrap_scdfm.py                 # 复制自 CCFM
├── config/
│   └── config_cascaded.py              # 【修改】d_model=512 + 新参数
├── src/
│   ├── _scdfm_imports.py               # 复制
│   ├── utils.py                        # 复制
│   ├── model/
│   │   ├── model.py                    # 【小改】无结构变化,d_model=512 自动适配
│   │   └── layers.py                   # 【小改】LatentEmbedder 简化
│   ├── data/
│   │   ├── data.py                     # 复制
│   │   ├── scgpt_extractor.py          # 【核心】新增 attention-delta + missing mask
│   │   └── scgpt_cache.py              # 复制
│   └── denoiser.py                     # 【修改】feature_mode 路由 + 缺失基因处理
├── scripts/
│   └── run_cascaded.py                 # 【修改】传新参数
└── run_grn.sh                          # 【新增】GPU 提交脚本

复制命令:

CCFM=/home/hp250092/ku50001222/qian/aivc/lfj/transfer/code/CCFM
GRN=/home/hp250092/ku50001222/qian/aivc/lfj/GRN/grn_ccfm
mkdir -p $GRN/{config,src/model,src/data,scripts}
cp $CCFM/_bootstrap_scdfm.py $GRN/
cp $CCFM/config/config_cascaded.py $GRN/config/
cp $CCFM/src/{_scdfm_imports.py,utils.py,__init__.py} $GRN/src/
cp $CCFM/src/model/{model.py,layers.py,__init__.py} $GRN/src/model/
cp $CCFM/src/data/{data.py,scgpt_extractor.py,scgpt_cache.py,__init__.py} $GRN/src/data/
cp $CCFM/src/denoiser.py $GRN/src/
cp $CCFM/scripts/run_cascaded.py $GRN/scripts/

Part 1:d_model=512 + 加法融合

d_model 从 128 增到 512 后,latent 512→512 无压缩,expression 1→512 充足容量。加法融合与 LatentForcing 完全一致(pixel_emb + dino_emb in 1024-dim space)。model.py 的 forward() 不改结构

改动 1:config/config_cascaded.py

d_model: int = 512           # 128 → 512
d_hid: int = 2048            # d_model * 4
bottleneck_dim: int = 512    # 匹配 d_model

# 新增
feature_mode: str = "encoder"
attn_layer: int = 11
attn_use_rank_norm: bool = True
attn_multi_layer: str = ""

改动 2:src/model/layers.py

LatentEmbedder:scgpt_dim == d_model 时简化为 LayerNorm + Linear。

改动 3:src/model/model.py

无结构改动。forward() 保持 x = expr_tokens + latent_tokens。所有层随 d_model=512 自动适配:

  • GeneadaLN:参数化 by hidden_size ✓
  • ContinuousValueEncoder:1→d_model MLP ✓
  • ExprDecoder(use_batch_labels=True):接受 2*d_model 输入 ✓
  • DiffPerceiverBlock:参数化 by d_model ✓

Part 2:Attention-Delta 特征

计算流程

输入: control_expr (B, G), target_expr (B, G), gene_ids (G_sel,)

Step 1: gene_emb = scGPT.encoder(gene_ids)          → (G_sel, 512)  [查表,静态]
Step 2: hidden_ctrl = scGPT_layers_0_to_10(ctrl)     → (B, S, 512)
        hidden_tgt  = scGPT_layers_0_to_10(tgt)      → (B, S, 512)
Step 3: attn_ctrl = Q_ctrl @ K_ctrl^T  (rank norm, avg heads) → (B, S, S)
        attn_tgt  = Q_tgt  @ K_tgt^T   (rank norm, avg heads) → (B, S, S)
Step 4: Δ_attn = attn_tgt - attn_ctrl, 去 CLS        → (B, G_sel, G_sel)
Step 5: features = Δ_attn @ gene_emb                  → (B, G_sel, 512)
Step 6: scatter 到 G 位 + 归一化                       → (B, G, 512)

改动 4:src/data/scgpt_extractor.py

保留 extract() 不变。新增:

  • _prepare_gene_selection(gene_indices, device) → 共享的基因子集逻辑
  • _forward_to_layer(src, values, mask, target_layer) → scGPT 前 L 层
  • _compute_attention(hidden, layer_idx, use_rank_norm) → Q/K via in_proj_weight + rank norm
  • extract_attention_delta(control_expr, target_expr, ...) → 核心方法,输出 (B, G, 512)
  • get_missing_gene_mask(gene_indices) → 返回布尔 mask,True = 缺失基因

Q/K 提取细节:CCFM 设 use_fast_transformer=Falseself_attn 是标准 nn.MultiheadAttention,Q/K/V 权重在 in_proj_weight 中按 [W_q; W_k; W_v] 排列。_load_pretrained_safe() 已处理 Wqkv→in_proj_weight 映射。

改动 5:src/denoiser.py

feature_mode 路由 + 缺失基因处理(见 Part 3)。

改动 6:scripts/run_cascaded.py

传入新参数。attention_delta 模式下 cache 不可用。


Part 3:缺失基因修复

问题

scDFM 有 5000 HVG,部分不在 scGPT vocab 中。当前:scGPT 特征为零,但 latent 噪声/归一化/loss/推理 未适配。

修复:missing_mask 贯穿 latent 全路径

scgpt_extractor 中获取 mask:

def get_missing_gene_mask(self, gene_indices=None):
    """返回 (G,) bool tensor, True = 该基因不在 scGPT vocab"""
    hvg_ids = self.hvg_to_scgpt_id[gene_indices] if gene_indices is not None else self.hvg_to_scgpt_id
    return hvg_ids < 0

训练路径:denoiser.train_step() 中 4 处使用 mask

missing = self.scgpt_extractor.get_missing_gene_mask(input_gene_ids)  # (G_sub,)

# ① z_target 已经是零(extractor scatter 保证),无需改

# ② Latent 噪声置零
noise_latent = torch.randn_like(z_target)
noise_latent[:, missing, :] = 0.0        # 缺失基因无噪声

# ③ 归一化跳过缺失基因
# 已有逻辑: nonzero_mask = output.abs().sum(-1) > 0 → 天然跳过零值 ✓

# ④ Latent loss mask 缺失基因
loss_latent_per_gene = ((pred_v_latent - path_latent.dx_t) ** 2).mean(dim=-1)  # (B, G)
loss_latent_per_gene[:, missing] = 0.0
n_valid = (~missing).sum().clamp(min=1)
loss_latent_per_sample = loss_latent_per_gene.sum(dim=-1) / n_valid

推理路径:denoiser.generate() 中 3 处使用 mask

generate() 不调用 extractor,但需要 missing_mask。通过 get_missing_gene_mask() 获取全量基因的 mask(推理时用全部 5000 基因,不做随机子集):

@torch.no_grad()
def generate(self, source, perturbation_id, gene_ids, ...):
    B, G = source.shape

    # 获取全量 missing mask(推理用全部基因,gene_indices=None)
    missing = self.scgpt_extractor.get_missing_gene_mask()  # (G_full,)

    # ⑤ 初始 latent 噪声置零
    z_t = torch.randn(B, G, scgpt_dim, device=device)
    z_t[:, missing, :] = 0.0

    # ⑥ ODE 积分过程中,每步后强制置零(防止数值漂移)
    # RK4 模式:在 latent_vf 返回前
    def latent_vf(t, z):
        v_expr, v_latent = self.model(...)
        v_latent[:, missing, :] = 0.0    # 缺失基因速度为零
        return v_latent

    # ⑦ Euler 模式:每步更新后
    z_t[:, missing, :] = 0.0  # 每步 Euler 更新后置零

Expression flow 完全不受影响——expression 不依赖 scGPT vocab。


实施顺序

  1. 从 CCFM 复制文件到 GRN/grn_ccfm/
  2. config/config_cascaded.py — d_model=512 + 新字段
  3. src/model/layers.py — LatentEmbedder 适配
  4. src/data/scgpt_extractor.py — attention-delta + get_missing_gene_mask
  5. src/denoiser.py — feature_mode 路由 + missing mask 训练 4 处 + 推理 3 处
  6. scripts/run_cascaded.py — 传参
  7. run_grn.sh — GPU 提交脚本

验证

# scDFM baseline(已有 GRN/baseline/)

# GRN-CCFM: encoder 特征(隔离维度+vocab修复效果)
pjsub run_grn.sh  # --feature-mode encoder

# GRN-CCFM: attention-delta(完整方案)
pjsub run_grn.sh  # --feature-mode attention_delta
  • Shape 验证:attention-delta 输出 (B, G, 512)
  • Sanity: control==target 时 Δ_attn≈0
  • Missing mask: 缺失基因 latent noise/loss/velocity 均为零
  • cell-eval 对比三个实验

后续优化方向(不在本次实施范围)

1. 聚合基底:gene_emb → z_ctrl

当前 Δ_attn @ gene_emb(静态身份向量)。可改为 Δ_attn @ z_ctrl(上下文相关,编码身份+表达状态)。z_ctrl 在 attention 提取时已算出,几乎免费。更丰富但可能更不稳定。

2. MLP 增强版融合

z_change = MLP(concat(Δ_attn @ z_ctrl, Δ_attn @ z_tgt, z_tgt - z_ctrl))

引入可学习参数,可端到端训练。增加复杂度但可能提升表现。

3. 多层 attention 计算优化

attn_multi_layer="9,10,11" 时,共享 0→8 层计算,只对 9/10/11 层分别续接。

4. LR / 训练超参适配

d_model 从 128→512,参数量 ~15 倍。可能需要:更多 warmup(2000→4000)、略低 LR(5e-5→3e-5)。初次实验先用原值观察 loss 曲线。

5. 横向对比备忘

  • vs LatentForcing:未使用 Bottleneck 两阶段投影(LF 用 Conv2d 做空间降采样,我们不需要)
  • vs scGPT Tutorial:单细胞 attention 比群体平均更嘈杂,但 flow matching + 矩阵乘聚合有降噪效果
  • vs scDFM:所有 block(DiffPerceiverBlock, GeneadaLN, ExprDecoder)均参数化 by d_model,已验证 512 维兼容