Cascaded Conditioned Flow Matching (CCFM) — 实现计划
Context
目标: 构建一个级联条件流匹配模型,用于单细胞扰动预测。以 scDFM 为底盘,引入 LatentForcing 的级联引导思想,使用 scGPT 提取的 per-cell-per-gene contextualized features 作为 latent 引导信号。
核心概念映射:
| LatentForcing (图像) | CCFM (单细胞) |
|---|---|
| Pixel patches → tokens | Gene expression → tokens |
| DINO-v2 feature patches → tokens | scGPT per-gene features → tokens |
pixel_embed + dino_embed (element-wise add) |
expr_embed + scgpt_embed (element-wise add) |
c = t_pixel + t_dino + y_emb (AdaLN) |
c = t_expr + t_latent + pert_emb (AdaLN) |
| Frozen DINO-v2 on-the-fly | Frozen scGPT on-the-fly |
| Separate pixel/dino decoder heads | Separate expr/latent decoder heads |
数据集: Norman (CRISPR) + ComboSciPlex (drug combination)
0. 项目结构
工作目录: transfer/code/CCFM/
transfer/code/CCFM/
├── plan.md # 本计划文件的副本
├── config/
│ └── config_cascaded.py # CascadedFlowConfig 配置
├── src/
│ ├── model/
│ │ ├── __init__.py
│ │ ├── model.py # CascadedFlowModel 主干网络
│ │ └── layers.py # 新增层: LatentEmbedder, LatentDecoder
│ ├── data/
│ │ ├── __init__.py
│ │ ├── data.py # 数据加载 (基于 scDFM, 新增 latent 支持)
│ │ └── scgpt_extractor.py # 冻结 scGPT 特征提取器封装
│ ├── denoiser.py # CascadedDenoiser (时间采样、损失、生成)
│ └── utils.py # 工具函数
├── scripts/
│ ├── run_cascaded.py # 训练/推理入口
│ └── download_scgpt.py # 下载 scGPT 预训练模型
└── run.sh # pjsub 提交脚本模板
所有新代码写在 transfer/code/CCFM/ 下,通过 import 引用 scDFM 和 scGPT 的现有模块。
1. 数据准备
1.1 下载 scGPT 预训练模型
- 下载
whole-human模型到transfer/data/scGPT_pretrained/ - 包含:
best_model.pt,vocab.json,args.json - 脚本:
scripts/download_scgpt.py
1.2 数据加载 (src/data/data.py)
复用 scDFM 的 Data 类进行数据加载和 train/test 划分。修改 PerturbationDataset 以返回 raw expression values (不仅是 gene indices),供 scGPT on-the-fly 提取使用。
关键改动:
- 在
__init__中预计算 scDFM gene names → scGPT vocab ID 的映射表 __getitem__返回:src_cell_data,tgt_cell_data,condition_id,src_cell_raw(供 scGPT),tgt_cell_raw(供 scGPT)
1.3 scGPT 特征提取器 (src/data/scgpt_extractor.py)
冻结 scGPT 作为 on-the-fly 特征提取器 (类似 LatentForcing 中冻结 DINO-v2):
class FrozenScGPTExtractor(nn.Module):
"""
封装冻结的 scGPT 模型,用于在训练时 on-the-fly 提取 per-gene features。
类似 LatentForcing 的 dinov2_hf.py 中的 RAE 类。
"""
def __init__(self, model_dir, n_hvg_genes, hvg_gene_names, device):
# 1. 加载预训练 scGPT (TransformerModel)
# 2. 冻结所有参数 (requires_grad=False)
# 3. 建立 hvg_gene_names → scGPT vocab ID 映射
# 4. 预计算全局归一化统计量 (running mean/var)
@torch.no_grad()
def extract(self, expression_values, gene_indices=None):
"""
输入: expression_values (B, G) — G=infer_top_gene 的表达值
输出: per_gene_features (B, G, scgpt_d_model) — contextualized 特征
流程:
1. 筛选非零基因,构建 scGPT 输入 (token IDs + values)
2. 运行冻结 scGPT._encode() → (B, seq_len, d_model)
3. 将输出 scatter 回固定的 G 个基因位置
4. 未覆盖的位置用零向量填充
5. 全局归一化 + 方差匹配
"""
关键技术细节:
- scGPT 的
_encode()返回(batch, seq_len, d_model=512),其中 seq_len 是变长的(仅包含非零表达的基因 +<cls>token) - 需要用 gene ID 映射将变长输出 scatter 回固定的 G 个基因位置
- 基因对齐: scDFM 使用 gene symbol (如 "MAPK1"),scGPT 使用自己的 vocab。在
__init__中建立hvg_name → scGPT_vocab_id的映射 - 不在 scGPT vocab 中的基因: 用零向量替代
1.4 全局归一化与方差匹配 (CRITICAL)
在 FrozenScGPTExtractor 内部实现:
# 方案: 使用 running statistics (类似 BatchNorm 的 running_mean/var)
# 在前 N 个 batch 中收集统计量,之后固定
# Step 1: 标准化到零均值单位方差
z_normalized = (z_raw - running_mean) / (running_std + 1e-6)
# Step 2: 方差匹配 — 缩放到与表达嵌入相近的量级
z_matched = z_normalized * target_std # target_std 默认 1.0
这对应 LatentForcing 中 dinov2_hf.py 的归一化:
z = (z - latent_mean) / sqrt(latent_var + eps) * match_pixel_norm
2. 网络架构
2.1 核心设计 — 严格参照 LatentForcing CoT (model_cot.py)
LatentForcing 的做法 (model_cot.py:398-446):
- 双流嵌入 element-wise 相加 (line 414):
x = pixel_embedder(x_pixel) + dino_embedder(x_dino) - 条件向量求和通过 AdaLN (line 409):
c = t_emb_pixel + t_emb_dino + y_emb - 共享 Transformer backbone: 所有 block 处理融合后的 tokens
- 分离解码头 (line 429-441):
dh_blocks_pixel+dh_blocks_dino分别解码
CCFM 的对应实现:
x = expr_embedder(x_t_expr, gene_emb) + latent_embedder(z_t_latent)c = t_expr_emb + t_latent_emb + pert_emb- 复用 scDFM 的 DiffPerceiverBlock / PerceiverBlock
- ExprDecoder (复用) + LatentDecoder (新增)
2.2 CascadedFlowModel 架构 (src/model/model.py)
输入:
- gene_id: (B, G) 基因 token IDs
- cell_1 (source): (B, G) control 细胞表达值
- x_t: (B, G) 加噪后的扰动细胞表达值 (expression flow)
- z_t: (B, G, 512) 加噪后的 scGPT per-gene 特征 (latent flow)
- t_expr: (B,) 表达流的时间步
- t_latent: (B,) 潜变量流的时间步
- perturbation_id: (B, 2) 扰动 token IDs
数据流 (参照 model_cot.py 的 forward):
┌──────────────────────────────────────────────────────┐
│ 1. 表达流嵌入 (复用 scDFM 的 origin 层) │
│ gene_emb = GeneEncoder(gene_id) (B,G,d) │
│ val_emb_1 = ValueEncoder_1(cell_1) + gene_emb │
│ val_emb_2 = ValueEncoder_2(x_t) + gene_emb │
│ expr_tokens = fusion_layer(cat(val_1, val_2)) │
│ → (B, G, d_model) │
├──────────────────────────────────────────────────────┤
│ 2. Latent 流嵌入 (新增, 对应 dino_embedder) │
│ latent_tokens = LatentEmbedder(z_t) │
│ → (B, G, d_model) [bottleneck: 512 → d_model] │
├──────────────────────────────────────────────────────┤
│ 3. Element-wise 相加 (对应 model_cot.py line 414) │
│ x = expr_tokens + latent_tokens │
│ → (B, G, d_model) │
├──────────────────────────────────────────────────────┤
│ 4. 条件向量 (对应 model_cot.py line 409) │
│ c = t_expr_emb + t_latent_emb + pert_emb │
│ → (B, d_model) │
├──────────────────────────────────────────────────────┤
│ 5. 共享 Backbone (复用 scDFM blocks) │
│ for i, block in enumerate(blocks): │
│ x = gene_adaLN[i](gene_emb, x) │
│ x = cat([x, pert_emb.expand], dim=-1) │
│ x = adapter_layer[i](x) │
│ x = block(x, val_emb_2, c) │
│ → (B, G, d_model) │
├──────────────────────────────────────────────────────┤
│ 6a. 表达解码头 (复用 ExprDecoder) │
│ → pred_v_expr: (B, G) │
├──────────────────────────────────────────────────────┤
│ 6b. Latent 解码头 (新增, 对应 dh_blocks_dino) │
│ latent_feats = dh_latent_proj(x) │
│ for block in dh_blocks_latent: │
│ latent_feats = block(latent_feats, c) │
│ pred_v_latent = latent_final_layer(latent_feats) │
│ → (B, G, 512) │
└──────────────────────────────────────────────────────┘
输出: (pred_v_expr, pred_v_latent)
2.3 新增模块 (src/model/layers.py)
class LatentEmbedder(nn.Module):
"""
对应 LatentForcing 的 dino_embedder (BottleneckPatchEmbed)。
将 per-gene scGPT 特征 (B, G, 512) 投影到 (B, G, d_model)。
"""
def __init__(self, scgpt_dim=512, bottleneck_dim=128, d_model=512):
self.proj = nn.Sequential(
nn.Linear(scgpt_dim, bottleneck_dim),
nn.GELU(),
nn.Linear(bottleneck_dim, d_model),
)
def forward(self, z): # z: (B, G, scgpt_dim)
return self.proj(z) # (B, G, d_model)
class LatentDecoder(nn.Module):
"""
对应 LatentForcing 的 final_layer_dino + dh_blocks_dino。
从 backbone 输出 (B, G, d_model) 解码回 (B, G, scgpt_dim)。
"""
def __init__(self, d_model=512, scgpt_dim=512, dh_depth=2):
# 可选: 额外的 decoder head blocks
if dh_depth > 0:
self.dh_blocks = nn.ModuleList([...])
self.final = nn.Sequential(
nn.LayerNorm(d_model),
nn.Linear(d_model, d_model),
nn.GELU(),
nn.Linear(d_model, scgpt_dim),
)
2.4 复用的现有模块
| 模块 | 来源 | 文件路径 |
|---|---|---|
TimestepEmbedder |
scDFM | scDFM/src/models/origin/layers.py:157 |
ContinuousValueEncoder |
scDFM | scDFM/src/models/origin/layers.py:26 |
GeneEncoder |
scDFM | scDFM/src/models/origin/layers.py:55 |
BatchLabelEncoder |
scDFM | scDFM/src/models/origin/layers.py:98 |
ExprDecoder |
scDFM | scDFM/src/models/origin/layers.py:116 |
GeneadaLN |
scDFM | scDFM/src/models/origin/layers.py:10 |
DiffPerceiverBlock / PerceiverBlock |
scDFM | scDFM/src/models/origin/model.py:55,92 |
modulate |
scDFM | scDFM/src/models/origin/blocks.py |
AffineProbPath + CondOTScheduler |
scDFM | scDFM/src/flow_matching/path/ |
make_lognorm_poisson_noise |
scDFM | scDFM/src/utils/utils.py |
TransformerModel |
scGPT | scGPT/scgpt/model/model.py |
GeneVocab |
scGPT | scGPT/scgpt/tokenizer/gene_tokenizer.py |
load_pretrained |
scGPT | scGPT/scgpt/utils/util.py |
DataCollator |
scGPT | scGPT/scgpt/data_collator.py |
3. 训练逻辑
3.1 CascadedDenoiser (src/denoiser.py)
封装 CascadedFlowModel + FrozenScGPTExtractor。
3.2 级联时间步采样 — 参照 denoiser_cot.py:121-132
def sample_t(self, n, device):
"""
dino_first_cascaded 模式 (denoiser_cot.py line 121-132):
- choose_latent_mask=True → 训练 latent 流
t_latent 随机, t_expr=0, loss_weight_expr=0
- choose_latent_mask=False → 训练 expression 流
t_expr 随机, t_latent=1 (clean latent), loss_weight_latent=0
"""
t_latent = torch.rand(n, device=device)
t_expr = torch.rand(n, device=device)
choose_latent_mask = torch.rand(n, device=device) < self.choose_latent_p
t_latent = torch.where(choose_latent_mask, t_latent, torch.ones_like(t_latent))
t_expr = torch.where(choose_latent_mask, torch.zeros_like(t_expr), t_expr)
w_expr = (~choose_latent_mask).float()
w_latent = choose_latent_mask.float()
return t_expr, t_latent, w_expr, w_latent
3.3 训练步骤
def train_step(self, source, target, perturbation_id, gene_ids):
B = source.shape[0]
# 1. On-the-fly 提取 scGPT per-gene 特征 (冻结)
z_target = self.scgpt_extractor.extract(target) # (B, G, 512)
# 2. 时间采样
t_expr, t_latent, w_expr, w_latent = self.sample_t(B, device)
# 3. Expression path (同 scDFM)
noise_expr = make_noise(source, noise_type)
path_expr = affine_path.sample(t=t_expr, x_0=noise_expr, x_1=target)
# 4. Latent path
noise_latent = torch.randn_like(z_target)
path_latent = affine_path.sample(
t=t_latent.unsqueeze(-1).unsqueeze(-1), # broadcast to (B,1,1)
x_0=noise_latent, x_1=z_target
)
# 5. Model forward
pred_v_expr, pred_v_latent = model(
gene_ids, source, path_expr.x_t, path_latent.x_t,
t_expr, t_latent, perturbation_id
)
# 6. Losses
loss_expr = ((pred_v_expr - path_expr.dx_t)**2
* w_expr[:, None]).mean()
loss_latent = ((pred_v_latent - path_latent.dx_t)**2
* w_latent[:, None, None]).mean()
loss = loss_expr + latent_weight * loss_latent
# Optional MMD (同 scDFM)
if use_mmd_loss:
x1_hat = path_expr.x_t + pred_v_expr * (1 - t_expr).unsqueeze(-1)
loss += gamma * mmd_loss(x1_hat, target)
return loss
3.4 训练入口 (scripts/run_cascaded.py)
基于 scDFM 的 run.py 改造:
- 初始化
FrozenScGPTExtractor+CascadedFlowModel - 封装进
CascadedDenoiser - 训练循环: 使用
denoiser.train_step()替代train_step() - 评估: 使用
denoiser.generate()+MetricsEvaluator - 其余(optimizer, scheduler, checkpoint)保持不变
4. 推理逻辑 — 两阶段级联生成
参照 LatentForcing denoiser_cot.py:224-247:
@torch.no_grad()
def generate(self, source, perturbation_id, gene_ids,
latent_steps=20, expr_steps=20):
B = source.shape[0]
G = source.shape[1]
# ═══ Stage 1: 生成 Latent (per-gene scGPT features) ═══
# t_latent: 0→1, t_expr=0 (表达流不参与)
z_noise = torch.randn(B, G, scgpt_dim, device=device)
def latent_vf(t, z_t):
t_latent = t.expand(B)
t_expr = torch.zeros(B, device=device)
_, v_latent = model(gene_ids, source, source, z_t,
t_expr, t_latent, perturbation_id)
return v_latent
z_generated = torchdiffeq.odeint(
latent_vf, z_noise,
torch.linspace(0, 1, latent_steps, device=device),
method='rk4'
)[-1] # (B, G, 512)
# ═══ Stage 2: 用生成的 Latent 引导生成表达谱 ═══
# t_expr: 0→1, t_latent=1 (latent "clean")
expr_noise = make_noise(source, noise_type)
def expr_vf(t, x_t):
t_expr = t.expand(B)
t_latent = torch.ones(B, device=device)
v_expr, _ = model(gene_ids, source, x_t, z_generated,
t_expr, t_latent, perturbation_id)
return v_expr
x_generated = torchdiffeq.odeint(
expr_vf, expr_noise,
torch.linspace(0, 1, expr_steps, device=device),
method='rk4'
)[-1] # (B, G)
return torch.clamp(x_generated, min=0)
关键设计 (与 LatentForcing 的 dino_first_cascaded 推理完全对应):
- Stage 1:
t_expr=0→ 表达流为纯噪声,模型聚焦 latent 预测 - Stage 2:
t_latent=1→ latent 已解析,z_generated通过LatentEmbedder投影后与表达 tokens 相加,引导表达生成 - 评估: 复用 scDFM 的
test()函数结构 +cell-eval MetricsEvaluator
5. 配置 (config/config_cascaded.py)
@dataclass
class CascadedFlowConfig:
# === 基础 (同 scDFM FlowConfig) ===
model_type: str = 'cascaded'
batch_size: int = 48
d_model: int = 128
nhead: int = 8
nlayers: int = 4
lr: float = 5e-5
steps: int = 200000
eta_min: float = 1e-6
data_name: str = 'norman'
fusion_method: str = 'differential_perceiver'
perturbation_function: str = 'crisper'
noise_type: str = 'Gaussian'
infer_top_gene: int = 1000
n_top_genes: int = 5000
print_every: int = 5000
gamma: float = 0.5
use_mmd_loss: bool = True
split_method: str = 'additive'
fold: int = 1
# === 级联/Latent 特有 ===
scgpt_dim: int = 512 # scGPT embedding 维度
bottleneck_dim: int = 128 # LatentEmbedder 瓶颈维度
latent_weight: float = 1.0 # latent 流损失权重
choose_latent_p: float = 0.4 # 训练 latent 流的概率
target_std: float = 1.0 # 方差匹配目标标准差
dh_depth: int = 2 # latent decoder head 层数
# === scGPT 路径 ===
scgpt_model_dir: str = 'transfer/data/scGPT_pretrained'
# === 推理 ===
latent_steps: int = 20
expr_steps: int = 20
6. 实现顺序
Step 1: 项目初始化 + 下载 scGPT
- 创建
transfer/code/CCFM/目录结构 - 下载 scGPT
whole-human预训练模型 - 验证: 加载 scGPT 模型成功
Step 2: FrozenScGPTExtractor
- 实现
src/data/scgpt_extractor.py - 处理 scDFM ↔ scGPT 的基因名对齐
- 实现 per-gene feature scatter 和归一化
- 验证: 输入 (48, 1000) expression → 输出 (48, 1000, 512) features
Step 3: 数据加载
- 实现
src/data/data.py,复用 scDFM 的 Data 类 - 验证: DataLoader 正确返回 expression + perturbation_id
Step 4: CascadedFlowModel
- 实现
src/model/model.py和src/model/layers.py - 验证: dummy forward pass → (pred_v_expr, pred_v_latent) 形状正确
Step 5: CascadedDenoiser
- 实现
src/denoiser.py - 验证:
train_step()返回 scalar loss,generate()返回正确形状
Step 6: 训练入口 + 配置
- 实现
scripts/run_cascaded.py+config/config_cascaded.py - 编写
run.sh(pjsub 脚本) - 验证: 完整训练循环运行,loss 下降
Step 7: 端到端验证
- Norman 数据集上训练(先小 step 数)
- 检查 loss_expr 和 loss_latent 分别下降
- 推理并通过 cell-eval 评估
- 与 baseline scDFM 对比
7. 关键技术决策
| 决策点 | 选择 | 理由 |
|---|---|---|
| Latent 注入方式 | Element-wise add (token-level) | 严格对标 LatentForcing model_cot.py:414 |
| 条件注入 | AdaLN (c = sum of all embeddings) | 对标 model_cot.py:409 |
| scGPT 特征提取 | On-the-fly (冻结) | 存储不可行 (~1TB); 对标 LatentForcing 冻结 DINO-v2 |
| 时间步采样 | dino_first_cascaded | 对标 denoiser_cot.py:121-132 |
| 方差匹配 | 全局 running statistics + scaling | 对标 dinov2_hf.py 的归一化 |
| Backbone | 复用 scDFM 的 DiffPerceiver/Perceiver | 保持底盘一致 |
| 解码头 | 分离: ExprDecoder + LatentDecoder | 对标 model_cot.py:429-441 的分离头 |