40 层
Transformer 总层数
HappyHorse 1.0 将文本、参考图像、视频 latent 与音频 token 放进同一序列中去噪,是其速度与一致性的关键。
从单流 Transformer、Sandwich 结构、统一条件输入与无时间步嵌入角度理解 HappyHorse AI 的技术路线。
当前页面围绕“HappyHorse AI 架构设计”展开,内容以中文检索意图为中心组织,同时保留 HappyHorse AI 原始产品信息中的关键卖点与公开数据。
首尾层保留模态相关投影,中间大部分层共享参数,既保留输入输出适配能力,也让跨模态表达在统一空间中收敛。
官网提到模型不显式使用 timestep embedding,而是直接从 latent 中推断去噪状态,这是一条更简洁的扩散建模路径。
Per-head gating 提高训练稳定性,MagiCompiler 负责整图编译和算子融合,共同支撑更快的端到端推理体验。