自回归模型,是 AIGC 领域一块迷人的基石。开发者们一直在探索它在视觉生成领域的边界,从经典的离散序列生成,到结合强大扩散模型的混合范式,每一步都凝聚了社区的智慧。 这些工作,比如 MAR、Fluid、LatentLM 等,为我们带来了巨大的启发,也让我们看到了进一步优化的空间:比如,如何避免离散化带来的信息损失?如何让模型的架构更轻盈、更强大? 阶跃星辰的初衷是探索一条新的自回归图像生成的路径。NextStep-1 的核心思想是直接在连续的视觉空间中,以自回归方式进行生成 学会在连续的视觉空间中直接生成单个图像 Patch,从根本上绕开了作为信息瓶颈的离散化步骤。模型以自回归的方式,逐一生成所有 patches,最终完成一幅完整的图像。 这一设计带来了另一个显著优势:架构的简洁与纯粹。由于不再需要外部大型扩散模型的 「辅助」,NextStep-1 的整体架构变得高度统一,实现了真正意义上的端到端训练。 阶跃星辰团队认为,NextStep-1 的探索指向了一个有趣且充满潜力的方向。它证明了在不牺牲连续性的前提下,构建一个简洁、高效的自回归模型是完全可行的。 这只是探索的第一步。阶跃星辰选择将 NextStep-1 开源,衷心期待它能引发更多有价值的讨论,并希望能与社区的研究者一起,继续推动生成技术的演进 解放了对离散化的依赖:不再需要图像 Tokenizer 进行离散化,直接在连续空间操作。解放了对外部扩散模型的依赖:不再需要外接大型扩散模型作为 「解码器」,实现了端到端的自回归训练。 在阶跃星辰的框架中,Transformer 是 「主创」,流匹配头更像是「画笔」。团队通过实验发现,流匹配头的尺寸大小( 157M -> 528M),对最终图像质量影响很小。这有力地证明了,核心的生成建模与逻辑推理等 「重活」,完全由 Transformer 承担。流匹配头则作为一个高效轻量的采样器,忠实地将 Transformer 的潜在预测 「翻译」 成图像 Patch。 通道归一化 (Channel-Wise Normalization) 是稳定性的「压舱石」:通过引入简单的通道归一化,极其有效地稳定了 Token 的统计特性,即使在高 CFG 指导强度下,也能确保生成清晰、无伪影的图像。「更多噪声」 竟能带来「更好质量」:一个反直觉的发现是,训练 Tokenizer 时加入更多噪声正则化,反而能显著提升最终生成图像的质量。阶跃星辰团队推断,这有助于塑造一个更鲁棒、分布更均匀的潜在空间,为自回归主模型提供更理想的工作平台。 NextStep-1 实现了高保真的文生图的生成,同时具有强大的图像编辑能力,覆盖多种编辑操作(如物体增删、背景修改、动作修改、风格迁移等),并能理解用户的日常语言指令,实现形式自由的图像编辑。 NextStep-1 是阶跃星辰团队对构建简洁的高保真生成模型的一次真诚探索。它证明了,在不牺牲连续性的前提下,构建一个纯粹的端到端自回归模型是完全可行的。阶跃星辰相信,这条 「简洁」 的道路,为多模态生成领域提供了有价值的新视角。 阶跃星辰团队深知这只是探索的开始,前路依然广阔。作为一个对新范式的初步探索,NextStep-1 在展现出巨大潜力的同时,也让团队识别出了一些亟待解决的挑战。我们在此坦诚地列出这些观察,并视其为未来工作的重要方向。 NextStep-1 成功证明了自回归模型可以在高维连续潜在空间中运行,并达到媲美扩散模型的生成质量,但这条路径也带来了独特的稳定性挑战。观察到,当模型的潜在空间从低维(如 4 通道)扩展到更高维(如 16 通道)时,尽管后者能表达更丰富的细节,但也偶发性地出现了一些生成 「翻车」的情况(如图 3 所示)。 局部噪声 / 块状伪影: 可能源于生成后期出现的数值不稳定性。全局噪声: 可能反映了模型尚未完全收敛,需要更多的训练来优化。网格状伪影: 可能揭示了当前一维位置编码在精确捕捉二维空间关系上的局限性。 自回归模型的顺序解码特性,是其推理速度的主要瓶颈。研究团队对单个 Token 在 H100 GPU 上的延迟进行了理论分析(如表 5 所示),结果表明: 优化流匹配头:通过减小其参数量、应用模型蒸馏以实现少步生成,或采用更先进的少步采样器。加速自回归主干:借鉴大语言模型领域的最新进展,如将多 Token 预测等技术,适配到图像 Token 的生成中。 收敛效率:自回归模型的严格顺序生成特性,在更高分辨率下需要更多的训练步数才能收敛。相比之下,扩散模型在每次迭代中并行地优化整张图像,能更直接地利用二维空间归纳偏置。技术迁移难度:为高分辨率扩散模型开发的先进技术(如 timestep shift)难以直接迁移。其根本原因在于,流匹配头主要扮演一个轻量级采样器的角色,而核心的生成建模由 Transformer 骨干网络完成,因此单纯修改采样过程对最终输出的影响有限。 扩散模型通常仅需数千个样本,就能稳定地适应目标数据分布,同时保持良好的泛化生成能力。相比之下,阶跃星辰的 SFT 过程: 依赖大规模数据:只有在百万样本规模的数据集上训练时,才能观察到显著且稳定的提升。在小数据集上表现脆弱:当使用小规模数据集时,模型会陷入一种 「岌岌可危」 的平衡状态。它要么收效甚微,几乎没有变化;要么突然 「崩溃」,完全过拟合到目标数据分布上,丧失了原有的泛化能力。 因此,如何在一个小规模数据集上,找到一个既能对齐目标风格、又能保留通用生成能力的 「甜蜜点」(sweet spot)检查点,对阶跃星辰团队而言仍然是一个重大的挑战。 NextStep-1 的开源是团队为此付出的努力,也希望能成为社区进一步研究的基石。阶跃星辰团队期待与全球的研究者和开发者交流与合作,共同推动自回归生成技术向前发展。


