您现在的位置是:网站首页>电竞电竞

澳门电玩娱乐电玩城

林友绿 2025-05-14 电竞 1347 人已围观

IT之家 5 月 13 日消息⑰,科技媒体 marktechpost 昨日发布博文⑩,报道称英伟达携手麻省理工学院⑮,推出了 Audio-SDS⑯,一种基于文本条件的音频扩散模型扩展技术⑥。

音频扩散模型近年来在生成高质量音频方面表现卓越⑦,但其局限在于难以优化明确且可解释的参数⑰。

英伟达和 MIT 的科研团队首次将 Score Distillation Sampling方法应用于音频领域⑱,结合预训练模型的生成能力与参数化音频表示⑫,无需大规模特定数据集❶,可应用于 FM 合成器参数校准⑭、物理冲击音合成和音源分离三大任务▓。

SDS 技术广泛应用于文本生成 3D 图像和图像编辑中⑭,英伟达融合该技术推出 Audio-SDS⑪,结合预训练模型的生成先验知识⑧,能够直接根据高级文本提示调整 FM 合成参数⑬、冲击音模拟器或分离掩码⑲。

研究团队通过基于解码器的 SDS⑯、多步去噪和多尺度频谱图等方法①,实验结果表明❸,Audio-SDS 在主观听觉测试和客观指标上均表现出色⑪。

Audio-SDS 的创新在于⑳,它用单一预训练模型支持多种音频任务⑩,消除了对大规模领域特定数据集的依赖⑫。尽管如此⑤,研究团队也指出⑮,模型覆盖范围⑳、潜在编码伪影和优化敏感性等问题仍需解决④。

IT之家附上参考地址

很赞哦⑧!

随机图文