2月21日,全球开发者大会(GDC)在如火如荼地进行中,阿里云魔搭社区在这个重要的行业盛会上抢先发布了两款备受瞩目的多模态模型,进一步巩固了其作为中国最大AI模型社区的地位。
此次发布的两款模型分别是Step-Video-T2V和Step-Audio。Step-Video-T2V是一款基于300亿参数的视频生成模型,其参数规模之大,在全球范围内都处于领先地位,这意味着它拥有更强大的视频生成能力和更高的精度。这对于视频创作、特效制作等领域来说,无疑是一大利好。更值得关注的是,Step-Video-T2V是一个开源模型,这意味着开发者可以更自由地获取和使用它,推动视频生成技术的创新和应用。
另一款模型Step-Audio,则是一款面向语音交互的模型,并且是业界首款产品级开源语音交互模型。这代表着在开源领域,语音交互技术达到了一个新的高度,为开发者提供了更易于使用、更强大的语音交互工具。开源的特性同样降低了技术应用的门槛,有望加速语音交互技术的普及,并催生出更多创新应用。
据悉,阿里云魔搭社区目前已上架超过4万个开源模型,涵盖了图像、视频、语音、自然语言处理等多个领域。如此庞大的模型库,为开发者提供了丰富的资源和工具,促进了AI技术的快速发展和广泛应用。阿里云魔搭社区的持续努力,也为中国乃至全球的AI开源生态建设做出了重要贡献。
此次发布的两款多模态模型,不仅仅是技术的突破,更代表着阿里云对开源生态的坚定承诺。通过提供高质量、易用的开源模型,阿里云魔搭社区正在积极推动AI技术的民主化,让更多开发者能够参与到AI技术创新中来,共同构建更加繁荣的AI生态系统。未来,我们有理由期待阿里云魔搭社区能够为我们带来更多惊喜,为AI技术的发展注入新的活力。