AI 圈又有大新闻啦!Stability AI 又悄悄放出一个大招,这次不再是画图,而是音乐生成!而且还是开源的!
Stable Audio Open 允许任何人通过简单的文本提示生成长达 47 秒的高质量音频数据。其专业训练使其非常适合为音乐制作和声音设计创建鼓点、乐器连复段、环境声音、拟音录音和其他音频样本。
Stable Audio Open 目前已经开源,IT之家附上相关链接,感兴趣的用户可以在 HuggingFace 上试用。据说它使用了来自 FreeSound 和 Free Music Archive 等音乐库的 486000 多种采样进行训练。
Stability AI 公司表示:“虽然它可以生成简短的音乐片段,但并不适合完整的歌曲、旋律或人声”。
Stable Audio Open 和 Stable Audio 2.0 不同是,前者为开源模型,专注于短音频片段和音效,而后者能够生成最长 3 分钟的完整音频。
安装教程
首先,将存储库克隆到本地机器:
git clone https://github.com/RoyalCities/RC-stable-audio-tools.git
cd RC-stable-audio-tools
创建虚拟环境
Windows :
python -m venv venv
venv\Scripts\activate
macOS 和 Linux:
python3 -m venv venv
source venv/bin/activate
安装所需的软件包
安装稳定的音频工具和必要的软件包setup.py
:
pip install stable-audio-tools
pip install .
Windows 用户的额外步骤
为了确保 Gradio 使用 GPU/CUDA 而不是默认使用 CPU,请卸载并重新安装torch
、,torchvision
并torchaudio
使用正确的 CUDA 版本:
pip uninstall -y torch torchvision torchaudio
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
配置
config.json
根目录中包含一个示例。对其进行自定义以指定自定义模型和输出的目录(.wav 和 .mid 文件将存储在此处):
{
"model_directory": "models",
"output_directory": "generations"
}
使用方法
运行 Gradio 界面
使用批处理文件或直接从命令行启动 Gradio 界面:
- 批处理文件示例:
@echo off
cd /d path-to-your-venv/Scripts
call activate
cd /d path-to-your-stable-audio-tools
python run_gradio.py --model-config models/path-to-config/example_config.json --ckpt-path models/path-to-config/example.ckpt
pause
或命令行:
python run_gradio.py --model-config models/path-to-config/example_config.json --ckpt-path models/path-to-config/example.ckpt
生成音频和 MIDI
Gradio 界面中的输入提示会生成音频和 MIDI 文件,这些文件将按照 中指定的方式保存config.json
。
该界面已经扩展了 Bar/BPM 设置(可修改用户提示 + 样本长度条件)、MIDI 显示 + 转换,还具有动态模型加载功能。
模型必须与附带的配置文件一起存储在其自己的子文件夹中。即,一次微调可以有多个检查点。所有相关检查点都可以放在同一个“model1”子文件夹中,但重要的是,它们的相关配置文件包含在与检查点本身相同的文件夹中。
要切换模型,只需使用下拉菜单选择要加载的模型,然后选择“加载模型”。
请登录后查看评论内容