时隔一年的回归

研究生毕业之后,好像这里就已经被荒废掉了。其实之前想过好几次想要复更点啥的,但是一直拖着拖着就没了下文了。今年年初换完电脑之后升了win11之后就更没有想法了,一点进文件夹就想到还得装一堆环境,好烦……但无论怎么说,耗了好几个月终究还是把环境给整全了。

电脑是去年双11买的,因为拖延症加上以前的8700k+1080ti的电脑还能用,所以就一直拖着没装。但不管怎样,年初花了一个月时间熟悉新系统,还算是挺香的,微软最伟大的贡献就是能在wsl2的linux系统跑GPU了。

毕业之后,没继续走AI这方向就业,跑去当后台开发去了……

怎么说呢,AI这东西我个人觉得投资回报的风险太不可控了,就跟赌博一样……赌赢直接退休,赌输了那研发成本就白白烧掉了。之前在实习的时候,做的就是科研落地方向的,最后的产出指标量化下来就是GMV这类的指标了。如果运气非一点,最后模型上线做完AB测下来,发现GMV没提升多少,或者跟离线的指标差一点,组会做汇报的时候就显得稍微有些尴尬了。

当然这也是少数情况啦,大牛永远都会是大牛。之前同一部门的实习伙伴们,有发了不少paper,有跑去MIT留学,然后现在在折腾初创公司的……比如RMVPE: A Robust Model for Vocal Pitch Estimation in Polyphonic Music这篇文章的一作魏佬,当时看到他发朋友圈,把我震惊到了。

虽然自己工作跟AI无关了,但是科研领域的动态还是会关注的。套用三体的话来说,我是坚定的降临派分子。遇到自己感兴趣的新玩意儿,还是会花点时间看一下的。

经过研究生三年的经历下来,我发现自己真正喜欢的只是他人的研究成果,而不是享受研究这个过程。纯个人感觉,这过程其实跟坐牢差不多吧。当年的生活,无非是每天早上check一遍跑了一晚的实验数据,看完数据没问题,换个参数继续跑,有问题还得去看代码哪里算错了……等到结果差不多全了,就得好好整理实验数据写manuscript了,写完,投,accept with revision还好,rejected的论文还得再找个合适的期刊,换个latex模板,重新投……而且每次revision都得回复reviewer的各种奇奇怪怪的意见,比较无语的就是lack of innovation这种广大空的话了……后面有一篇论文revision的时间跟毕业论文初稿重叠了,是去年年初的事了,那段时间过得可酸爽,早上起床改&写论文一直改到深夜……

咳咳,扯远了。后面嘛,预期会更点目前在玩的东东(准确来说是前几个月了):SO-VITS-SVC,整个AI翻唱的流水线&原理,先留个坑在这里。这里先发个成果,fgo妖兰(cv 高野麻里佳)翻唱:

模型是年初换电脑后当新显卡的benchmark跑的,不得不说,跟之前的1080ti比起来,4090确实是快啊……PS: 跑分软件也就图一乐,真要体验实际效果还得靠pytorch。

SO-VITS-SVC AI翻唱:坂本真绫

b站天天给我推AI翻唱,确实挺有意思的,趁着这几天有空跑一个折腾折腾。

Data preparation#

数据集是废狗的解包语音,文本爬的fgo wiki。原本是打算跑VITS的fine tuning做文本转语音的,但好像练出来的效果不太行就放弃了。SO-VITS-SVC做声音转换反而不需要用到标注数据。

去掉多CV的角色,筛选2-30秒内的音频,得到的时长分布如下(右键在新标签页上打开图片可以看到无缩放版本的图片):

坂本阿姨配的角色还挺多(贞德、达芬奇&若干马甲),1个半小时的语音时长应该够训练了。切片之后得到将近1000条3-10秒内的语音。

Training#

训练必须加上底模(D_0.pthG_0.pth)。小数据集只能做fine tuning,不足够从scratch开始训练的。自己试过从头开始跑,跑了14w+ steps还不如加了底模跑个1w steps的效果。

batch size设为8,跑了64k steps,tensorboard的log长这样:

Ground truth sample:

Generated sample:

生成的声音还是有点沙哑,等以后补充数据集后力大砖飞跑个几天试试。

SVC Inference#

翻唱的话得分几个步骤:

  1. 用UVR5分离人声和背景音
  2. 将人声音频放到so-vits-svc项目路径的raw文件夹里,跑so-vits-svc的inference_main.py,指定一些推理参数,比如:-m logs/44k/G_64000.pth -c configs/config_768l12.json -t 0 -s maaya_preproc -cm logs/44k/kmeans_10000.pt -cr 0.2 -sd -15 -fmp(聚类模型权重-cr看模型效果,太大了确实容易口胡,-fmp确实能够解决高音变哑的问题),转换后的音频放在results文件夹里头
  3. 将背景音和转换后的音频合并起来就ok了

UVR5不支持CLI,就差它实现一键转换大礼包了。

随便跑了10来首歌试了下训练效果,发现还挺容易口胡的,遇到和声和高低音直接开摆。
(版权声明:以下歌曲仅作科研使用,版权归网易云所有,请自觉遵守相关法规)

第一首:supercell - 君の知らない物語

第二首:森永真由美 - Opposite World

第三首:幽閉サテライト - 月に叢雲華に風

最后一首:坂本真綾 - さいごの果実

听得噪中噪,方为人上人(手动doge脸)

本地部署NovelAI:生成小黑贞

自从部署了Novel AI之后,连steam里面的游戏都没打开过了,这才叫真正的3A大作啊。

说实话以前一直想爬danbooru的图(主要是为了拿到tag),但是由于各种事情最后还是咕咕咕了。pixiv上的我倒已经爬了1个多T的日榜原图了,要不下次就一步到位爬熊猫站吧(手动狗头)。

戳这里看本地部署教程,不重复造轮子了。这里只说说自己改动的一些地方,和踩过的坑:

  1. 自己的显卡(1080 Ti)只能带得动animefull-final-pruned,并且会用掉将近10G的显存。animefull-latest大概会占用14-16G,具体哪个数值忘了,反正3090轻松秒杀。
  2. 上面的部署教程提供的sentence-transformers_all-MiniLM-L6-v2里面的tokenizer.json是有问题的,自己去hugging face下一个替换掉就好了。
  3. Novel AI的前端API有2分钟的等待时间,超时就会中断请求。改static/_next/static/chunks/pages/_app-xxx.js这个文件,Ctrl+F查找替换,把12e4(120000毫秒,即2分钟)改成36e5(1小时)就行,改长一点也没关系。
  4. Novel AI和stable diffusion的webui对prompt处理的区别:
    1. Novel AI用{}强调关键字,一个大括号权重乘1.05;stable diffusion用()强调关键字,一个小括号权重乘1.1。施法还是要注意一下这点区别的。
    2. stable diffusion支持(word:weight)直接给word更改权重,比如(1girl:1.2),但Novel AI没见到有这功能。
      为了统一一下咒语的效果,这里魔改的地方如下:

      上面的部分是把()加入到强调字符里,并且把权重改为1.1。改动的地方见行号右边标蓝的部分(比如157、165-166、171-178行)。
      下面的则是支持(word:weight)语法的(其实{word:weight}也行):
    3. Novel AI默认开启了Add Quality Tags,会在prompt前面增加masterpiece, high quality这两个prompt,negative prompt在Undesired Content这里,用它内置的其实也差不多,咏唱别人的咒语的时候需要改成None,然后把咒语粘贴到下面的框框里。

安装也不算复杂,对我来说与其折腾venv还不如直接新建一个conda环境……

1
2
3
4
5
6
7
conda create -n novelai python=3.8
conda activate novelai
conda install pytorch torchvision torchaudio cudatoolkit=11.3 -c pytorch
conda install dotmap fastapi omegaconf einops torchdiffeq jsonmerge -c conda-forge
conda install uvicorn transformers scikit-learn ftfy scikit-image
conda install faiss-cpu -c pytorch
pip install sentence_transformers pytorch_lightning

下面就从最基础的咏唱开始展示,话不多说。

混进了一只巴御前

别的不说,Novel AI这黑贞画的已经比我强了(怒摔数位板)。

给Mumu模拟器刷个Magisk

Reference: https://www.bilibili.com/read/cv18294653/

Step 1 下载模拟器#

用回mumu家的,能刷zygisk就懒得用其他模拟器了,甚至挂机脚本都不用改了(懒)。在Mumu官方的下载页面中找到Android 9的版本(在左边一栏 安卓X(win版)更新日志 里面),目前用的是9.2.3版本。

一路下载安装就完事了。

之前试过Android 12+Magisk Delta 5.2,在模拟器勾选root权限之后再打开Magisk app就卡死了,原因不明,也不打算深究。

Step 2 安装Magisk#

用的是MagiskOnEmu的方案,虽然现在不维护了但还是能用的,下最新的release v17.7(10049),在模拟器上安装。

安装完后打开桌面的Magisk Terminal Emulator,启用模拟器root权限,输入“m”启用脚本,再输入“Y”请求root权限(如果没有root权限可以输入“n”继续)。

选择1. Install/Update Magisk

online因为国内环境是用不了的,选择offline就可以了,选“a”就能安装自带的24.1版本的Magisk。愿意折腾的可以选择“x”,在Magisk release里下载其他版本(比如我在用的24.3),下好后用adb push到模拟器中,最后在这里输入apk的文件路径即可。

注:mumu连接adb:adb connect localhost:7555

安装完之后,关闭模拟器root关闭模拟器root关闭模拟器root(划重点,重复说三次),重启,打开magisk app就ok了(如果没显示的话可以手动在Magisk release里下载安装)。

默认情况下Zygisk是不开启的,需要打开Magisk在右上角的齿轮里开启Zygisk (Beta),然后重启模拟器。

(如果重启之后还没有Zygisk,多重启几次,还是不行只能换模拟器了)

Step 3 刷入magisk模块#

刷入的操作基本跟在手机上是一样的,先用adb push把模块扔模拟器上,然后在Magisk app下面条条里选“模块”再点“从本地安装”就可以了。跟手机有点不一样的地方就只有:需要先刷入X86PluginLoader,再刷入zygisk_Plugin_xxx

点安装之后如果没有找到文件的话,可以在左边的折叠栏里打开文件浏览器选。

刷入模块,重启模拟器就算安装完成了。

Step 4 安装游戏#

需要用adb强制安装arm架构的apk:adb install -r --abi arm64-v8a xxx.apk

Step 5 Enjoy everything#

在模拟器上给bgo装了个自定义帧数和资源替换,可以说跟手机上的效果完全一致。