1
2
一个人的命运啊,当然要靠自我奋斗,但也要考虑到历史的进程!
————长者

本地搭建AI绘画模型

由于我有做V,以及在学习绘画,并且有一些需求使用AI技术来辅助创作(毕竟我不是钻研画技的人而更在乎V周边的合理产出),就在自己电脑上搭建了AI绘画模型。

参考:

硬件配置:

  • GPU:RTX3060 12GB
  • CPU:AMD R5-5600

具体的搭建:

由于我一直有用git的习惯,加上GPU的驱动也都有很好的安装,python也是。因此搭建过程很简单。这里使用的是stable-diffusion-webui包。

先cd到想要安装的目录,然后clone这个包

1
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

检查GPU的CUDA版本之后发现是12.2,所以从这里下载并安装就好:https://developer.nvidia.com/cuda-downloads?target_os=Windows&target_arch=x86_64&target_version=10&target_type=exe_local
装好之后把nvcc所在添加到环境变量下,然后到目标文件夹直接双击(不用管理员权限)webui-user.bat即可,第一次会安装一些东西,直到跳出一个网页端进行执行。

之后就可以使用了!!由于是空模型,效果一般。相关描述我从这里找:https://prompthero.com/

后续就是准备做模型训练了。之前我的人设画师零稚和莳椛都已授权了对我的VTB创作的ai模型训练许可,姬德月兔也授权了她的商稿可用于这个AI模型的训练。

姬德月兔委托授权我做她的模型训练。所以我按照B站上秋叶大佬的教程做了训练。参考资料:https://www.bilibili.com/video/BV1fs4y1x7p2

由于我以及搭好了SD模型,所以只用下载秋叶大佬的lora模型训练文件,地址:https://github.com/Akegarasu/lora-scripts

安装好python用powershell打开秋叶大佬lora文件夹下的install.psl文件即可自动配置虚拟环境。之后打tag是在cmd里显示进程,就很无语…图片数量多且分辨率不一样就会非常慢。最后在跑训练之前要注意并没有自带的底模,所以我先去C站下载了一个。之后按照秋叶大佬的教程,复制底模目录到配置文件,在设置一下配置参数,就可以跑了。

一开始测试用姬德月兔的图包来跑模型,毕竟拖了好久了…但是40多张图并且分辨率都不一样,打tag的过程就已经卡死了。而换一种思路则是先跑我自己的。于是,用莳椛画的4个表情包,都是同等分辨率和尺寸的,以cetusMix为底模来跑一个自己的模型。根据结果来看一共跑出来10个不同程度训练的Lora模型。

之后,测试关键词为cute,girl。输出一个比较OK的图片。用3060显卡基本上只要20秒。虽然部分细节还是有问题,但大体上还是很不错的!!

之后我也只用零稚给画的立绘,用公共模型跑了个图,发现效果也还可以并且分辨率一致。因此,或许用AI跑几个统一分辨率的图然后再训练小的Lora模型似乎也是可行的,毕竟底模都是公共模型…

至少看起来效果都不错的!!!而且以上测试都是受到画师授权的。不得不说AI技术还是很棒的!!!

板绘基础01

这些相当于是我在上台湾某机构网课时候所提炼的笔记,仅用于自己分析和复习。不要求别人能看懂。实际上我发现板绘的绘画理论和手绘是差不多的,各类美术学教材基本上都有关于这些绘画技巧的说明。但是,我个人感觉相比网课,先购买一个日本出的绘画教程/绘画教学教科书会方便很多!!日本在这个领域可以说是最顶尖的了,而且都是实用性很强的技巧。

  1. 尺寸和比例设计,新手就完全基于辅助线来画吧..
  2. 各个身体结构都尽量用基础几何结构来拼,而不是一蹴而就。例如脑袋,可以先画个相对标准的圆,然后再下半部分画个尖底的的拼接。这样基本上能获得稳定的人体结构,避免各部位不协调的问题。
  3. 关节处用小⚪来连接,这样方便不同的部位拼接,以及控制好角度,长度和合适的空间分布。但是手一般不用做关节(圆)
  4. 肌肉结构同理,是拼出来的而不是一次性画出来的,否则会有粗细腿或者长短腿的问题。
  5. 新手总是急于求成,但是基本功还是要先从人体开始,然后临摹古典大佬的画,比如西方古典美术的人体。线条练习同理。

AI绘画(照片临摹)

实际上是把照片加水彩滤镜?但是过程是重构的所以不算是滤镜吧??具体效果如下:












之后尝试了一些控制临摹,但是效果一般。用一色翎测试了,但是对方作为美术生似乎不喜欢AI绘画。

AI绘画,让照片成为莫奈的画

前段时间开始用FotoSketcher来实现对自己的手机拍的照片进行AI处理,获得了一些莫奈画风的“照片”。总体效果是很不错的,相关的视频也投B站了,喜欢的可以去看一下。

VR设备

自从彻底切割V圈就不想再碰和V有关的任何东西了,尤其是各种劣质又溢价的live2d。

最近玩VR Chat认识了不少温柔的人,而且男生之间也特别好玩:一起逛风景图,一起逛恐怖图,一起玩战争图,一起在视频房看动漫。。。而且也认识了非常温柔的妹妹,还送了我她的模型,超可爱。一起去逛太空博物馆也很治愈,果然温柔能治愈一切。。。

废话少说,回到题目。由于这些友人的影响,我也入手了自己的VR设备,meta quest2。

从煤炉上买二手大概3.5w日元,是可接受的价格。但是在串流和玩VR caht上调试了好久,这里简单总结一下:首先硬件要足够支持VR,其次要确保串流硬件的可靠性,例如air link需要5Ghz的路由器,而我用有线串流,需要专用数据线和USB3.0接口。最初测试机箱顶部的USB3.0接口,但是经常断流。后来换了机箱背部的USB3.0接口就没事了,应该是硬件问题。当确保硬件都没问题之后,软件就很好解决了,基本上安装最新版就OK了。按照引导来不会出问题。而网上所说的大部分报错,绝大部分是硬件的串流稳定性问题,解决相关问题即可。这里给出我的设置方案:

对于接口和串流硬件:USB3.0接口,USB3.0的数据线(越长越好)

对于软件Oculus Debug Tool设置

1
2
3
4
5
6
7
Oculus link
Distortion Curvature: Low
Video Codec: H.264
Encode Resolution Width: 3648
Encode Bitrate(Mbps): 400
Link Sharpening: Quality
Local Dimming: Enabled

最后说一下VR设备的体验,VR效果还是不错的,VRC里一些游戏图也能获得更好的体验。但是缺点也很明显就是晕3D太严重了,不适合我这种人。参考PC版,由于PC版VRC可以窗口化因此没有太晕3D,而一些不能窗口化的3A大作则晕3d明显,何况VR更写实。。。。但是作为拥抱先进技术的体验装备,能实现脱离那种“自定义优秀的烂圈子”就是对自己最大的慰籍了,何况又有那么多温柔的人。

之后我参考b站cv29343793的方法把莳椛YUANNN之前给我(基于VTuber虚拟形象)免费做的VRM模型转为VRC的模型并上传了,但是质量很一般。