前三者就是IMX766、IMX766V、IMX890这三款传感器,它们看起来好像没啥区别,实际上细节方面是有明显差异的。其中,又以IMX766为基底——全像素输出规格为24fps。首先 IMX766V 这边,关键点就在于那个字母后缀“V”上,这个后缀代表的是蓝厂定制。具体定制内容为:采用了索尼第二代色彩滤波阵列技术,通过优化滤光片的色彩颜料使得透光率提高了4.6%。
可能有人会觉得,录像时多这点像素没用,实则不然。因为这两边多出的画幅区域,所额外提供的视角,可以抵消一部分数码防抖对视角的损失,也就是说能够保住更多细节。所以采用这种比例设计的传感器画幅,一般都会被称为“视频特化底”。巧的是这种设计还有个顺带好处,那就是能够获得更好的边角画质——因为已经裁切掉了一部分边角。综上,可以说是完全没必要“谈裁切色变”了,因为很多东西既然是精心设计出来的,那肯定就有大用处。而且裁切的只是很小一部分画幅,并非像素尺寸缩水,画质方面是没有影响的。3,细节解析(前三者)前三者就是IMX766、IMX766V、IMX890这三款传感器,它们看起来好像没啥区别,实际上细节方面是有明显差异的。其中,又以IMX766为基底——全像素输出规格为24fps。首先 IMX766V 这边,关键点就在于那个字母后缀“V”上,这个后缀代表的是蓝厂定制。具体定制内容为:采用了索尼第二代色彩滤波阵列技术,通过优化滤光片的色彩颜料使得透光率提高了4.6%。
写个小教程说一下刚才发的AnimateDiff Logo视频工作流注意的一些点,和如何使用。下面我们开始
首先是你加载工作流之后有很多节点缺失的话,点击右下角的Manager,勾选Use local DB,然后点击Install Missing Custom Nodes来安装,安装之后重启ComfyUI就行。
然后我们看一下Iputs这个部分需要注意的,看下面的图圈起来的部分从上到下分别是:
你需要转的视频的路径;
CKPT模型,需要换成你已经有的模型;
下面的VAE也需要换成你CKPT模型对应的;
后面的Lora模型如果不想用,把权重改成0就行。
然后是ContorlNet模型的部分,左边的模型用的是QRCode的模型,如果你没有的话需要下一下,然后采样器选对不要动。
然后就是Animatediff模型需要重新选一下,如果你有多个的话可能默认选的那个不对。
最后就是视频输出的部分,他默认24fps,素材是10fps的,所以需要调一下不然速度对不上,太快,下面放大流程的输出也是一样。
基本就是这样,有问题可以在下面问,觉得有用的话可以点个赞,谢谢各位。#AI视频#
首先是你加载工作流之后有很多节点缺失的话,点击右下角的Manager,勾选Use local DB,然后点击Install Missing Custom Nodes来安装,安装之后重启ComfyUI就行。
然后我们看一下Iputs这个部分需要注意的,看下面的图圈起来的部分从上到下分别是:
你需要转的视频的路径;
CKPT模型,需要换成你已经有的模型;
下面的VAE也需要换成你CKPT模型对应的;
后面的Lora模型如果不想用,把权重改成0就行。
然后是ContorlNet模型的部分,左边的模型用的是QRCode的模型,如果你没有的话需要下一下,然后采样器选对不要动。
然后就是Animatediff模型需要重新选一下,如果你有多个的话可能默认选的那个不对。
最后就是视频输出的部分,他默认24fps,素材是10fps的,所以需要调一下不然速度对不上,太快,下面放大流程的输出也是一样。
基本就是这样,有问题可以在下面问,觉得有用的话可以点个赞,谢谢各位。#AI视频#
✋热门推荐