一发布就失望 Stable Diffusion 3有什么大问题
摘要 前不久,Stability AI发布了开源的Stable Diffusion 3 Medium,让各大探索AI的网友们兴奋不已,毕竟SD1.5、SDXL的发布已经带来了很多震...
前不久,Stability AI发布了开源的Stable Diffusion 3 Medium,让各大探索AI的网友们兴奋不已,毕竟SD1.5、SDXL的发布已经带来了很多震撼,这次的SD3更是期待拉满,很多网友都在开源的第一时间去下载,然而体验似乎并没有Stability AI所说的那么神。
在一开始的宣传中,Stability AI表示SD3已经能生成文字,但目前只能生成英文,中文还无法识别,而且最重要的是,SD3似乎在人物生成上开了倒车,对于人画像的生成,SD3经常产出畸形的人物形态,特别是人的四肢、手脚方面的错误,整体体验还不如上一代模型。
也就是说,只要不生成人物的四肢,SD3模型在局部画面上的表现还是很精致的,在物品和动物的生成上,SD3也基本没有什么问题,对于复杂的长提示词也有着很高的识别率,但是就是画不好四肢健全的人类,在这方面反而退化了一般,引起了很多人的不解。(图片来自量子位)
国外论坛Reddit用户则分析称,表示SD3的人体四肢理解错误,是因为在训练时,开发者过多干预内容,设置过滤限制级内容,而且通过的条件非常苛刻,从而导致AI识别错误,一些正常的图片也因此被识别为限制级内容,因此在公开的SD3模型中,人体的效果因为训练不足而导致畸形。
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢。