在准备这次求职作品集时,我首次将AIGC技术作为个人亮点加入其中,并展现了一部分产出。同时在这期间,我进一步提升了对Mid journey和Stable Diffusion两大AIGC应用的理解。特此写下一些心得体会,与大家交流。
要说明的是,因为电脑系统原因,并未使用正版SD(仅学习过),而是国产SD:Liblib AI,因此可能在认识上与正版SD有所出入。望大家理解。
关于Mid journey 和 Stable Diffusion的使用感受
就个人感受,我倾向MD多,因为MD更加自由和“傻瓜”,基本产出就可以达到“出乎意料”的结果。换句话说,影响它的只有【关键词】。SD则更加“细节”,影响结果的原因也更加复杂,除了【关键词】还有【反向关键词】,同时还很吃模型,更不用说还有ControlNet等额外且重要的关键因素。尤其对于英文不好的我来说,SD各种选项需要更加投入时间成本去学习和理解。因此,我建议新手先以MD作为学习起点,并结合Chat-GPT进行总结关键词的练习。
从上图可以看出,模型作为影响SD效果的决定性因素之一,要与关键词进行紧密结合,但结果仍然不好把控,导致后期修改的难度也有所增加···复杂图片即使进行PS进行后期仍然艰难。这时候SD的使用必须借助ControlNet实现效果把控。
之所以ControlNet可以更好控制效果,是因为它可以利用草稿图建立一种“框架”来约束SD。并配合更多可调节的参数来进行细节上的调整。
在两个应用都能解决版权问题和弥补个人能力这些点上,MJ更符合“AI绘画”这个概念,可以实现各种艺术效果,甚至化身大师。SD则更加适合实现写实效果,如C4D效果、3D效果、建模类,这也是为什么SD会在家居装修领域大放异彩的原因,但它在人物上的刻画容易出现细节问题,这是因为人物建模往往没有ControlNet的线稿。
由于SD对于关键词精准度要求更高,建议总结文字能力差(懒)的同学,可以通过MJ的命令:“describe”来实现以图生文,随后粘贴至SD文本框即可,【反向关键词】可以直接使用SD自带起手式。虽然SD也有类似功能,但是我认为MJ提取更加准确。
补充细节:增加情绪Movie screenshot增 加美姿: dynamic pose
增加真实,Realistic style,ultra detail, cinematic light,8K,HDR
语境模块:行业+镜头+内容描述(是谁?在哪里?在干嘛)+补充(环境) + 质感。
只有语言逻辑是正确的,AI才能更好的理解你的表达,最终呈现合理的结果。
无论如何,都无法保证AI能实现你的所有想法,并且不失误,因此指望AI实现7成效果就理应感到谢天谢地,9成当跪谢天地。适当对图片进行后期处理,如修图、合成等最终实现效果。要做好心理准备。
AIGC技术作为第四次产业革命的产物,正在影响越来越多人的生活。对于当下设计师而言,这是一个我们站在同一起跑线的机会,相比于传统创意工具PS、AI、ID、C4D等这些“老同志”,新技术让大家的技艺差距不会出现巨大差异。,当所有人眼前都是“0”时,实现“1”的进步大于未来“100”的跨越。