spot_img
首页图像AIDiffusionC...

DiffusionCraft:使用Stable Diffusion基于《我的世界》场景生成图像

一个名为DiffusionCraft的项目使用图像AI生成器Stable Diffusion基于《我的世界》(Minecraft)的场景来生成图像,即使在多人游戏中也有效。这将为用户提供很大的可能性来发挥他们的创造力。

自Stable Diffusion作为开源软件于8月底发布以来,无数爱好者已经创建了自己的项目。DiffusionCraft是其中一个在Reddit上特别受欢迎的项目。从开发者肖恩·西蒙(Sean Simon,又名“Lozmosis”)分享的一段视频看,《我的世界》的建筑和场景被Python脚本几乎实时地转换为AI图像,他配备了RTX 3080的计算机生成每幅图像大约需要3到4秒。

西蒙表示,新图像的生成以设定的间隔或每当玩家放置或移除块时运行,而实时生成只需要足够好的硬件即可实现。他描述的生成过程是这样的:

  • 脚本从《我的世界》窗口捕获图像,将其大小调整或裁剪为512 x 512像素,并将其保存到文件夹中。
  • InvokeAI 被修改为在循环中运行,以文件夹中的最后一个图像为目标,并输出Stable Diffusion图像。
  • 另一个脚本通过tkinter显示Stable Diffusion文件夹中的最新图像。

西蒙演示的只是“单人游戏体验”,但他表示,DiffusionCraft允许多个用户通过共同构建《我的世界》场景来协作处理AI图像,然后作为图像生成的模板。西蒙的脚本在本地服务器上运行。

目前,西蒙尚未发布他的代码,但在他的Twitter帐户上可以看到该项目的进展情况。他指出,主要的挑战是目前的img2img模型只接受一个提示。因此,他说,定义某些功能需要多台计算机运行Stable Diffusion,还需要有一个最终阶段来对图像被重新组装。

相比将《我的世界》场景转化为Stable Diffusion图像,它的逆转过程可能更令人感兴趣。Reddit的一个用户询问是否有可能将AI艺术作品转化为《我的世界》等游戏场景,西蒙回答说他正在做一些事情,但没有细说。

专栏
赞赏
lighting
lighting
新的开始
本文系反讽机器原创(编译)内容,未经授权,不得用于商业目的,非商业转载须注明来源并加回链。

欢迎订阅我们的内容