OpenAI今年初推出了CLIP,这是一种图像分析 AI模型,使用图像和文本数据进行过训练,可以识别图像是否符合文本描述。将该模型与图像生成模型如Dall-E或GAN相结合,可以创建根据描述生成合适的图像的AI系统。
借助此类开源的AI图像系统和Google Colab,现在任何人都可以根据自己的描述来轻松生成图像。
一位名为Maximilian Schreiner的实验者使用来自 Twitter 用户 Advadnoun 的 BigSleep 变体(以CLIP和Nvidia的BigGAN为内核)进行了尝试,结果在5分钟内生成了一系列企鹅图像。
由于输入的文本内容大多是拟人的,因此生成的企鹅图像也是相应的拟人化的形象,比如:一只企鹅在上网,一只企鹅飞过它的朋友们,给地球带来救赎的耶稣企鹅,一只坐着的企鹅和他的朋友们,企鹅看着猫,虚无主义企鹅……
Advadnoun目前正在尝试在生成后编辑某些图像部分的可能性。他最新的 AI 工具 LatentReVisions 暂时仅供Patreon支持者使用。
[…] 2021 年初,OpenAI 发布了 AI 模型CLIP,该模型使用图像和文本数据进行了训练,能够识别图像描述是否与图像内容匹配。除了CLP外,AI研究人员还受到OpenAI推出的DALL-E图像生成器的启发,开始将CLIP 与GAN 模型联系起来,以便根据文本输入生成新图像。 […]
[…] DALL-E 之外,OpenAI还展示了AI 模型CLIP。CLIP […]
[…] 2.0类似于OpenAI的DALL-E和CLIP或者谷歌的LaMDA和MUM的多模态模型。它用 1.2 TB 的中文和 1.2 TB […]