设为首页 - 加入收藏 ASP站长网(Aspzz.Cn)- 科技、建站、经验、云计算、5G、大数据,站长网!
热搜: 数据 手机 公司
当前位置: 首页 > 站长资讯 > 外闻 > 正文

社交网络刷屏的AI作画 它来源于达利和WALL E

发布时间:2022-09-14 10:38 所属栏目:16 来源:互联网
导读:但凡你每天要花半小时在社交网络上,那在过去的几个月里,一定已经被DALLE 2刷屏了。或许对这个名字有点陌生,但你一定知道AI作画输入任何文字,AI模型就能为你生成一幅画作。 DALLE 2是人工智能公司OpenAI推出的第二代图像生成模型。它的名字来自于艺术家萨
  但凡你每天要花半小时在社交网络上,那在过去的几个月里,一定已经被DALL·E 2刷屏了。或许对这个名字有点陌生,但你一定知道AI作画——输入任何文字,AI模型就能为你生成一幅画作。
 
  DALL·E 2是人工智能公司OpenAI推出的第二代图像生成模型。它的名字来自于艺术家萨尔瓦多 · 达利(Salvador Dali)和皮克斯同名电影中的机器人瓦力(WALL · E)。根据Open AI的说法,DALL·E 2有35亿个参数,虽然比上一代模型120亿参数的模型要小,但它的分辨率是上一代的4倍。
 
  更为关键的是,从艺术史上最有名的画作,到超写实的图片和3D作品,DALL·E 2都呈现出了惊人的效果,以及远超人类艺术家的效率。通常,DALL·E 2可以在30秒内就生成一幅画作,而人类画师花费的时间,则是以小时计算。
 
  DALL·E 2是如何工作的?

  本质上,DALL·E 2就是一个将文本处理成可视化信息的工具。它不理解达芬奇是谁,梦娜丽莎是怎样一幅伟大的画作,或者画面的透视关系是怎样的,但它学习了6.5亿张图片,由此形成了一定程度的“预测”,“假装”自己完成了一幅画作。
 
  其中的关键是,如何将文本和图像联系起来。OpenAI使用了他们的另一个模型CLIP(语言-图像对比预训练)。
 
  通过数以亿计的图像和相关标题的训练,CLIP学习了给定的文本与图像的关联程度。在过往计算机视觉的神经网络中,常见的方法是将大量图像数据集合在一起,然后手动标记类别。CLIP的聪明之处在于,它关注的是文本与图像的关联程度,这种对比性而非预测性的方法,使得模型能够更精确地理解语言之间的区别,而不需要依赖人类的决策。

(编辑:ASP站长网)

    网友评论
    推荐文章
      热点阅读