看不到原圖
1. 文本生成圖像(Text2image)
這是最近最火的類型。其中它們很多用的是diffusion model(擴(kuò)散模型),有的AI模型還會(huì)加超分辨率重建模型,增強(qiáng)清晰度。
在使用這類模型時(shí),你需要輸入prompt,也就是你對(duì)希望產(chǎn)生的圖像的描述。有的模型還支持初始圖片,AI的會(huì)基于你指定念枯的圖片開(kāi)始創(chuàng)作。多數(shù)是僅支持英文的,不過(guò)也有支持中文的。
這里介紹幾個(gè)大家上手就能用的:

ERNIE-ViLG 文生圖

這是中文領(lǐng)域內(nèi)比較不錯(cuò)的文生圖模型。

文心大模型
​wenxin.baidu.com/moduleApi/ernieVilg
示例作品:

Midjourney:

非開(kāi)源,需要你加入Discord小組給機(jī)器人發(fā)送prompt,機(jī)器人給你返回仔稿洞結(jié)果

Midjourney
​www.midjourney.com/home/
這里展示用midjourney畫(huà)出來(lái)的效果。對(duì)于結(jié)果,midjourney也提供超分辨率重建,提升圖片清晰度。

Dream by wombo :

可以說(shuō)是最簡(jiǎn)單的了,我不用介紹,大家點(diǎn)開(kāi)就會(huì)用

https://app.wombo.art/
​敬穗app.wombo.art/
畫(huà)出來(lái)的效果

Stable Diffusion:

最近最火的繪畫(huà)AI之一。在線demo:

Stable Diffusion - a Hugging Face Space by stabilityai
​huggingface.co/spaces/stabilityai/stable-diffusion

繪畫(huà)效果

源碼:

GitHub - CompVis/stable-diffusion
​github.com/CompVis/stable-diffusion

Dalle-mini:

demo:

DALL·E mini by craiyon.com on Hugging Face
​huggingface.co/spaces/dalle-mini/dalle-mini

源碼:

https://github.com/borisdayma/dalle-mini
​github.com/borisdayma/dalle-mini
畫(huà)作展示:

適合畫(huà)場(chǎng)景

不太適合畫(huà)生物

Disco Diffusion

在之前這個(gè)回答里面有詳細(xì)的介紹。可以指定init_image。Disco Diffusion需要跑代碼,但不一定需要看懂,你知道改哪里就行了。

Disco Diffusion 體驗(yàn)如何?你用它跑出了哪些圖?
267 贊同 · 29 評(píng)論回答

我用prompt「concept art, matte painting, in the rainy streets of a cyberpunk city at night, domination of a tall dark, robot wind sorcerer with glowing eyes and a cape, artstation, Greg Rutkowski」,可以畫(huà)出這樣的畫(huà)作

Stable Diffusion,Disco Diffusion, Dalle-mini之間的比較:

又來(lái)測(cè)評(píng)一個(gè)最近挺火的 # 人工智能 # #A…​www.zhihu.com/pin/1547932185491038208
​www.zhihu.com/pin/1547932185491038208

Clip-GEN

沒(méi)有demo,不過(guò)提供了源碼。

GitHub - HFAiLab/clip-gen: CLIP-GEN: Language-Free Training of a Text-to-Image Generator with CLIP
​github.com/HFAiLab/clip-gen

2. 風(fēng)格遷移(style transfer)
風(fēng)格遷移就是把圖片A按照?qǐng)D片B的風(fēng)格改畫(huà),但圖片A的主體不變。

Fast Neural Style Transfer

https://huggingface.co/spaces/aravinds1811/neural-style-transfer
​huggingface.co/spaces/aravinds1811/neural-style-transfer
畫(huà)作參考:

Neural Style Transfer

這個(gè)名字沒(méi)起好,這個(gè)模型把前面講到的文本生成圖片和風(fēng)格遷移融合在了一起。

Neural Style Transfer - a Hugging Face Space by NeuralStyleTransfer
​huggingface.co/spaces/NeuralStyleTransfer/neural-style-transfer

生成結(jié)果示例:

3. 超分辨率(superresolution )/ 圖片上采樣(Image Upsampling)
又稱圖片修復(fù),大家可以看到很多老照片修復(fù)就是用超分辨率AI修復(fù)的。這里介紹一些

Real-ESRGAN

demo:

https://huggingface.co/spaces/akhaliq/Real-ESRGAN
​huggingface.co/spaces/akhaliq/Real-ESRGAN
代碼:

GitHub - xinntao/Real-ESRGAN: Real-ESRGAN aims at developing Practical Algorithms for General Image/Video Restoration.
​github.com/xinntao/Real-ESRGAN

效果測(cè)試

看起來(lái)修復(fù)動(dòng)畫(huà)效果更好

SwinIR

demo地址:

https://huggingface.co/spaces/akhaliq/SwinIR
​huggingface.co/spaces/akhaliq/SwinIR
生成效果:

AI創(chuàng)作的思路
這里順便講講我使用AI創(chuàng)作的思路吧。

思路一:臨摹
如果僅僅給AI一個(gè)文字描述,輸出的風(fēng)格可能不好控制,雖然可以在文本里加一些風(fēng)格的描述詞,但是否感覺(jué)就是沒(méi)有藝術(shù)的感覺(jué)?不要緊,直接在文本中告訴AI:

你需要模仿哪個(gè)網(wǎng)站的作品。這里總結(jié)出了一些我個(gè)人感覺(jué)很好用的網(wǎng)站關(guān)鍵詞: on pixiv(日式動(dòng)漫風(fēng)), on artstation(科幻插畫(huà)風(fēng)), on 500px(攝影大片風(fēng))
或者模仿哪個(gè)藝術(shù)家的作品。直接在文本中加入 by xxx就行了。
例如我用prompt「a castle in the rainforest, trending on artstation」,就能畫(huà)出這樣的效果

這個(gè)列表提供了一些藝術(shù)家的名字及其藝術(shù)風(fēng)格

Disco Diffusion 70+ Artist Studies
​weirdwonderfulai.art/resources/disco-diffusion-70-plus-artist-studies/

這個(gè)網(wǎng)站可以輔助你生成prompt,包括風(fēng)格,藝術(shù)家名字等等。

promptoMANIA:: prompt builder
​promptomania.com/prompt-builder/

思路二:AI根據(jù)描述作畫(huà) -> 風(fēng)格遷移-> 超分辨率
先給文本生成圖像的模型一個(gè)你想要的輸入,然后把輸出作為超分辨率模型的輸入。如果你要控制風(fēng)格,你可以在文本里加一些風(fēng)格的描述詞。

如果風(fēng)格描述依然不能打造出你想要的風(fēng)格,可以試試把生成的圖片輸入到風(fēng)格遷移AI中,產(chǎn)生新的圖片。

如果你覺(jué)得生成的畫(huà)作太模糊,可以將輸出輸入到超分辨率模型。