ai繪畫(huà)后天看的見(jiàn)原圖嗎?
看不到原圖
1. 文本生成圖像(Text2image)
這是最近最火的類型。其中它們很多用的是diffusion model(擴(kuò)散模型),有的AI模型還會(huì)加超分辨率重建模型,增強(qiáng)清晰度。
在使用這類模型時(shí),你需要輸入prompt,也就是你對(duì)希望產(chǎn)生的圖像的描述。有的模型還支持初始圖片,AI的會(huì)基于你指定念枯的圖片開(kāi)始創(chuàng)作。多數(shù)是僅支持英文的,不過(guò)也有支持中文的。
這里介紹幾個(gè)大家上手就能用的:
ERNIE-ViLG 文生圖
這是中文領(lǐng)域內(nèi)比較不錯(cuò)的文生圖模型。
文心大模型
wenxin.baidu.com/moduleApi/ernieVilg
示例作品:
Midjourney:
非開(kāi)源,需要你加入Discord小組給機(jī)器人發(fā)送prompt,機(jī)器人給你返回仔稿洞結(jié)果
Midjourney
www.midjourney.com/home/
這里展示用midjourney畫(huà)出來(lái)的效果。對(duì)于結(jié)果,midjourney也提供超分辨率重建,提升圖片清晰度。
Dream by wombo :
可以說(shuō)是最簡(jiǎn)單的了,我不用介紹,大家點(diǎn)開(kāi)就會(huì)用
https://app.wombo.art/
敬穗app.wombo.art/
畫(huà)出來(lái)的效果
Stable Diffusion:
最近最火的繪畫(huà)AI之一。在線demo:
Stable Diffusion - a Hugging Face Space by stabilityai
huggingface.co/spaces/stabilityai/stable-diffusion
繪畫(huà)效果
源碼:
GitHub - CompVis/stable-diffusion
github.com/CompVis/stable-diffusion
Dalle-mini:
demo:
DALL·E mini by craiyon.com on Hugging Face
huggingface.co/spaces/dalle-mini/dalle-mini
源碼:
https://github.com/borisdayma/dalle-mini
github.com/borisdayma/dalle-mini
畫(huà)作展示:
適合畫(huà)場(chǎng)景
不太適合畫(huà)生物
Disco Diffusion
在之前這個(gè)回答里面有詳細(xì)的介紹。可以指定init_image。Disco Diffusion需要跑代碼,但不一定需要看懂,你知道改哪里就行了。
Disco Diffusion 體驗(yàn)如何?你用它跑出了哪些圖?
267 贊同 · 29 評(píng)論回答
我用prompt「concept art, matte painting, in the rainy streets of a cyberpunk city at night, domination of a tall dark, robot wind sorcerer with glowing eyes and a cape, artstation, Greg Rutkowski」,可以畫(huà)出這樣的畫(huà)作
Stable Diffusion,Disco Diffusion, Dalle-mini之間的比較:
又來(lái)測(cè)評(píng)一個(gè)最近挺火的 # 人工智能 # #A…www.zhihu.com/pin/1547932185491038208
www.zhihu.com/pin/1547932185491038208
Clip-GEN
沒(méi)有demo,不過(guò)提供了源碼。
GitHub - HFAiLab/clip-gen: CLIP-GEN: Language-Free Training of a Text-to-Image Generator with CLIP
github.com/HFAiLab/clip-gen
2. 風(fēng)格遷移(style transfer)
風(fēng)格遷移就是把圖片A按照?qǐng)D片B的風(fēng)格改畫(huà),但圖片A的主體不變。
Fast Neural Style Transfer
https://huggingface.co/spaces/aravinds1811/neural-style-transfer
huggingface.co/spaces/aravinds1811/neural-style-transfer
畫(huà)作參考:
Neural Style Transfer
這個(gè)名字沒(méi)起好,這個(gè)模型把前面講到的文本生成圖片和風(fēng)格遷移融合在了一起。
Neural Style Transfer - a Hugging Face Space by NeuralStyleTransfer
huggingface.co/spaces/NeuralStyleTransfer/neural-style-transfer
生成結(jié)果示例:
3. 超分辨率(superresolution )/ 圖片上采樣(Image Upsampling)
又稱圖片修復(fù),大家可以看到很多老照片修復(fù)就是用超分辨率AI修復(fù)的。這里介紹一些
Real-ESRGAN
demo:
https://huggingface.co/spaces/akhaliq/Real-ESRGAN
huggingface.co/spaces/akhaliq/Real-ESRGAN
代碼:
GitHub - xinntao/Real-ESRGAN: Real-ESRGAN aims at developing Practical Algorithms for General Image/Video Restoration.
github.com/xinntao/Real-ESRGAN
效果測(cè)試
看起來(lái)修復(fù)動(dòng)畫(huà)效果更好
SwinIR
demo地址:
https://huggingface.co/spaces/akhaliq/SwinIR
huggingface.co/spaces/akhaliq/SwinIR
生成效果:
AI創(chuàng)作的思路
這里順便講講我使用AI創(chuàng)作的思路吧。
思路一:臨摹
如果僅僅給AI一個(gè)文字描述,輸出的風(fēng)格可能不好控制,雖然可以在文本里加一些風(fēng)格的描述詞,但是否感覺(jué)就是沒(méi)有藝術(shù)的感覺(jué)?不要緊,直接在文本中告訴AI:
你需要模仿哪個(gè)網(wǎng)站的作品。這里總結(jié)出了一些我個(gè)人感覺(jué)很好用的網(wǎng)站關(guān)鍵詞: on pixiv(日式動(dòng)漫風(fēng)), on artstation(科幻插畫(huà)風(fēng)), on 500px(攝影大片風(fēng))
或者模仿哪個(gè)藝術(shù)家的作品。直接在文本中加入 by xxx就行了。
例如我用prompt「a castle in the rainforest, trending on artstation」,就能畫(huà)出這樣的效果
這個(gè)列表提供了一些藝術(shù)家的名字及其藝術(shù)風(fēng)格
Disco Diffusion 70+ Artist Studies
weirdwonderfulai.art/resources/disco-diffusion-70-plus-artist-studies/
這個(gè)網(wǎng)站可以輔助你生成prompt,包括風(fēng)格,藝術(shù)家名字等等。
promptoMANIA:: prompt builder
promptomania.com/prompt-builder/
思路二:AI根據(jù)描述作畫(huà) -> 風(fēng)格遷移-> 超分辨率
先給文本生成圖像的模型一個(gè)你想要的輸入,然后把輸出作為超分辨率模型的輸入。如果你要控制風(fēng)格,你可以在文本里加一些風(fēng)格的描述詞。
如果風(fēng)格描述依然不能打造出你想要的風(fēng)格,可以試試把生成的圖片輸入到風(fēng)格遷移AI中,產(chǎn)生新的圖片。
如果你覺(jué)得生成的畫(huà)作太模糊,可以將輸出輸入到超分辨率模型。
1. 文本生成圖像(Text2image)
這是最近最火的類型。其中它們很多用的是diffusion model(擴(kuò)散模型),有的AI模型還會(huì)加超分辨率重建模型,增強(qiáng)清晰度。
在使用這類模型時(shí),你需要輸入prompt,也就是你對(duì)希望產(chǎn)生的圖像的描述。有的模型還支持初始圖片,AI的會(huì)基于你指定念枯的圖片開(kāi)始創(chuàng)作。多數(shù)是僅支持英文的,不過(guò)也有支持中文的。
這里介紹幾個(gè)大家上手就能用的:
ERNIE-ViLG 文生圖
這是中文領(lǐng)域內(nèi)比較不錯(cuò)的文生圖模型。
文心大模型
wenxin.baidu.com/moduleApi/ernieVilg
示例作品:
Midjourney:
非開(kāi)源,需要你加入Discord小組給機(jī)器人發(fā)送prompt,機(jī)器人給你返回仔稿洞結(jié)果
Midjourney
www.midjourney.com/home/
這里展示用midjourney畫(huà)出來(lái)的效果。對(duì)于結(jié)果,midjourney也提供超分辨率重建,提升圖片清晰度。
Dream by wombo :
可以說(shuō)是最簡(jiǎn)單的了,我不用介紹,大家點(diǎn)開(kāi)就會(huì)用
https://app.wombo.art/
敬穗app.wombo.art/
畫(huà)出來(lái)的效果
Stable Diffusion:
最近最火的繪畫(huà)AI之一。在線demo:
Stable Diffusion - a Hugging Face Space by stabilityai
huggingface.co/spaces/stabilityai/stable-diffusion
繪畫(huà)效果
源碼:
GitHub - CompVis/stable-diffusion
github.com/CompVis/stable-diffusion
Dalle-mini:
demo:
DALL·E mini by craiyon.com on Hugging Face
huggingface.co/spaces/dalle-mini/dalle-mini
源碼:
https://github.com/borisdayma/dalle-mini
github.com/borisdayma/dalle-mini
畫(huà)作展示:
適合畫(huà)場(chǎng)景
不太適合畫(huà)生物
Disco Diffusion
在之前這個(gè)回答里面有詳細(xì)的介紹。可以指定init_image。Disco Diffusion需要跑代碼,但不一定需要看懂,你知道改哪里就行了。
Disco Diffusion 體驗(yàn)如何?你用它跑出了哪些圖?
267 贊同 · 29 評(píng)論回答
我用prompt「concept art, matte painting, in the rainy streets of a cyberpunk city at night, domination of a tall dark, robot wind sorcerer with glowing eyes and a cape, artstation, Greg Rutkowski」,可以畫(huà)出這樣的畫(huà)作
Stable Diffusion,Disco Diffusion, Dalle-mini之間的比較:
又來(lái)測(cè)評(píng)一個(gè)最近挺火的 # 人工智能 # #A…www.zhihu.com/pin/1547932185491038208
www.zhihu.com/pin/1547932185491038208
Clip-GEN
沒(méi)有demo,不過(guò)提供了源碼。
GitHub - HFAiLab/clip-gen: CLIP-GEN: Language-Free Training of a Text-to-Image Generator with CLIP
github.com/HFAiLab/clip-gen
2. 風(fēng)格遷移(style transfer)
風(fēng)格遷移就是把圖片A按照?qǐng)D片B的風(fēng)格改畫(huà),但圖片A的主體不變。
Fast Neural Style Transfer
https://huggingface.co/spaces/aravinds1811/neural-style-transfer
huggingface.co/spaces/aravinds1811/neural-style-transfer
畫(huà)作參考:
Neural Style Transfer
這個(gè)名字沒(méi)起好,這個(gè)模型把前面講到的文本生成圖片和風(fēng)格遷移融合在了一起。
Neural Style Transfer - a Hugging Face Space by NeuralStyleTransfer
huggingface.co/spaces/NeuralStyleTransfer/neural-style-transfer
生成結(jié)果示例:
3. 超分辨率(superresolution )/ 圖片上采樣(Image Upsampling)
又稱圖片修復(fù),大家可以看到很多老照片修復(fù)就是用超分辨率AI修復(fù)的。這里介紹一些
Real-ESRGAN
demo:
https://huggingface.co/spaces/akhaliq/Real-ESRGAN
huggingface.co/spaces/akhaliq/Real-ESRGAN
代碼:
GitHub - xinntao/Real-ESRGAN: Real-ESRGAN aims at developing Practical Algorithms for General Image/Video Restoration.
github.com/xinntao/Real-ESRGAN
效果測(cè)試
看起來(lái)修復(fù)動(dòng)畫(huà)效果更好
SwinIR
demo地址:
https://huggingface.co/spaces/akhaliq/SwinIR
huggingface.co/spaces/akhaliq/SwinIR
生成效果:
AI創(chuàng)作的思路
這里順便講講我使用AI創(chuàng)作的思路吧。
思路一:臨摹
如果僅僅給AI一個(gè)文字描述,輸出的風(fēng)格可能不好控制,雖然可以在文本里加一些風(fēng)格的描述詞,但是否感覺(jué)就是沒(méi)有藝術(shù)的感覺(jué)?不要緊,直接在文本中告訴AI:
你需要模仿哪個(gè)網(wǎng)站的作品。這里總結(jié)出了一些我個(gè)人感覺(jué)很好用的網(wǎng)站關(guān)鍵詞: on pixiv(日式動(dòng)漫風(fēng)), on artstation(科幻插畫(huà)風(fēng)), on 500px(攝影大片風(fēng))
或者模仿哪個(gè)藝術(shù)家的作品。直接在文本中加入 by xxx就行了。
例如我用prompt「a castle in the rainforest, trending on artstation」,就能畫(huà)出這樣的效果
這個(gè)列表提供了一些藝術(shù)家的名字及其藝術(shù)風(fēng)格
Disco Diffusion 70+ Artist Studies
weirdwonderfulai.art/resources/disco-diffusion-70-plus-artist-studies/
這個(gè)網(wǎng)站可以輔助你生成prompt,包括風(fēng)格,藝術(shù)家名字等等。
promptoMANIA:: prompt builder
promptomania.com/prompt-builder/
思路二:AI根據(jù)描述作畫(huà) -> 風(fēng)格遷移-> 超分辨率
先給文本生成圖像的模型一個(gè)你想要的輸入,然后把輸出作為超分辨率模型的輸入。如果你要控制風(fēng)格,你可以在文本里加一些風(fēng)格的描述詞。
如果風(fēng)格描述依然不能打造出你想要的風(fēng)格,可以試試把生成的圖片輸入到風(fēng)格遷移AI中,產(chǎn)生新的圖片。
如果你覺(jué)得生成的畫(huà)作太模糊,可以將輸出輸入到超分辨率模型。
聲明:本站所有文章資源內(nèi)容,如無(wú)特殊說(shuō)明或標(biāo)注,均為采集網(wǎng)絡(luò)資源。如若本站內(nèi)容侵犯了原著者的合法權(quán)益,可聯(lián)系本站刪除。