nav分隔線 nav分隔線

畫家的新夥伴:AI自動繪圖技術引爆藝術革命

icon_fb icon_twitter icon_google
畫家的新夥伴:AI自動繪圖技術引爆藝術革命

文、士正老師

 

 

去年十月,才剛開始介紹AI自動繪圖的技術,短短不到半年,這種技術已經是核爆式的成長,並且在許多方面都帶來了革命性的影響。

 

首先,AI自動繪圖已經讓圖像和插畫的創建變得更加高效和快速,不再像傳統上,繪製一幅圖像或插畫需要專業的技能和大量的時間。反而現在,AI自動繪圖技術可以在短時間內創建出高質量的圖像和插畫,大大節省了許多時間和成本。

 

其次,AI自動繪圖也使得創作過程更加多樣化和創意。傳統上,圖像和插畫的創作通常是由設計師或藝術家進行,但是AI自動繪圖技術可以幫助不具備藝術設計背景的人創建出各種風格和主題的圖像和插畫,已經幾乎是人人都可以是藝術家的時代了!

 

 

有鑑於此,我們當然會需要先了解目前坊間有哪些AI系統,可以產生高質感又精準度高的圖像,進而去了解,能夠怎麼應用,才能讓身為藝術工作者的我們,在創作上更加得心應手:

 

 

Discord註冊

 

我們第一個要介紹的是Midjourney AI,它是只建構在Discord上的自動算圖機器,因此若要使用Midjourney AI,就必須要先註冊一個Discord帳號,首先先到Discord的官網,下載使用Windows版本的Discord APP,或者直接在瀏覽器上註冊皆可:

 

 

 

之後會跳出建立新帳號的訊息面板,照著面板選單上所需要提供的資料填寫,接著按繼續即可:

 

 

 

在中途,Discord還是會偵測到是否為使用機器人軟體隨意註冊,因此還是需要通過人類的驗證:

 

 

 

在註冊完畢,並且登入之後,會先跳出創立第一個Discord伺服器的浮動面板,此時按X關閉即可:

 

 有些時候可能會先需要進入信箱做驗證,才能夠登入Discord喔 

 

 

Midjourney AI繪圖工具使用

 

接著我們就可以到Midjourney AI的官網,按下Join the Beta,繼續註冊Midjourney A:

 

 

 

由於我們已經有Discord帳號了,因此會直接在Discord上跳出收到Midjourney邀請加入伺服器的訊息:

 

 

 

雖然按下了加入 Midjourney的按鈕,還是會需要通過人類的驗證才能繼續:

 

 

 

加入之前,Midjourney也會做一些大數據調查。分別為代名詞為和,位於哪一區域等等,此時可以隨意填,地區也可以填選位在亞洲:

 

 

 

 

最後,終於就可以進入Midjourney專屬的伺服器了,同時也會出現歡迎的視窗,記得點選Getting Started的按鈕,先加入新手頻道,了解一些指令跟說明:

 

 

👇🏻 加入菜鳥救星,深入探索ChatGPT用AI輔助你的作品!👇🏻

ChatGPT高效詠唱學起來,擅長用AI就是未來的競爭力

 

 

進入getting-started這個頻道,就可以看到教學,首先要加入開頭為newbies的頻道,並且輸入指令 /imagine 圖像的描述,Midjourney AI 就可以幫你計算出圖像來了!

 

 先進入getting-started頻道,觀看使用說明 

 

 

 再進入任何一個newbie為開頭的頻道 

 

 

以此為例,在我輸入 /imagine a young girl stands in the midst of a stunningly beautiful and vibrant fantasy world. Towering trees with leaves that glow like gems surround her, and colorful flowers bloom in every direction. The sky overhead is a breathtaking display of pinks, purples, and blues, with clouds that look like fluffy cotton candy. The girl herself seems to glow with a radiance that matches the beauty of her surroundings, with a look of wonder and joy on her face. It's as if she has stepped into a magical dream, a place where anything is possible, and she knows that she will cherish this memory forever. 後,Midjourney AI就幫我產生出以下的四張圖像:

 

 

 

並且在圖檔的下方,會有個英文+序號的按鈕,數字順序如圖上表示,至於其英文跟圖像的意思,分別代表如下:

 

 

 

指令 說明

U

Upscale:產生更大的圖

V

Variations:從此構圖中,再做更多變化

重新繪製四張圖像

 

 

舉例來說,當我點選了U2,Midjourney AI就幫我重新產生一張右上大解析度的圖檔,並且增加了更多的細節:

 

 

 

Midjourney AI免費版本的使用者,只能在newbie的頻道上面輸入指令,因此會一直有非常多的人輸入指令,刷頻的情況,如果怕自己的圖像來不及存檔,也不需要擔心,隨時可以回到Midjourney AI的官網,並且按下Sign In的按鈕,進入專屬的個人網頁:

 

 

只需要按下授權即可登入

 

 

 以往在Discord輸入指令產生的圖檔,都會存在個人網頁上,不用擔心找不到之前的圖 

 

 

使用Stable Diffusion製作角色的三視圖

 

Stable Diffusion是目前另一個主流的AI繪圖系統,其特色是完全免費,但也需要自己架構環境,並且也需要高階的繪圖卡,坊間中已經有許多安裝Stable Diffusion的教學,如巴哈姆特網站等,因此這邊就不再做安裝的說明,僅分享如何使用Stable Diffusion,來幫我們完成角色的三視圖,讓我們可以當作後續3D建模等用途的參考圖資源。

 

在啟動Stable Diffusion Web UI介面之後,Model我們選取anything,anything的Model是訓練用來專門產生2D的圖像,尤其是日式風格,目前最新的版本為4.5版。

 

之後,在Prompt的對話框裡,我們可以直接輸入1girl(一個女孩),並按下Generate,來測試一下成果:

 

 

 不到一分鐘,Stable Diffusion就計算產生出一張類似初音的女孩圖像 

 

 

雖然Stable Diffusion產生了一個符合Prompt輸入所要求的一個女孩圖像,但我們是希望能夠全身,因此這時候就要再加上full body view(全身的視角)的指令,關鍵字跟關鍵字可以用逗號(,)來分開。

另外,為了強調關鍵字,也可以用括號()來增加輸入的指令強度:

 

 

一個全身的女孩圖像就這樣產生了

 

 

當我們熟悉Prompt輸入的方式之後,就可以增加關鍵字,來讓Stable Diffusion產生的圖更加精準,舉例來說,我們後面再繼續增加 3 different ange views(三個不同的視角),以及Chraractor Design sheet(角色設計圖)的指令:

 

 

產生了兩個不同視角的角色設計圖

 

 

此時就發現,雖然Stable Diffusion照我們輸入的關鍵字產生圖像,但由於圖像比例的關係,只能塞入兩個不同視角的角色設計圖,因此我們需要更改一下出圖的比例。

將Width更改為1024,接著,再按下Generate來重新產生圖面:

 

 

圖像比例拉寬之後,就有足夠的空間,來依照關鍵字,產生三個不同角度的角色設計圖了

 

 

但我們還是可以從上圖中,感覺到有點簡陋跟模糊感,因此,除了增加些許關鍵字,我們還可以在第二格Negative Prompt空格裡,增加一些不希望呈現的關鍵字指令,來讓Stable Diffusion產生更精準地圖像:

 

 

說明 指令碼

第一格(我們希望呈現的效果):

(masterpiece:1.3), best quality, perfect anatomy, 8k, ((full body view)), ((full body portrait)), ((loli)), 1girl, sharp, 3 different angle views, Character Design sheet

第二格(我們不希望呈現的效果):

lowres, bad anatomy, bad hands, text.error, missing fngers,extra digt, fewer digits,cropped, wort quality, low quality, normal quality, jpegartifacts, signature, watermark, username, blurry

 

 

確定關鍵字之後,可以將Sampling method改成DPM++ SDE Karras,讓圖像的精緻度更高一些,同時,把Batch count更改成4,使Stable Diffusion一次可以計算出4張不同的圖像出來:

 

可以反覆按下Generate,一直到Stable Diffusion產生適合的圖像為止

 

 

待找到適合的圖像之後,就可以進行下一步的動作;舉例來說,我們確定要上圖圖例中,右下的圖,就可以選擇該張圖,並且進行以下的動作:

1. 將Batch count改回1

2. 勾選Hires.fix,來將該圖進行微調,以及放大解析的動作

3. 將Denoise strength改為0.6,減少變化量

4. Upscale by 為1.8~2皆可,依照自己要的放大比例調整

5. 點選Seed面板右方的  按鈕,就會自動帶入此圖的亂數種子序號

6. 最後,再按下Generate,就可以再次產生微調後的大圖了!

 

 

 重新產生的1.8倍大圖效果 

 

 

最後,我們只要將AI產生的三視圖整理一下,就可以把它當作參考圖樣,來製作3D模型了!

 

目前台北公館分校ZBrush課程,已經採用AI製作的三視圖,來練習3D人物建模

 

 

結語

 

雖然AI自動繪圖技術可以生成高質量的圖像,但是它仍然有一些限制。在生成像時,AI可能非自忽略一些細節或產生不符合預期的結果,因此在進行一些特殊需求的繪圖時,傳統的製到技術仍然是必要的。

 

例如,當需要繪製一幅有複雜細節的插圖時,AI自動繪圖技術可能無法產生完美的效果,這時候需要使用傳統的製圖技術進行修改和調整,另外,一些需要精準刻畫的繪圖項目,如繪製建築園,機械製圖等,AI自動繪圖技術也難以取代人工技術。

 

此外,AI自動繪圖技術還存在一些限制,例如在複雜場景下,AI自動繪圖可能無法捕捉到每一個細節,而傳統的製圖技術可以幫助人們更好地理解和捕捉複雜細節。還有,一些需要表現出情感,氛圍等繪圖項目,如插畫,漫畫等,AI自動繪圖技術也難以取代人工繪畫所傳達到的情感和氣氛。

 

因此,即使利用AI自動繪圖技術,仍然需要傳統製圖技術來修改和調整細節,並且在特殊需求的繪圖項目中,練好傳統製圖技術仍然是最必要的!

 

 可以看得到AI計算出來的圖像,還是存在非常多錯誤的地方 

 

 

 

 

FB粉絲團:https://www.facebook.com/lccnetzone
YouTube頻道:https://www.youtube.com/user/LccnetTaiwan

痞客邦Blog:http://lccnetvip.pixnet.net/blog

本網站使用相關網站技術以確保使用者獲得最佳體驗,通過使用我們的網站,您確認並同意本網站的隱私權政策。欲了解詳情,請參閱 隱私權政策