PPT資料分享:廣告公司《AIGC應用內部培訓資料》公開
AI技術的發展對廣告業造成了巨大的沖擊,設計師們最先嗅到了AIGC帶來的威脅,很多言論也提到AI技術將顛覆設計師崗位。
但隨著不斷的實踐,在與MJ和SD愉快的合作了幾輪之后,Designer們逐漸開始擁抱AI帶來的效率提升、豐富素材和海量模版的新時代。
AIGC給設計師們插上了翅膀,讓創意不局限于技術和素材,可以實現更多“mission impossible”。
下面的PPT是HS 設計部分享會上,海博同學分享自己在學習和應用AI平臺的一些心得和體會。我們希望拿出來與廣告同行們共同分享、一同進步。
(BTW:其中一些優秀AI作品的示意來自于網絡,在圖片下對出處進行了說明。)
一
近一年,以Midjourney和Stable Diffusion(以下簡稱為MJ、SD)為代表的AIGC繪畫迎來爆發式發展,掀起了一場生產力革命,目前我們設計部主要使用這兩個平臺進行創作。
1、MJ的工作流程
那我們來看看MJ能夠做什么吧~
產品類的攝影關鍵詞的描述主要是: 畫面主題+修飾詞+細節詞+參數后綴。
對于電商設計師來說,他們現在的工作可用AI生成氛圍圖,選取合適的角度將自家產品P上去,告別了過去要拍攝以及建模渲染的一些繁瑣流程。
生成的圖片一般是四張,如果不滿意進行刷新后又可得到新的四張圖片。
生成人物氛圍圖可用作商業版權照片或者商業拍攝的參考,但是目前MJ對于單個人物生成的效果最佳,多個人物生成效果尚待提升。
MJ是比較擅長制作出高質量的各類型角色以及IP的,輸入簡單的咒語就能出很好的效果,可以當做建模或者插畫的參考,甚至當做素材直接進行應用。
表情包的生成只需要在咒語中加入多個表情符號、姿勢、情緒、背景色調……等信息,可以使用Niii Cute Style模式。
也可以做喜茶類型的圖形插畫,這類常用咒語比如圖形插圖,簡單的線條,簡筆畫最小粗線標志,粗簡筆畫,等等。
還有比較火的科技風格圖標,可以在咒語里可以加入磨砂玻璃,透明科技感,玻璃形態亞克力材質等關鍵詞,在畫質中也可以多加入一些渲染器相關的咒語,比如C4D、OC渲染等等。
以圖生圖我們常稱為喂圖。
下圖中上部分三張圖就是找到的原圖,下部的三張就是通過喂原圖+相關咒語形成的三張新圖,會大體上復制原圖的風格,只在一些關鍵元素上進行變化。
2、SD的工作流程
SD對新手不太友好,對電腦的配置要求較高,而且SD生圖的邏輯是需要運用到各種不同類型的模型,但是相比MJ來說,SD開源免費,控制性強。
什么是模型?
對于AI繪畫而言,我們通過對算法程序進行訓練,讓機器來學習各種圖片的信息特征,訓練后沉淀下來的文件包,我們就稱之為模型。
簡單來說:模型就是AI經過訓練、學習后得到的程序文件。
訓練模型我們形象的稱之為「煉丹」 ,而SD成圖就需要應用到各種的模型。
需要用到的模型資源可以在一些開源的網站找到,這樣可以大大減少「煉丹」的時間。
有了模型之后,就可以生圖了。
SD的核心功能是通過Controlnet插件控制生圖, 這里我上傳了一張字體線稿 設置了合適的參數和合適的關鍵詞給到AI 。
通過不同的模型LORA搭配關鍵詞,可以得到不同的抽卡結果,相比較MJ來說,SD能夠精準的控制圖像。
同樣反白稿也可以生成我們想要的圖片。
如下圖,反白logo加上一些春天相關的咒語和搭配合適的模型,即可實現不同的效果。
同樣也可以給到三維的白模進行圖形生成。
當然,目前SD生成的圖形還不能滿足客戶所有的需求,因此可以做為氛圍參考,很多細節還需要進行后期處理。
3、關于IP生成
線稿轉3D也可以用SD搭配模型輕松實現。
在商業案例當中也可以進行人物模型的姿態固定,根據姿態去更換模特的服裝和表情。
4、MJ和SD的結合用法
可以用MJ去生成基礎形象,在SD中不斷進行細節優化,抽卡調整細節。
通過上面的一些介紹,下圖可以直觀的看到MJ和SD的對比,以幫助設計師按需求進行AIGC軟件的選擇。
業內AIGC優秀案例示例
隨著Gen-2等模型的出現,文生視頻飛速發展。
在如今短視頻蓬勃發展的時代,文生視頻不僅大大節省視頻拍攝和剪輯的時間,也降低了視頻制作的專業門檻,因此受到Up主和品牌主的關注。但是在生成的過程中,模型經常面臨:視頻不美觀、視覺質量和清晰度較差、視頻運動不連貫等一系列的問題。
二
目前主流的AI視頻工具有: Runway、Pika、Stable Video Diffusion,隨著Sora 的加入,文生視頻又給我們展開新的想象空間。
下圖通過發布時間、特點風格、生成時長、每秒幀數和分辨率,可看到Sora與其他平臺相比的優勢。
受制于AI文本到視頻生成的物理和時空推理局限,目前 Runway、Pika、Stable Video Diffusion 生成的視頻通常在4S左右,單個連貫性視頻的最大長度為16秒,而Sora 生成視頻的長度為60s ,實現了質的飛躍。
SORA發布的視頻片段
將視頻進行了拆解,得到關鍵詞。
將同樣的關鍵詞給到別的文生視頻軟件得到的圖像,大象走路時背后雪飄揚的性狀、物理世界的真實性、大象身體運動地連貫性、畫面復雜性都較Sora要弱。
Sora還有一些特殊的功能:
1、在兩個輸入視頻之間逐漸進行轉場,從而在完全不同的主題和場景構成的視頻之間創建無縫過渡。
2、變化功能:將無人機直接變形成蝴蝶,將之前必須用到AE軟件解決的效果直接用AI可以完成。
在3月份Sora發布的最新視頻可以看到:Sora能夠生成具有多個角色、特定類型動作和主題背景的復雜視頻,時長可達到60秒;可以在單個生成的視頻中創建多個鏡頭,模擬復雜的攝像機運鏡,同時準確地保持角色和視覺風格。最重要的是,它不僅理解用戶要求的內容,還能自己理解這些事物在現實世界中的存在方式。
除了視頻,Sora 同樣具備生成圖像的能力。
通過在空間網格中排列高斯噪聲補片,并設置時間范圍為單幀,Sora 能夠生成不同尺寸的圖像,最高支持 2048x2048 分辨率。相信不久的將來AI能夠實現更多。
從下面的視頻可以看到僅僅一年時間,文本生成視頻的效果迎來了質的飛躍。
后面是我們對AIGC的一些展望。
三
以上內容是我們在實踐中的一些理解和思考,期待未來能與大家進行更多交流。
轉載請在文章開頭和結尾顯眼處標注:作者、出處和鏈接。不按規范轉載侵權必究。
未經授權嚴禁轉載,授權事宜請聯系作者本人,侵權必究。
本文禁止轉載,侵權必究。
授權事宜請至數英微信公眾號(ID: digitaling) 后臺授權,侵權必究。
評論
評論
推薦評論
全部評論(8條)