鄢凱杰 孫 略
北京電影學(xué)院影視技術(shù)系,北京100088
分鏡頭腳本作為電影攝制前期的重要環(huán)節(jié),是將文字化的劇本轉(zhuǎn)換為圖像化視覺(jué)呈現(xiàn)的過(guò)程,為整部影片提供視覺(jué)上的預(yù)覽。分鏡頭腳本作為編導(dǎo)部門(mén)與攝制部門(mén)溝通的重要橋梁,可以協(xié)調(diào)統(tǒng)一整個(gè)影片的視覺(jué)風(fēng)格以及影像創(chuàng)作手法。隨著人工智能(AI)的發(fā)展與變革,自2022 年出現(xiàn)了以Midjourney、Stable Diffusion 為代表的圖像生成工具,并在圖像生成領(lǐng)域取得了突飛猛進(jìn)的進(jìn)展。這些AI圖像生成工具有著很強(qiáng)的美術(shù)競(jìng)爭(zhēng)力,甚至掀起了關(guān)于“AI 是否會(huì)替代畫(huà)家的討論”[1]。隨著電影數(shù)字化和虛擬化的發(fā)展,人工智能生成內(nèi)容(AIGC)作為一項(xiàng)結(jié)合自然語(yǔ)言處理(NLP)和計(jì)算機(jī)視覺(jué)(CV)的新興技術(shù),在電影制作及其相關(guān)產(chǎn)業(yè)領(lǐng)域表現(xiàn)出很大的應(yīng)用潛力[2][3]。
本文介紹了當(dāng)前AI 在圖像生成領(lǐng)域的應(yīng)用,并對(duì)目前業(yè)界分鏡頭繪制方式的優(yōu)缺點(diǎn)進(jìn)行了對(duì)比探究,通過(guò)對(duì)AI 輔助分鏡頭腳本繪制方面的可行性進(jìn)行分析,結(jié)合三維軟件Houdini 和圖像生成工具Stable Diffusion,提供一種便于人為控制、用于實(shí)際繪制電影分鏡頭腳本的方式。
AIGC 可以幫助用戶快速生成圖像或?qū)ΜF(xiàn)有圖像進(jìn)行修改。結(jié)合生成式對(duì)抗網(wǎng)絡(luò)(GAN)技術(shù)[4],通過(guò)輸入隨機(jī)噪聲,同時(shí)訓(xùn)練生成器與判別器兩個(gè)模型,生成輸出來(lái)自訓(xùn)練集分布的樣本,通過(guò)藝術(shù)偽造者和藝術(shù)檢察員的比喻,可以更直觀地了解GAN 概念[5](圖1)。此外,AIGC 也可以生成不同風(fēng)格的圖像,或者將不同圖像元素合成在一起,創(chuàng)造出令人驚嘆的畫(huà)面或虛擬場(chǎng)景。
圖1 通過(guò)藝術(shù)偽造者和藝術(shù)檢查員了解GAN 概念
如在訓(xùn)練過(guò)程中,Midjourney 通過(guò)使用大量的圖像和文本樣本進(jìn)行訓(xùn)練,可以將文本轉(zhuǎn)化為視覺(jué)元素。只要用戶輸入相應(yīng)的文本提示,Midjourney 就可以根據(jù)訓(xùn)練結(jié)果生成相應(yīng)的視覺(jué)效果[6]。這些文本元素可以是任何內(nèi)容,如對(duì)場(chǎng)景、物體或人的外貌描述等。在生成過(guò)程中,Midjourney 不僅需要掌握生成逼真圖像的能力,還需要學(xué)習(xí)根據(jù)用戶提供的文本生成相應(yīng)的圖像內(nèi)容。同時(shí),Midjourney 將文本數(shù)據(jù)與對(duì)應(yīng)的圖像進(jìn)行配對(duì),并將其作為條件信息輸入到GAN 模型中。之后GAN 能夠利用這些條件信息,限制生成與文本數(shù)據(jù)相符的圖像,以實(shí)現(xiàn)文本到圖像的轉(zhuǎn)化[7]。
遷移學(xué)習(xí)(Transfer Learning)是一種利用預(yù)訓(xùn)練模型生成圖像的方式,用戶通過(guò)對(duì)大數(shù)據(jù)的預(yù)訓(xùn)練模型進(jìn)行訓(xùn)練,利用深度學(xué)習(xí)(DL)模型使圖像擁有特定的藝術(shù)風(fēng)格或特征。換言之,AI 能夠?qū)⒁环鶊D像的風(fēng)格轉(zhuǎn)換成另一幅圖像的風(fēng)格,以Stable Diffusion 的風(fēng)格遷移為例,其通過(guò)參考圖輸入,控制提示詞(Prompt)生成圖像,從而創(chuàng)建出獨(dú)特的視覺(jué)效果,可以廣泛應(yīng)用于藝術(shù)創(chuàng)作、電影后期制作以及圖像編輯工具中,使用戶能夠?qū)⒉煌囆g(shù)風(fēng)格應(yīng)用于圖像生成[8]。
在藝術(shù)設(shè)計(jì)領(lǐng)域,AIGC 可以根據(jù)設(shè)計(jì)師意圖,協(xié)助生成如LOGO、海報(bào)、產(chǎn)品的外包裝等創(chuàng)意元素,也可根據(jù)需求進(jìn)行輸入,自動(dòng)生成多種設(shè)計(jì)選項(xiàng),為創(chuàng)意工作提供靈感,還可通過(guò)分析大量創(chuàng)意數(shù)據(jù)與趨勢(shì),為設(shè)計(jì)師的創(chuàng)作提供方向和建議,在短時(shí)間內(nèi)生成大量相關(guān)內(nèi)容,減少構(gòu)思與創(chuàng)作的時(shí)間和精力,大幅提高生產(chǎn)效率,更好地滿足受眾的需求[9]。
在高效解決圖像修復(fù)方面,AIGC 可以修復(fù)圖像中損壞或缺失的部分,例如修復(fù)老照片的撕裂、折痕或褪色部分;移除原照片中不需要的物體,消除噪點(diǎn)、鬼影,增強(qiáng)圖像的分辨率、細(xì)節(jié)和調(diào)整色調(diào)。
分鏡頭腳本的繪制是電影攝制過(guò)程中的關(guān)鍵步驟之一,它可以幫助導(dǎo)演和制片人將劇本中的場(chǎng)景可視化,以便更好地理解拍攝內(nèi)容和溝通拍攝計(jì)劃。隨著技術(shù)和工具的不斷迭代,電影場(chǎng)景的分鏡頭腳本繪制方式也逐漸多樣化[10]。
手繪分鏡是傳統(tǒng)分鏡繪制方式之一,目前依然在電影制作中廣泛使用,它通常由分鏡師以草圖或詳細(xì)的畫(huà)面手工繪制,用于傳達(dá)場(chǎng)景構(gòu)圖、攝影角度、角色動(dòng)作和對(duì)話等信息。
隨著計(jì)算機(jī)技術(shù)和數(shù)字技術(shù)的發(fā)展,許多分鏡師轉(zhuǎn)向了如平板電腦、數(shù)位板和分鏡軟件等數(shù)字繪圖工具。這些工具使分鏡師能夠在電腦上繪制、編輯和共享分鏡,從而更快速和靈活地進(jìn)行創(chuàng)作。數(shù)字繪圖還允許添加動(dòng)畫(huà)和過(guò)渡效果,以更好地模擬電影的動(dòng)態(tài)性。例如WonderUnit 電影工作室發(fā)布的軟件Storyboarder,內(nèi)置6 種直觀的繪圖工具,允許用戶輸入對(duì)話、動(dòng)作、定時(shí)信息以及拍攝類(lèi)型等內(nèi)容,可以迅速、輕松地制作分鏡頭腳本。
3D 建模和渲染技術(shù)的誕生與發(fā)展,使分鏡頭腳本繪制更加逼真和精確。分鏡師可以使用3D 建模軟件創(chuàng)建場(chǎng)景和角色,并使用渲染引擎生成高質(zhì)量圖像,這些圖像在應(yīng)用于分鏡時(shí)可以提供更準(zhǔn)確的攝影視角和特效。Maya、C4D、Houdini、UE 等常用3D軟件,雖然在三維建模、鏡頭運(yùn)動(dòng)設(shè)置以及渲染生成等方面已經(jīng)十分成熟且易用,但通過(guò)使用3D 建模渲染生成分鏡頭腳本畫(huà)面的方式,有著較高的使用門(mén)檻以及學(xué)習(xí)時(shí)間成本。
其他常見(jiàn)的繪制分鏡的方式還有視頻分鏡、虛擬現(xiàn)實(shí)分鏡以及電影制片公司出品的在線分鏡繪制平臺(tái)和協(xié)作工具等,如以Shot Designer 為代表的機(jī)位圖軟件。
(1)創(chuàng)意的枯竭
在構(gòu)思電影畫(huà)面的過(guò)程中,電影創(chuàng)作者所面臨的最為困難的挑戰(zhàn)之一就是創(chuàng)意枯竭。有時(shí)電影創(chuàng)作者們需要在自己的素材庫(kù)中不斷搜尋創(chuàng)意靈感,但是要在成百上千部電影和圖片素材中找到與他們的創(chuàng)意完美契合的素材并非易事[11]。
(2)受創(chuàng)作者的畫(huà)功水平限制
對(duì)于不擅長(zhǎng)繪畫(huà)的導(dǎo)演來(lái)說(shuō),創(chuàng)建生動(dòng)的分鏡頭畫(huà)面或圖像可能會(huì)成為一項(xiàng)艱巨任務(wù)。為了提升分鏡頭的視覺(jué)效果,電影創(chuàng)作者需要查找海量的參考圖片,這需要耗費(fèi)大量時(shí)間和精力。特別是在小預(yù)算的項(xiàng)目中,很少有足夠的資源雇傭美術(shù)人員來(lái)支持這一工作,因此在找到合適的“參考圖片”方面可能會(huì)變得尤為繁瑣[12]。
(3)邏輯排序修改繁瑣
分鏡頭腳本中的分鏡邏輯排序是一個(gè)復(fù)雜的問(wèn)題。有時(shí),線性敘事通常會(huì)顯得過(guò)于平淡,因此導(dǎo)演通常會(huì)采用非線性的邏輯剪輯思路,通過(guò)不斷調(diào)整鏡頭之間的邏輯關(guān)系以達(dá)到想要表達(dá)的敘事效果。然而,目前的處理方式通常是在類(lèi)似Excel 的軟件中手動(dòng)進(jìn)行前后分鏡頭的替換,不斷插入新的行并復(fù)制粘貼,十分繁瑣且容易出錯(cuò)[13][14]。
(4)現(xiàn)有的分鏡軟件缺陷明顯
如上文所述,許多分鏡軟件具有復(fù)雜的用戶界面和功能,對(duì)新用戶來(lái)說(shuō),需要一定時(shí)間來(lái)熟悉軟件操作,且大多數(shù)分鏡軟件缺乏智能輔助,無(wú)法自動(dòng)化處理一些繁重和重復(fù)的任務(wù)。一些高級(jí)的分鏡軟件則需要高額的許可費(fèi)用,這對(duì)小預(yù)算項(xiàng)目構(gòu)成負(fù)擔(dān)。此外,分鏡軟件通常需要強(qiáng)大的計(jì)算機(jī)硬件支持,特別是在處理復(fù)雜的3D 動(dòng)畫(huà)和渲染時(shí)。
(5)成本問(wèn)題
無(wú)論是采用傳統(tǒng)手繪分鏡或數(shù)字繪圖,分鏡師需要花費(fèi)大量時(shí)間來(lái)繪制每個(gè)場(chǎng)景的分鏡,尤其是在大規(guī)模電影制作中,需要大量的人力資源和時(shí)間成本[15]。
總體來(lái)看,上述問(wèn)題都反映出目前分鏡頭腳本的制作方式仍不夠智能,存在工作效率低下、成本難以控制等問(wèn)題。因此,筆者認(rèn)為大膽地探索應(yīng)用AI技術(shù),可以顯著提高分鏡頭腳本繪制的效率,甚至有望實(shí)現(xiàn)自動(dòng)生成分鏡頭腳本的目標(biāo)。
AI 技術(shù)的崛起為分鏡頭腳本的創(chuàng)作帶來(lái)了新機(jī)遇,如可以根據(jù)劇本和場(chǎng)景要求的文字內(nèi)容自動(dòng)生成初步的分鏡草圖,為分鏡師提供靈感和參考;AI 輔助繪制分鏡頭腳本可以提高效率,降低制作成本,并為制作人員提供更多的創(chuàng)作自由。
4.1.1 利用AIGC 圖像生成工具繪制分鏡
以Midjourney 和Stable Diffusion 為代表的圖像生成工具已開(kāi)始在分鏡繪制中發(fā)揮作用。用戶通過(guò)輸入畫(huà)面要求的文字提示,生成與畫(huà)面要求相近的AI圖片,筆者以Midjourney 和Stable Diffusion 為例,進(jìn)行了分鏡頭腳本生成的系列測(cè)試。
(1)角色測(cè)試
筆者的第一個(gè)測(cè)試是在Midjourney 中創(chuàng)建一個(gè)角色,并使用產(chǎn)生的圖像作為新框架的參考,生成一組分鏡頭腳本。筆者在Midjourney 輸入限定詞生成了一個(gè)中國(guó)古代少年俠客的形象,將其作為下一個(gè)分鏡頭腳本框架的參考。
我們首先嘗試使用Midjourney 的局部重繪(Region)功能,將生成的角色置于不同場(chǎng)景中,例如山間小路、亭臺(tái)樓閣以及手持兵器的場(chǎng)景(圖2)。從結(jié)果可得出,使用這種方法后的角色在所有畫(huà)面中都保持了相似外貌,看起來(lái)像同一角色。然而,這一方法幾乎不具備改變角色整體構(gòu)圖的能力。最終輸出的結(jié)果將最初圖像作為了重要參考,盡管將角色的提示詞放在提示序列的最后,生成的角色仍然處于相同的構(gòu)圖和位置。因此,這次使用Midjourney 控制單一角色生成分鏡頭腳本的測(cè)試是失敗的。
圖2 將生成的角色形象置于不同的背景場(chǎng)景中
(2)故事板測(cè)試
故事板是一種精確的分鏡頭腳本,包括取景、物體移動(dòng)、攝影機(jī)移動(dòng)等。筆者通過(guò)對(duì)Midjourney 輸入畫(huà)出推、拉、搖、移、變焦等,均沒(méi)有成功。
(3)根據(jù)設(shè)計(jì)師手稿繪制動(dòng)畫(huà)分鏡
測(cè)試使用Stable Diffusion 中ControlNet 插件的語(yǔ)義分割(Seg)功能和線稿(Canny)功能,對(duì)手繪分鏡手稿進(jìn)行上色和優(yōu)化。首先,筆者手繪了一組簡(jiǎn)略分鏡頭腳本〔圖3(a)〕。之后通過(guò)ADE20K 的Seg 語(yǔ)義參考表格獲取色值信息,以手繪線稿圖3(b)中的第7 張圖為例,在Photoshop 中劃分顏色告訴Stable Diffusion 此區(qū)域需要識(shí)別為哪種物體,其中車(chē)為#0066C8,道路為#8C8C8C,山丘為#FF6600。將劃分好顏色的區(qū)域添加到ControlNet 中,使用語(yǔ)義分割功能進(jìn)行預(yù)處理。添加好描述詞后利用Stable Diffusion 進(jìn)行生成〔圖4(a)〕。以手繪線稿圖3(b)中的第2 張圖為例,使用線稿模式,將手繪線稿導(dǎo)入Stable Diffusion,輸入描述詞后進(jìn)行上色、優(yōu)化輸出〔圖4(b)〕。
圖3 手繪分鏡測(cè)試
圖4 在Stable Diffusion 中對(duì)手繪分鏡進(jìn)行處理
最后,使用Stable Diffusion 按上述步驟進(jìn)行生成,輸出可以讓需求方更加直觀感受畫(huà)面效果的分鏡頭腳本(圖5)。由生成的效果圖可直觀地看到,使用Stable Diffusion 將手繪稿進(jìn)行上色、優(yōu)化輸出的方式存在著嚴(yán)重的主體認(rèn)知模糊問(wèn)題。
圖5 在Stable Diffusion 中將手繪稿進(jìn)行上色、優(yōu)化輸出的結(jié)果
4.1.2 利用AI在線分鏡頭腳本生成器制作分鏡
(1)Boords
Boords 是由英國(guó)動(dòng)畫(huà)工作室Animade 開(kāi)發(fā)的一款操作簡(jiǎn)單、功能實(shí)用的在線分鏡頭腳本生成器。筆者使用ChatGPT 生成一個(gè)關(guān)于空戰(zhàn)主題的電影劇本《Aces of the Skies: Wings of Destiny》,選定生成風(fēng)格后自動(dòng)生成分鏡頭腳本(圖6)。同時(shí),作為一個(gè)在線編輯平臺(tái),Boords 提供了大量協(xié)作工具,既方便團(tuán)隊(duì)協(xié)作,操作也相對(duì)簡(jiǎn)單(圖7)。其明顯缺點(diǎn)在于可使用的風(fēng)格較少,鏡頭間連貫性不足,畫(huà)面可控性低。
圖6 在線分鏡頭腳本生成器Boords生成方式
圖7 Boords內(nèi)置的攝影機(jī)移動(dòng)、畫(huà)面風(fēng)格等編輯和協(xié)作工具
(2)Storia
在線分鏡頭腳本生成器Storia 通過(guò)輸入劇本文本、劇情場(chǎng)景、關(guān)鍵人物字符、選擇喜愛(ài)的風(fēng)格實(shí)現(xiàn)分鏡頭腳本的自動(dòng)生成。筆者繼續(xù)使用空戰(zhàn)主題劇本《Aces of the Skies: Wings of Destiny》,將該劇本輸入到Storia 的Script 選項(xiàng),并選擇《銀翼殺手2049》風(fēng)格進(jìn)行測(cè)試。由輸出結(jié)果可見(jiàn)(圖8),Storia 界面簡(jiǎn)潔,用戶根據(jù)文字提示就能快速掌握。在功能性和創(chuàng)新性方面,就筆者測(cè)試結(jié)果而言,其本質(zhì)就是文本生成圖像(Text-To-Image),用戶編寫(xiě)一句提示詞且選中風(fēng)格后,平臺(tái)自動(dòng)生成相應(yīng)的圖片。圖像生成的AI 引擎目前只能使用Stable Diffusion,同時(shí)生成的圖像也存在主體認(rèn)知模糊的通病。
圖8 在線分鏡頭腳本生成器Storia 測(cè)試結(jié)果
綜上所述,選用Boords、Storia 等AI 在線分鏡頭腳本生成器制作電影分鏡的結(jié)果并不理想。
(1)技術(shù)與創(chuàng)意限制
目前的AI 技術(shù)仍然存在一些限制,特別是在生成復(fù)雜度高、創(chuàng)新性強(qiáng)的圖像方面,尚不能完全替代創(chuàng)作者的創(chuàng)造力。當(dāng)前的AI生成內(nèi)容通常是基于訓(xùn)練數(shù)據(jù)生成分鏡頭腳本,其創(chuàng)作能力受到訓(xùn)練數(shù)據(jù)的限制,因此AI 可能會(huì)傾向于生成與訓(xùn)練數(shù)據(jù)相似的內(nèi)容,難以提供新穎或具有突破性的創(chuàng)意[16]。
(2)情感表達(dá)與邏輯錯(cuò)誤
分鏡頭腳本通常需要給演員傳達(dá)角色的情感,以方便演員的表演。AI 在這方面的表現(xiàn)有限,由于難以捕捉和表達(dá)情感,可能導(dǎo)致其生成的分鏡頭腳本缺乏情感深度。在理解和維護(hù)邏輯一致性方面,AI也存在不足,需要通過(guò)人工干預(yù)進(jìn)行修復(fù)[17]。
(3)主體認(rèn)知模糊與內(nèi)容理解模糊
AI 系統(tǒng)需要大量的訓(xùn)練數(shù)據(jù)和不斷地迭代,以保持提供準(zhǔn)確的結(jié)果?,F(xiàn)階段的AI生成圖像技術(shù)存在主體認(rèn)知模糊問(wèn)題,如經(jīng)常出現(xiàn)人物手指缺失以及不能完全按照要求理解創(chuàng)作者想法的情況,需要更多時(shí)間來(lái)適應(yīng)創(chuàng)作者的特定需求與風(fēng)格。雖然技術(shù)在不斷更新迭代,但是AI 仍然面臨理解和解釋自然語(yǔ)言(NL)的挑戰(zhàn),生成準(zhǔn)確的分鏡頭腳本需基于對(duì)劇本、故事情節(jié)、角色、對(duì)話和情感的深刻理解,這對(duì)于AI來(lái)說(shuō)仍然是復(fù)雜且難以處理的任務(wù)[18]。
(4)人工審查與修改
目前使用AI協(xié)助制作的分鏡頭腳本仍然需要人工審查和修改以確保質(zhì)量。同時(shí)要審查是否存在倫理問(wèn)題、敏感內(nèi)容等[19]。盡管AI 可以生成分鏡頭腳本的初步草稿,但在大多數(shù)情況下,專(zhuān)業(yè)導(dǎo)演仍然需要審查和修改這些草稿,以確保它們符合其視覺(jué)愿景和創(chuàng)意要求。這在一定程度上增加了制作時(shí)間和成本[20][21]。
Stable Houdini 是俄羅斯開(kāi)發(fā)者Stanislav Demchenko 開(kāi)發(fā)的一套基于Stable Diffusion WebUI 的Houdini 數(shù)字資產(chǎn)(Houdini Digital Assets, HDA),是一個(gè)將Stable Diffusion 集成到Houdini 中的開(kāi)源工具包。該工具已用于虛擬攝制公司EVR-Systems 的項(xiàng)目,還被Houdini 官網(wǎng)予以推薦。通過(guò)在窗口生成深度圖(Depth)HDA 并配合ControlNet 生成更加定制化的圖像,該工具可以很好地解決AI 生成圖像的主體認(rèn)知模糊問(wèn)題[22]。
在使用方面,Stable Houdini 有以下功能:(1)可以從Houdini 內(nèi)部控制生成的人工智能,根據(jù)文本提示、源圖像或3D 場(chǎng)景的組成生成2D 圖像;(2)該工具基于Automatic1111 api,可以提升Stable Diffusion生成圖像的分辨率,使用ControlNet 擴(kuò)展控制Stable Diffusion,創(chuàng)建簡(jiǎn)單的動(dòng)畫(huà)、視頻,以及基于圖像生成法線或深度圖;(3)可以在本地運(yùn)行,使用便捷。因此,我們將使用Stable Houdini 進(jìn)行分鏡頭腳本生成的測(cè)試。
4.3.1 測(cè)試實(shí)施
(1)主體認(rèn)知模糊問(wèn)題
筆者在Houdini 中,創(chuàng)建Stable Houdini 節(jié)點(diǎn),導(dǎo)入3D 人物模型資產(chǎn),在Stable Diffusion 節(jié)點(diǎn)中添加模型風(fēng)格,輸入提示詞和限定詞,測(cè)試生成人物圖像的細(xì)節(jié)方面是否存在不完整的情況。通過(guò)控制Houdini 中虛擬攝影機(jī)的焦距、物距控制畫(huà)面構(gòu)圖,測(cè)試結(jié)果表明生成的人物手部細(xì)節(jié)均未出現(xiàn)關(guān)節(jié)缺失、肢體增加的情況(圖9)。
圖9 控制Houdini中虛擬攝影機(jī)的焦距測(cè)試生成人物圖像的細(xì)節(jié)
(2)同一資產(chǎn)生成不同風(fēng)格畫(huà)面
筆者嘗試在Houdini 中使用同一角色數(shù)字資產(chǎn)創(chuàng)建不同風(fēng)格畫(huà)面,虛擬攝影機(jī)的焦距、物距和景別保持一致,通過(guò)在Stable Diffusion 節(jié)點(diǎn)中改變輸入提示詞、限定詞和模型風(fēng)格的方式,得到如下結(jié)果:可以使用同一數(shù)字資產(chǎn)為主體在Stable Diffusion 中生成不同風(fēng)格畫(huà)面,且焦距、物距和景別保持一致(圖10)。
(3)根據(jù)劇本輸入提示詞生成分鏡頭腳本
筆者嘗試在ChatGPT 中生成有關(guān)機(jī)甲未來(lái)風(fēng)格的劇本,并在Houdini 中創(chuàng)建相應(yīng)3D 場(chǎng)景,通過(guò)控制虛擬攝影機(jī)的焦距、物距和景別,通過(guò)在Stable Diffusion 節(jié)點(diǎn)中根據(jù)ChatGPT 生成的劇本控制輸入提示詞、限定詞和模型風(fēng)格的方式(圖11),嘗試生成有連續(xù)鏡頭的故事片分鏡頭腳本。
圖11 在Stable Diffusion 中根據(jù)劇本控制輸入提示詞
由測(cè)試結(jié)果可見(jiàn),通過(guò)在Houdini 中改變虛擬攝影機(jī)的位置,在相同的Stable Diffusion 模型控制下,可以按照創(chuàng)作者的景別、透視要求,生成相同風(fēng)格的組圖。根據(jù)創(chuàng)作者所需鏡頭語(yǔ)言生成相應(yīng)畫(huà)面,作為分鏡頭腳本使用(表1)。
表1 生成結(jié)果作為分鏡頭腳本使用
4.3.2 測(cè)試結(jié)論
Stable Houdini 在生成分鏡頭腳本方面具有獨(dú)特的優(yōu)勢(shì):(1)如避免生成特寫(xiě)畫(huà)面時(shí)主體認(rèn)知模糊,出現(xiàn)細(xì)節(jié)識(shí)別不準(zhǔn)確的情況;(2)能夠?qū)崿F(xiàn)不改變構(gòu)圖情況下快速改變畫(huà)面風(fēng)格,生成畫(huà)面風(fēng)格可控;(3)便于用戶精確地把控畫(huà)面景別、透視等。但Stable Houdini 在使用上也有一定局限性:首先,該工具包基于本地機(jī)器離線運(yùn)行,對(duì)于硬件配置要求較高;其次,在配置使用環(huán)境方面,步驟較為復(fù)雜;此外,Houdini 和Stable Diffusion 的使用具備一定技術(shù)門(mén)檻,需要較高的學(xué)習(xí)成本,對(duì)于初學(xué)者并不是很友好。
總得來(lái)說(shuō),Stable Houdini 是目前少有的可以使用3D 模型來(lái)指導(dǎo)AI 生成圖像的工具。筆者認(rèn)為,在具備一定軟件操作基礎(chǔ)的影視創(chuàng)作者手中,Stable Houdini 將是一款高效的分鏡頭腳本生成工具,其應(yīng)用范圍甚至可以拓展到創(chuàng)建數(shù)字資產(chǎn)、概念藝術(shù)、電影視效鏡頭等方面。
作為導(dǎo)演表達(dá)創(chuàng)作意圖的重要手段,分鏡頭腳本既有利于主創(chuàng)團(tuán)隊(duì)各部門(mén)的協(xié)同,也是重要的視覺(jué)傳達(dá)工具。相比于文字腳本以及人物與空間的透視關(guān)系,筆者認(rèn)為分鏡頭腳本的核心更注重表達(dá)準(zhǔn)確的構(gòu)圖,以便將所需鏡頭語(yǔ)言、創(chuàng)作意圖準(zhǔn)確傳遞給分鏡師。
盡管使用人工智能創(chuàng)建分鏡頭腳本有其局限性,且這一生成方式與傳統(tǒng)人工繪制方式存在較大差異,尤其是在創(chuàng)建基于一致角色的分鏡頭腳本或故事板時(shí),情況更是如此,因此,人工智能在短期內(nèi)尚無(wú)法取代分鏡頭腳本藝術(shù)家。然而,在其他情況下,AIGC 可以產(chǎn)生更為廣泛的想法和草圖,快速探索更多創(chuàng)意選項(xiàng),盡快找到正確概念,這在一定程度上加快了創(chuàng)作進(jìn)程。未來(lái),隨著技術(shù)的持續(xù)發(fā)展,我們可以期待看到更多創(chuàng)新的分鏡頭腳本繪制方式。可以預(yù)見(jiàn)的是,人工智能將在未來(lái)深刻改變電影行業(yè),從圖像、劇本、聲音到動(dòng)畫(huà),多種資源都可以借助AIGC 降本增效。作為電影行業(yè)從業(yè)者,我們?cè)诜e極探索新技術(shù)應(yīng)用前景的同時(shí),也要謹(jǐn)慎考慮各種新技術(shù)發(fā)展所帶來(lái)的風(fēng)險(xiǎn)和挑戰(zhàn),在充分發(fā)揮其優(yōu)勢(shì)的基礎(chǔ)上,共同推動(dòng)電影行業(yè)的繁榮。?