祖克柏積極投入元宇宙,但這麼多科技巨頭相繼投入AR/VR

文章推薦指數: 80 %
投票人數:10人

這幾天最大最熱門的一件事之一,就是FB改名成Meta,首先改名這件事說明了馬克祖克柏(Mark Zuckerberg)對元宇宙投入的決心和野心,相信不少朋友都 ... 集團資訊關於我們集團介紹我們的團隊旗下媒體關鍵評論網everylittled.INSIDE運動視界Cool3c電影神搜未來大人物歐搜哇旗下節目多元服務Ad2Taketla拿票趣關鍵議題研究中心Cr.EDShareParty與我們合作內容行銷與廣告業務異業合作加入我們新聞中心2021/11/03,科技PhotoCredit:TheYomiuriShimbunviaAPImages/達志影像 方格子vocus方格子vocus致力於成為華文創作者的第一站,以多元模式創造價值,期望讓每位專注的創作者自在分享、交流,放送你的知識與想像。

在關鍵評論網的文章,都是由方格子創作者個別創作,透過「方格子直送」計劃授權轉載。

看更多此作者文章...訂閱作者收藏本文文:阿財科技分享這幾天最大最熱門的一件事之一,就是FB改名成Meta,首先改名這件事說明了馬克祖克柏(MarkZuckerberg)對元宇宙投入的決心和野心,相信不少朋友都知道FB花了不少心力,投入在旗下的FBRealityLab(AR/VR實驗室)上,曾經紅極一時的HTCVive和SonyPSVR感覺還歷歷在目,而且許多大老更是常在演講裡提到AR/VR相關應用,但似乎這麼多巨頭相繼投入AR/VR這個產業,卻不見其有所起色。

前兩篇文章介紹了VR的一些成像原理,這篇就延續前兩篇,從阿財的觀點出發,帶大家了解目前VR的狀況。

(這篇主要講VR以後會有AR系列大家別緊張)我相信許多人可能對VR不太看好,認為是炒作大於實際應用,大家有這個既定的印象其實也不意外,因為VR目前除了娛樂方面和少量的工業和醫療等應用外,幾乎日常生活中不是很必要,有些人會歸咎於VR沒有殺手級的應用,簡單來說VR目前對大多數人來說就是非必要且可替代的一種娛樂裝置。

但其實VR在色情行業的發展其實不算太差,VR、AV的發展非常迅速,可以讓大家投身其中當一回男主角,但為何這個產業有吸引力?主要是因為可以戴上VR眼鏡之後,可以有一個飛躍性的體驗,這是手機、平板或電腦沒有辦法達到的體驗,想像一下2D的模特經過VR變成3D在大家面前彷彿身歷其境。

儘管VR目前有影像品質和頭暈等問題,但對許多人來說,可以將自己心儀的模特從平面變成立體,犧牲一些品質也是沒問題的,那為什麼其他領域沒辦法複製?我們撇除工業或是醫療等應用,就單純講遊戲產業,為什麼VR沒辦法普及像PS5、XBOX360甚至是電腦遊戲?VR沒有好到讓大家願意花錢去購買這種升級的體驗!我這邊從軟體和硬體兩個方面,來講講VR目前發展到哪,並且遇到什麼問題。

我區分成軟體問題和硬體問題,當然,VR還有我前面文章所提到的會頭暈的問題,但這篇文章我們就從軟體(算法)的角度,來解析一下怎麼樣能夠製造一個真實的虛擬場景,這邊講的軟體是以算法為主,硬體上是需要搭配GPU、NPU或TPU等。

首先,我相信大家都知道近年來機器學習(深度學習)非常熱門,大家三不五時都可以在報章雜誌上看到AI打敗人類或是AI又有怎樣的突破,那AI能夠創造出一個極真實的虛擬場景嗎? 阿財的答案是:快了!今年4月NvidiaGTC的Keynote上CEO黃仁勳介紹了一系列的產品,但其中有半分鐘左右的片段是虛擬的黃仁勳(對!不是整段都是虛擬的!),而這場發布會在YouTube上有幾百萬人觀看,卻鮮少有人發現這個假的老黃,下面這個影片大家可以看看老黃團隊是怎麼樣造出一個假的老黃。

我們都知道Nvidia近年來一直在深度學習領域不斷努力,尤其在3D建模渲染領域可謂是下足了功夫,此次的虛擬老黃就是有搭載Nvidia推出的omniverse搭配許多動畫師將場景的各種物件做3D建模,最後才有如此驚豔的效果。

這裡就想先讓大家思考一下,怎麼樣的場景才夠真實?大家常常聽到的電影CG特效,為何CG特效會如此逼真?CG是ComputerGraphics的縮寫,大家看過的《復仇者聯盟》、《環太平洋》等好萊塢爽片都有用到CG特效,CG特效包含建模、動畫和渲染等等,CG特效是由特效師一幀一幀的精雕細琢出來的結果,沒錯是一幀一幀不是一秒一秒,通常電影一秒有24幀,也就是一秒包含24張照片,所以我們可能有聽說過電影特效一秒要渲染一天甚至數天的情況,而其逼真的原因之一來自於光線追蹤(Ray-Tracing)。

前面我有讓大家思考,怎麼樣的場景夠真實,我們現實世界中,光是不可或缺的,沒有光我們就無法看見物體,所以光線的軌跡是決定我們怎麼看世界的方程式,今天光被物體遮擋會有影子、光打到各種物體都會產生不同程度的反射、光經過狹縫(微小顆粒)會有繞射現象,這些複雜的光線組成了我們萬千的世界,所以虛擬的場景要夠逼真,就必須模擬或製造光線的運動。

大家如果對光線追蹤技術有興趣,可以在下方留言阿財日後再為大家解析喔。

所以電影場景裡的鋼鐵人、滅霸或是哥吉拉,我們的認知告訴我們這些是假的,但在觀影的時候無法從細節挑出假的點,這就是CG特效厲害的地方(也是貴的地方),藉由特效師的巧手,把虛擬與實際場景結合在一起,但這種特效曠日廢時且耗資巨大,應用在遊戲中是不可能的,這就是即時渲染和離線渲染的差別。

電影可以慢工出細活,但玩遊戲每分每秒都關乎生死,所以遊戲一般的光線只考慮局部的範圍(遊戲片段中的高畫質影片通常是預先錄好的,不是即時運算的),而電影則是把整個場景的光線都考慮進去。

但EpicGames發布虛幻引擎5中展現了令人震撼的光線追蹤效果,其中Lumen系統也就是在解決優化光線的問題,而PS5和XboxSeriesX都有支援這個引擎,所以PS5和Xbox才賣的這麼好吧?而虛幻引擎裡運用了Nvidia發表的DeepLearningSuperSampling(DLSS)方法,利用神經網絡的算法優化了物體邊緣的品質(反鋸齒運算),讓遊戲運行的更加順暢,但目前的渲染還是需要靠GPU搭配算法進行高速的運算,並非完全使用深度學習的方式進行,所以要玩3A大作電腦配置需要非常好(錢包哭哭)不然就是買PS5或Xbox囉。

如果要讓VR的虛擬場景更真實,VR的解析度就要越來越高,但解析度越高,就需要越好的電腦配置才跑得動,我們不可能玩VR每個人還要配一張RTX3090的顯卡(訂價1499美金),VR要普及很重要的關鍵是不能太貴(VR頭盔2萬配一台電腦8萬誰要玩啊!),所以回到一開始的問題,AI能夠創造出一個極真實的虛擬場景嗎?這邊介紹兩個方法,非常經典且驚嚇,一個是大名鼎鼎的神經輻射法(NeuralRadianceField(NeRF))[1]和利用對抗網絡(GenerativeAdversarialNetworks(GANs))優化的神經渲染法[2],當然這兩個方法細節牽扯到許多深度學習的算法,有興趣的可以直接去看原文(放參考資料)。

NeRF這個方法想做的事情是,假如我現在左視角的圖片,我要如何生成出右視角的圖片?具體來說,我有一張平面的照片,我能不能透過AI的方法,生成其他視角的圖片並合成3D圖片,如此一來就可以大量減少建模時所需要的運算的資源。

下面的圖片就是他們的研究成果,只需要輸入少量的2D角度的圖片,就可以造出連續不同視角的圖片,效果可以說是非常驚人,尤其是生成出來的圖片擁有金屬光澤感、陰影甚至是葉片的細節都表現得栩栩如生,大家有興趣可以去看官網上完整版的展示,放在參考資料中。

[3] PhotoCredit:截圖自作者這些都是NeRF方法生成的那他們是如何做得如此逼真的效果?這邊引用文獻中的圖片簡單為大家解釋,首先他們蒐集了非常多不同角度拍攝到的2D圖片當作訓練集(包含已知的相機參數),如下圖(a)所示,假如有一台怪手,我們拍攝的照片中會含有(x、y、z)三種不同的參數座標,而(theta、phi)則代表了視角的方向(我們從哪個角度對照片進行拍攝)。

擁有(x、y、z、theta、phi)的5D資訊之後,我們就可以丟到神經網絡中進行訓練,那他們這邊使用了多層感知器MLP(multilayerperceptron),MLP的知識我就不在這邊詳細展開,有興趣的朋友google一下,滿多人提到的,這邊大家就想像成一個神經網絡裡的方法,但輸出是什麼?PhotoCredit:截圖自作者NeRF輸入輸出座標轉換我們希望藉由不同角度資訊的照片,能夠將這類型的2D空間資訊轉換成(R、G、B、sigma)如上圖(b)所示,這裡的RGB指的就是三原色紅綠藍,我們知道三原色其實可以合成世界上各種五彩斑斕的色彩,而在渲染圖片的時候,不管是圖像的紋理或是細節其實都是由顏色組成,而這些顏色的差異也都是因為光所造成的,即便是陰影我們也能用不同的RGB把陰影調色出來。

所以,我們希望神經網絡能夠直接給我們這些圖案在不同視角情況下,物體應該(推測)是什麼顏色,那最後這個文獻中叫體密度,個人的理解有點像是透明度的概念,也就是光子打到一個物體之後會在哪一層所停下來,光子假設能直接穿過這個物體,就表示這個物體是透明的,而光子完全穿不過就表示這個物體是光滑像鏡子一樣(幾乎反射了),如此精妙的設計加上AI的訓練,就可以達到前面所展示的效果了! 上述所提到的這個方法,在訓練的時候需要大量拍攝許多不同角度的圖片,所以2021年Nvidia和幾所知名高校一起發表了另一篇文獻,使用對抗網絡GAN搭配神經渲染的方法,效果更加驚人,而這個GAN大家有興趣的話可以去看一下台大李弘毅教授的開放式課程,一樣會放在參考資料[4],順帶一提,GAN這個技術就是之前生成一堆看似真人的圖片,但其實那些圖片都是GAN生成出來的假人[5]。

PhotoCredit:截圖自作者利用GAN加上神經渲染法的流程圖上圖是文獻提出算法的一個流程圖,這裡的styleGAN就是幫忙生成各種不同汽車的不同角度之圖片,有了這些生成的資料之後,再丟到神經網絡的訓練之中,而此方法還將圖片分成三個部分進行優化-Mesh(網格)、Light(光線)和Texture(紋理),這樣的好處就是甚麼呢?下圖我們可以看到他們的研究成果,Input有一台紅色的五門車和一台銀色的轎車,紅框的部分我們可以生成不同角度的車子圖片,綠色框則是可以改變我們生成車子的形狀,甚至藍框還可以改變車子的紋理(顏色),最扯的是連背景都能替換掉(黑框)!PhotoCredit:截圖自作者不僅能預測生成角度還能改形狀顏色和背景當然,這兩種算法與傳統電影的CG特效或是在遊戲中即時運算的效果,還有一段落差,但隨著深度學習算法的進化,目前差距已經慢慢縮小,短期來說,這些AI算法會先用在遊戲場景或是元宇宙的場景之中,這樣可以大幅縮小運算時間,並且對硬體的要求也不會那麼嚴苛,遠期來說,深度學習的算法可能有機會接近電影CG特效,大家就跟著阿財拭目以待吧!這篇文章從軟體的角度出發,和大家分享目前元宇宙在軟體上發展到什麼程度,並且阿財下一期會從硬體上出發,告訴大家目前VR還存在哪些硬傷,沒辦法讓各位在玩的時候有身歷其境如同真實般場景的感受!參考資料 NeRF:RepresentingScenesasNeuralRadianceFieldsforViewSynthesis ImageGANsmeetDifferentiableRenderingforInverseGraphicsandInterpretable3DNeuralRendering NeRF生成的各種圖片 台大李宏毅教授介紹GAN GAN生成假人臉本文經《方格子》授權轉載,原文發表於此延伸閱讀 「元宇宙」題材加持,宏達電VR裝置谷底翻身,近6個交易日股價飆漲近50% 網路熱議的NFT到底是什麼?這將如何改變創作者與粉絲、收藏家之間的關係 Facebook母公司正式更名為「Meta」:邁向「元宇宙」虛擬世界,帶動5G基礎建設大爆發 爆紅的NFT與未來的「元宇宙」:音樂、影視、時尚、藝術等相關產業,都將出現不得不的改變責任編輯:王祖鵬核稿編輯:翁世航 最新發展:許多人吹捧「元宇宙」、「區塊鏈」這些新名詞,但本質上都是你早就知道的概念4天前美國聯邦貿易委員會以「扼殺下一代技術」提起訴訟,阻止輝達以400億美元併購安謀1週前比Metaverse更重要的事:我們打開了元宇宙的門,會不會發現裡面沒有人?3週前臉書改名Meta是炒作或轉運?為了股東、員工和供應商,這可能是「必須」1月前人文社科看「元宇宙」:科幻文本即是未來社會學,但我們真的準備好了嗎?1月前Tags:VR虛擬實境臉書FBFacebookMetaMetaverse元宇宙NFTMore...成為會員,在關鍵評論網暢所欲言成為會員成為會員台灣房價指數創歷史新高,內政部祭出打炒房5大措施,建商與房仲認為矯枉過正1則觀點在港慈善機構:無國界醫生公眾捐款額跌17%、保護兒童會未上傳最新年報1則觀點所謂遊民,不過是一群無家可歸的市民:「就地安身」是失敗的安置,還是成功的輔導?1則觀點【四個公投的公民課】選舉「投廢票」是一種意見表達,但用在公投上可能與你想的不一樣4則觀點「反內卷」的中國年輕人:只要我躺平了,不要往上生長,別人就割不了我的韭菜1則觀點李屏瑤:請回答19991則觀點助養兒童是騙局?從《紐時》一則調查報導說起1則觀點【關鍵眼中盯】Telegram群組之外,還有很多「看似自願」的N號房正在發生1則觀點防止大量小額消費「洗發票」,符合4項客觀要件狀態將不發統一發票獎金2則觀點【四個公投的公民課】保育與開發只能對立嗎?擁有7000年歷史的,是地質藻礁還是藻礁生態系?1則觀點



請為這篇文章評分?