NVIDIA(輝達)今日宣布發表 AI 研究成果,使開發者首度能運用從真實場景影片訓練學習而得的模型,透過系統自動繪製出完全合成的互動式 3D 環境。
官方表示,在目前虛擬世界中的每個物件都必須個別建模,這樣的流程不僅昂貴且廢時,NVIDIA 研究成果採用的模型則是系統由實景影片中自動學習所得,自動繪製出包括建築物、樹木與車輛等物體。新開發的技術將有潛力能夠快速為包括汽車、建築、機器人或虛擬實境等應用迅速繪製虛擬環境。此類神經網路能根據特定地點的實景或消費者最喜愛明星舞姿生成可互動的電腦場景。
帶領這項研究的 NVIDIA 深度學習應用研究部副總裁 Bryan Catanzaro 表示:「NVIDIA 在過去 25 年持續針對互動式影像生成進行研發,如今透過類神經網路我們首度能夠達成。此類神經網路,特別是生成模型,將改變影像產生的方式,讓開發者以遠低於傳統方法的成本創造出嶄新的場景。」
此次研究的成果是一個簡單的駕駛遊戲,讓駕駛在都市情境中駕車遊走。所有內容都是透過類神經網路進行互動著色而成,將傳統繪圖引擎繪製的 3D 世界轉換成影片。
生成類神經網路已學會模擬如光照、材質與其他動態等真實世界的樣貌。由於該場景是完全合成,因此能輕易進行編輯,各物體都能加以移除、修改或新增。
研究人員在其論文中指出,掌握建模與重建視覺世界動態的能力對於建構智能代理(intelligent agents)至關重要。除了純粹的科學愛好,學習如何合成連續視覺體驗在包括電腦視覺、機器人與電腦繪圖等領域都存在眾多的應用潛力。