• <bdo id="0cl6v"></bdo>
    <ruby id="0cl6v"></ruby>

      <rp id="0cl6v"><menu id="0cl6v"><td id="0cl6v"></td></menu></rp>

      <track id="0cl6v"><table id="0cl6v"></table></track>

          1. OpenAI深夜發布首個文生視頻模型Sora,現實將被徹底顛覆

            程璐2024-02-18 07:56

            2月16日凌晨,OpenAI再次扔出一枚深水炸彈,發布了首個文生視頻模型Sora。據介紹,Sora可以直接輸出長達60秒的視頻,并且包含高度細致的背景、復雜的多角度鏡頭,以及富有情感的多個角色。

            目前官網上已經更新了48個視頻demo,在這些demo中,Sora不僅能準確呈現細節,還能理解物體在物理世界中的存在,并生成具有豐富情感的角色。該模型還可以根據提示、靜止圖像甚至填補現有視頻中的缺失幀來生成視頻。

            例如一個Prompt(大語言模型中的提示詞)的描述是:在東京街頭,一位時髦的女士穿梭在充滿溫暖霓虹燈光和動感城市標志的街道上。

            在Sora生成的視頻里,女士身著黑色皮衣、紅色裙子在霓虹街頭行走,不僅主體連貫穩定,還有多鏡頭,包括從大街景慢慢切入到對女士的臉部表情的特寫,以及潮濕的街道地面反射霓虹燈的光影效果。

            另一個Prompt則是,一只貓試圖叫醒熟睡的主人,要求吃早餐,主人試圖忽略這只貓,但貓嘗試了新招,最終主人從枕頭下拿出藏起來的零食,讓貓自己再多待一會兒。在這個AI生成視頻里,貓甚至都學會了踩奶,對主人鼻頭的觸碰甚至都是輕輕的,接近物理世界里貓的真實反應。

            Sora生成的視頻截圖,圖片來源:OpenAI官網

            OpenAI表示,他們正在教AI理解和模擬運動中的物理世界,目標是訓練模型來幫助人們解決需要現實世界交互的問題。

            隨后OpenAI解釋了Sora的工作原理,Sora是一個擴散模型,它從類似于靜態噪聲的視頻開始,通過多個步驟逐漸去除噪聲,視頻也從最初的隨機像素轉化為清晰的圖像場景。Sora使用了Transformer架構,有極強的擴展性。

            視頻和圖像是被稱為“補丁”的較小數據單位集合,每個“補丁”都類似于GPT中的一個標記(Token),通過統一的數據表達方式,可以在更廣泛的視覺數據上訓練和擴散變化,包括不同的時間、分辨率和縱橫比。

            Sora是基于過去對DALL·E和GPT的研究基礎構建,利用DALL·E 3的重述提示詞技術,為視覺模型訓練數據生成高描述性的標注,因此模型能更好的遵循文本指令。

            一位YouTube博主Paddy Galloway發表了對Sora的感想,他表示內容創作行業已經永遠的改變了,并且毫不夸張?!拔疫M入YouTube世界已經15年時間,但OpenAI剛剛的展示讓我無言…動畫師/3D藝術家們有麻煩了,素材網站將變得無關緊要,任何人都可以無壁壘獲得難以置信的產品,內容背后的‘想法’和故事將變得更加重要?!?/p>

            但Sora模型當前也存在弱點。OpenAI稱它可能難以準確模擬復雜場景的物理原理,并且可能無法理解因果關系。例如,一個人可能咬了一口餅干后,餅干會沒有咬痕,玻璃破碎的物理過程可能也無法被準確呈現。

            來源:界面新聞 記者:程璐

            版權與免責:以上作品(包括文、圖、音視頻)版權歸發布者【程璐】所有。本App為發布者提供信息發布平臺服務,不代表經觀的觀點和構成投資等建議
            偷拍区图片区小说区激情,久久国产精品一国产精品,国产精品V欧美精品V日韩精品,男女嘿咻嘿咻X0X0动态图,2021日产乱码艾草
          2. <bdo id="0cl6v"></bdo>
            <ruby id="0cl6v"></ruby>

              <rp id="0cl6v"><menu id="0cl6v"><td id="0cl6v"></td></menu></rp>

              <track id="0cl6v"><table id="0cl6v"></table></track>