為何OpenAI未讓我們試用Sora?

Ai

OpenAI的Sora和其他AI視頻生成器在演示中看起來非常出色——為什麼不讓我們試試?

意見
埃里克·哈爾·施瓦茨 於2024年11月27日發表

當OpenAI今年早些時候首次展示Sora時,我感到非常好奇和驚艷。這個AI視頻模型似乎能夠無限地根據文本提示生成各種影片。Sora能夠輕鬆地將描述轉化為身臨其境的現實視頻,而OpenAI則含糊其辭地暗示可能會在不久的將來進行大規模推出。然而,幾個月後,只有與OpenAI合作的專業電影製作人才能真正使用這項技術(最近的一次短暫洩漏不算數)。其他備受關注的AI視頻生成器,如Meta的Movie Gen和谷歌的Veo,情況也是如此。

自從Sora驚艷了眾人以來,許多優秀的AI視頻生成器相繼問世,但我不禁感到像個孩子一樣,鼻子貼在玩具店的玻璃上,想知道為什麼我們不能稍微玩玩這些玩具。我認為OpenAI和其他不願意釋放的AI視頻創作模型仍然被鎖起來的原因如下。

電影預告片總是令人失望
也許我只是一個懷疑論者,但我覺得OpenAI、Meta和谷歌似乎迫不及待地想展示各自的AI視頻生成器的演示,但卻沒有給出任何大致的推出日期。這讓我想起那些在電影上映前一年就發佈的預告片,往往承諾的內容遠超最終剪輯所能提供的。我在想,Sora、Movie Gen和Veo是否還需要更多的打磨,才能讓我們接觸到它們。

這些精心策劃的演示可能不僅是這些AI模型的最佳示例,也可能是唯一值得展示給公眾的範例。Sora的標準輸出可能更像是一場夢,而非天上的美景。也許要求生成一個「湖面上的寧靜日落」,只偶爾能得到一個平靜的黃昏。如果十個Sora生成的片段中有九個描繪了一個在閃爍的鬼魅燈光下融化成霓虹綠深淵的湖泊,我不會責怪OpenAI暫時不釋放Sora。

倫理(或法律風險)
開發AI圖像和視頻工具的公司通常會強調他們的倫理訓練和輸出控制。Sora也不例外,但與圖像相比,視頻的倫理模型限制變得更加模糊,尤其是視頻本質上是大量圖像的串聯。

未經批准的數據抓取以製作真實人物的深度偽造視頻,以及未經許可製作包含商標角色和標誌的影片,無疑為法律和倫理帶來了巨大的風險。與專業電影製作人和商業視頻導演合作可以消除這些問題,因為科技公司可以密切監控AI的輸出,防止隨意侵權。

利潤何在?
儘管OpenAI、Adobe、谷歌和Meta都希望展示他們的技術,但控制財政的人希望知道這項投資的回報來自何處,何時能實現。目標是打造一個精緻且可商業化的AI視頻生成器,而不是一個酷炫的玩具。對於一個可以自由實驗和犯錯的AI視頻遊樂場來說,這只是通往目的地的其中一步,而不是最終目的。

雖然我們不知道具體的成本,但高端AI視頻製作器的運行成本可能與Runway或Dream Machine不相上下。所需的處理能力無疑是驚人的,遠超AI文本創作。如果不加限制地擴大使用,可能會導致伺服器崩潰。允許無聊的學生製作短片,比如一隻在潛水艇裡拉小提琴的狗,似乎不值得全天候運行Sora的高昂費用。限制對經過批准的專業人士的訪問,給公司帶來了更多的控制權。

OpenAI幾乎肯定在尋找從業餘愛好者、小型市場營銷公司和願意支付持續訪問高級AI視頻生成器(如Sora)的電影製作工作室中獲利的策略。但在它們像ChatGPT、Gemini和其他AI聊天機器人的高級訂閱一樣普及之前,只有那些資金雄厚的電影製作人可能會獲得Sora及其姐妹模型的使用權。在此之前,我們只能作為旁觀者。

在這篇文章中,作者提出了一個引人深思的問題:為什麼像OpenAI這樣的公司不願意讓大眾接觸其AI視頻生成技術?這不僅關乎技術的成熟度和商業考量,更涉及倫理和法律的複雜性。隨著AI技術的迅速發展,未來或許會看到更多的開放和實驗機會,但目前的保守做法也許是為了避免潛在的風險。這一切都讓人期待,究竟何時我們能夠真正體驗到這些前沿技術的魅力。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *