【財(cái)新網(wǎng)】“如果類比語(yǔ)言模型,目前的視頻生成有點(diǎn)像GPT-3左右的時(shí)代,距離到GPT-3.5版本的爆發(fā)點(diǎn)可能還有半年左右的時(shí)間,但應(yīng)該不遠(yuǎn)了?!?月5日,新加坡南洋理工大學(xué)助理教授劉子緯在2024世界人工智能大會(huì)的視頻生成前沿技術(shù)論壇上表示。
劉子緯主要研究計(jì)算機(jī)視覺(jué)、計(jì)算機(jī)圖形學(xué)等,領(lǐng)導(dǎo)搭建了數(shù)個(gè)國(guó)際知名的基準(zhǔn)數(shù)據(jù)庫(kù),例如CelebA和DeepFashion等。
2022年11月,OpenAI推出基于GPT-3.5模型的聊天應(yīng)用ChatGPT,掀起全球新一波AI浪潮。2024年2月,OpenAI展示了名為Sora的文生視頻模型,讓視頻生成領(lǐng)域迅速爆火。不過(guò),半年過(guò)去,Sora依舊沒(méi)有對(duì)外開(kāi)放使用,其展示的視頻被藝術(shù)團(tuán)隊(duì)披露包含大量人類后期特效,也讓其惹上夸大宣傳的爭(zhēng)議。