<strike id="1fxbd"><i id="1fxbd"><cite id="1fxbd"></cite></i></strike>
<strike id="1fxbd"></strike><span id="1fxbd"></span>
<span id="1fxbd"><dl id="1fxbd"><ruby id="1fxbd"></ruby></dl></span>
<strike id="1fxbd"></strike>
<ruby id="1fxbd"><ins id="1fxbd"></ins></ruby>
<span id="1fxbd"><i id="1fxbd"></i></span>
騰訊混元聯(lián)合清華、港科大推出圖生視頻大模型“Follow Your Click”
2024-03-15 18:37
來(lái)源: 深圳新聞網(wǎng)
人工智能朗讀:

騰訊混元聯(lián)合清華、港科大推出圖生視頻大模型“Follow Your Click”

深圳新聞網(wǎng)2024年3月15日訊(記者 劉夢(mèng)婷)3月15日,騰訊和清華大學(xué)、香港科技大學(xué)聯(lián)合推出全新圖生視頻模型“Follow-Your-Click”,基于輸入模型的圖片,只需點(diǎn)擊對應區域,加上少量提示詞,就可以讓圖片中原本靜態(tài)的區域動(dòng)起來(lái),一鍵轉換成視頻。

當前的圖生視頻大模型中,一般的生成方法不僅需要用戶(hù)在提示詞中描述運動(dòng)區域,還需要提供運動(dòng)指令的詳細描述,過(guò)程較為復雜。另外,從生成的效果來(lái)看,現有圖像生成視頻技術(shù)在移動(dòng)圖像的指定部分上缺乏控制,生成的視頻往往需要移動(dòng)整個(gè)場(chǎng)景,而不是圖像上的某一個(gè)區域,精準度和靈活性上有所欠缺。

為了解決這些問(wèn)題,騰訊混元大模型團隊、清華和港科大的聯(lián)合項目組提出了更實(shí)用和可控的圖像到視頻生成模型Follow-Your-Click,帶來(lái)更加便捷的交互,也讓圖片“一鍵點(diǎn),萬(wàn)物動(dòng)”成為現實(shí)。

image.png

圖像到視頻生成的技術(shù)在電影內容制作、增強現實(shí)、游戲制作以及廣告等多個(gè)行業(yè)的AIGC應用上有著(zhù)廣泛前景,是2024年最熱門(mén)的AI技術(shù)之一。

據了解,本聯(lián)合項目組中的騰訊混元大模型團隊,正在持續研究和探索多模態(tài)技術(shù),擁有行業(yè)領(lǐng)先的視頻生成能力。此前,騰訊混元大模型作為技術(shù)合作伙伴,支持《人民日報》打造原創(chuàng )視頻《江山如此多嬌》,生成中國大美河山的精美視頻片段,展示出了較強的內容理解、邏輯推理和畫(huà)面生成能力。


[編輯:張玲 馬丹] [責任編輯:李揚]
国产精品香港三级国产AV|JULIA手机在线观看精品|亚洲乱色熟女一区二区三区麻豆|欧美牲交a欧美牲交久久精品|亚洲成A∧人片在线播放无码
<strike id="1fxbd"><i id="1fxbd"><cite id="1fxbd"></cite></i></strike>
<strike id="1fxbd"></strike><span id="1fxbd"></span>
<span id="1fxbd"><dl id="1fxbd"><ruby id="1fxbd"></ruby></dl></span>
<strike id="1fxbd"></strike>
<ruby id="1fxbd"><ins id="1fxbd"></ins></ruby>
<span id="1fxbd"><i id="1fxbd"></i></span>