本報訊 (記者矯月)4月28日,HappyHorse1.0(又稱“歡樂馬”)首發(fā)登錄AI視頻創(chuàng)作平臺LibTV。HappyHorse1.0由阿里巴巴(BABA)ATH(AliBABATokenHub)事業(yè)群創(chuàng)新事業(yè)部開發(fā)。
它依托原生多模態(tài)架構,采用音視頻聯(lián)合生成方案,面向廣告、電商、短劇、社媒創(chuàng)意等內容生產(chǎn)場景,提供從智能生成到編輯的一體化創(chuàng)作能力。模型支持15秒多鏡頭敘事、多畫幅適配以及1080P超分輸出,在畫面質感、運鏡流暢度、人物真實感這三個長期被視為“AI視頻短板”的維度上,都給出了顯著的改善。
模型層的突破需要工作流層的承接,否則再好的生成能力也只能停留在“片段演示”。承載HappyHorse1.0首發(fā)的LibTV,正是為這件事準備的。
LibTV是哩布哩布AI(又稱“LiblibAI”)全新推出的一站式AI視頻創(chuàng)作平臺。LiblibAI成立于2023年底,經(jīng)歷了開源視覺創(chuàng)作的爆發(fā)期,目前已經(jīng)成長為中國最大的多模態(tài)模型與創(chuàng)作社區(qū)——平臺整合了圖像、視頻、3D、LoRA訓練等多模態(tài)能力,覆蓋從靈感生成、視覺設計到動態(tài)視頻制作的完整AI工作流,孵化了超過2000萬名AI創(chuàng)作者。2025年10月,LiblibAI完成1.3億美元B輪融資,是國內ai應用(886108)賽道迄今最大的單筆融資。旗下產(chǎn)品包括LiblibAI創(chuàng)作社區(qū)、星流、LibTV等。
在基礎模型能力逐漸趨同的背景下,LiblibAI一邊聚合全球領先的開閉源視頻與圖像生成模型,一邊通過工具整合和創(chuàng)作者激勵機制,讓模型、場景、創(chuàng)作者三者互相生長。LibTV正是這條路徑在視頻領域的延伸。
LibTV專為專業(yè)AI視頻創(chuàng)作者打造,覆蓋從劇本創(chuàng)作、角色設計、分鏡設計、燈光控制到最終成片的完整制作鏈路。它的底層邏輯是“無限畫布+節(jié)點式工作流”——把劇本、分鏡、鏡頭、剪輯組織在同一個空間里,讓視頻創(chuàng)作從一段段線性操作,變成可以反復修改、復用和編織的結構化流程。這種形態(tài)更接近影視工業(yè)的真實工作方式,不像傳統(tǒng)AI工具那樣一問一答。創(chuàng)作者可以在畫布上逐步搭建內容,對任意節(jié)點進行修改和復用。
據(jù)了解,LibTV平臺上線首日訪問量突破10萬。未來,LibTV將繼續(xù)首發(fā)接入全球領先的視頻與多模態(tài)模型,與創(chuàng)作者、品牌和制作團隊一道打磨從靈感到成片的每一個環(huán)節(jié)。
