
HunyuanVideo-I2V
HunyuanVideo-I2V 是一個由騰訊開發的開源 AI 框架,可將靜態圖像轉換為具有可自訂運動效果和卓越視覺一致性的高品質動態影片。
https://github.com/Tencent/HunyuanVideo-I2V?ref=producthunt&utm_source=aipure

產品資訊
更新時間:2025年11月25日
什麼是 HunyuanVideo-I2V
HunyuanVideo-I2V 是一個基於成功的 HunyuanVideo 基礎之上的尖端圖像轉影片生成模型。由騰訊的 Hunyuan 實驗室發布,它代表了 AI 驅動的影片合成方面的一個重大進步,能夠生成高達 720P 解析度和 129 個影格(5 秒)長度的影片。該框架旨在彌合靜態圖像和動態影片內容之間的差距,提供穩定和高動態運動選項,以滿足不同的創意需求。它配備了全面的自訂工具,包括用於專業影片效果的 LoRA 訓練功能。
HunyuanVideo-I2V 的主要功能
HunyuanVideo-I2V是由騰訊開發的先進開源圖像轉影片生成框架,可將靜態圖像轉換為高品質的動態影片。它利用預訓練的多模態大型語言模型,採用Decoder-Only架構,能夠全面理解圖像和文字輸入。該框架支援高達720P的高解析度影片生成,影片長度最長可達129幀(5秒),並提供穩定和動態影片生成模式的選項。
統一的圖像和影片架構: 採用具有完整注意力機制的Transformer設計,支援圖像和影片的統一生成,實現圖像和文字資訊的無縫整合
可自定義的運動控制: 通過穩定性設定和流動偏移參數,提供對影片動態的靈活控制,允許用戶生成穩定或高度動態的影片
高解析度輸出: 能夠生成高達720P解析度且具有129幀的高品質影片,在整個生成過程中保持視覺一致性
LoRA訓練支援: 包括用於自定義特效的LoRA訓練功能,允許用戶訓練和應用特定的影片效果到他們的生成中
HunyuanVideo-I2V 的使用案例
數位內容創作: 使內容創作者能夠將靜態宣傳圖像轉換為引人入勝的影片內容,用於社交媒體和廣告
教育動畫: 將教育圖表和插圖轉換為動畫影片,以更好地理解和參與學習材料
特效製作: 允許電影製作人和影片製作人通過LoRA訓練創建自定義特效,以實現獨特的視覺轉場和動畫
藝術動畫: 幫助藝術家通過自動動畫將其靜態藝術作品栩栩如生,創建繪畫或插圖的動態版本
優點
開源可用性,並提供全面的文檔
高品質輸出,解析度高達720P
對影片動態和運動的靈活控制
支援通過LoRA訓練進行可自定義的效果
缺點
硬體要求高(至少60GB GPU記憶體)
僅限於Linux作業系統
最大影片長度限制為5秒(129幀)
如何使用 HunyuanVideo-I2V
1. 系統需求檢查: 確保您擁有:1) NVIDIA GPU,至少 60GB 記憶體(建議 80GB)用於 720p 影片生成 2) Linux 作業系統 3) CUDA 支援
2. 安裝依賴項: 按順序執行以下命令:
1. git clone https://github.com/Tencent-Hunyuan/HunyuanVideo-I2V
2. cd HunyuanVideo-I2V
3. conda create -n HunyuanVideo-I2V python==3.11.9
4. conda activate HunyuanVideo-I2V
5. conda install pytorch==2.4.0 torchvision==0.19.0 torchaudio==2.4.0 pytorch-cuda=12.4 -c pytorch -c nvidia
6. python -m pip install -r requirements.txt
7. python -m pip install ninja
8. python -m pip install git+https://github.com/Dao-AILab/[email protected]
9. python -m pip install xfuser==0.4.0
3. 下載預訓練模型: 按照 ckpts/README.md 中的說明下載所需的模型權重
4. 生成穩定影片: 執行命令:
python3 sample_image2video.py \
--model HYVideo-T/2 \
--prompt "[您的提示]" \
--i2v-mode \
--i2v-image-path [輸入圖像的路徑] \
--i2v-resolution 720p \
--i2v-stability \
--infer-steps 50 \
--video-length 129 \
--flow-reverse \
--flow-shift 7.0 \
--seed 0 \
--embedded-cfg-scale 6.0 \
--use-cpu-offload \
--save-path ./results
5. 生成動態影片: 與步驟 4 類似,但移除 --i2v-stability 標誌,並將 --flow-shift 更改為 17.0 以獲得更動態的運動
6. 可選:多 GPU 平行處理: 為了在多個 GPU 上實現更快的處理速度,請使用:
ALLOW_RESIZE_FOR_SP=1 torchrun --nproc_per_node=8 \
sample_image2video.py [與步驟 4 中相同的其他參數] \
--ulysses-degree 8 \
--ring-degree 1
7. 獲得最佳結果的提示: 1. 使用簡潔的提示
2. 包括主要對象、動作和可選的背景/相機角度
3. 避免過於詳細的提示
4. 使用 --i2v-stability 獲得穩定的影片
5. 根據需要調整 --flow-shift 在 7.0(穩定)和 17.0(動態)之間
HunyuanVideo-I2V 常見問題
生成 720p 影片的最低 GPU 記憶體需求為 60GB。建議使用 80GB 記憶體的 GPU 以獲得更好的生成品質。該模型需要支援 CUDA 的 NVIDIA GPU,並且已在 Linux 作業系統上進行了測試。











