AI 视频生成全流程系统 | 通过 6 个阶段将用户想法转化为完整视频
📖 项目介绍
AIGC-Claw 是一个基于 OpenClaw 平台的 AI 视频生成系统,通过 6 个阶段将用户的创意想法转化为完整的视频作品。
系统模拟了影视制作的完整流程:从剧本创作、角色设计、分镜规划,到参考图生成、视频生成,最后进行后期剪辑。每个阶段完成后都会展示产物,等待用户确认后继续下一阶段,确保用户对最终视频有完整的把控。
AIGC-Claw 支持多种 AI 模型接入,包括阿里云 DashScope、字节跳动 Seedream、即梦 Jimeng、快手可灵 Kling、DeepSeek、OpenAI 和 Google Gemini,可根据需求灵活选择。
📺 AIGC-Claw
Web前端界面
微信交互
飞书交互
💥 News
2026/3/27: 🚀 AIGC-Claw 正式发布,支持 6 阶段视频生成全流程
✨ 功能特性
| 阶段 | 功能 | 描述 |
|---|---|---|
| 1 | 🎭 剧本生成 | 输入创意自动生成结构化剧本,支持电影(4幕)和微电影(1幕)模式 |
| 2 | 👤 角色设计 | AI 生成角色设定图(四视图)和场景背景图 |
| 3 | 🎬 分镜设计 | 智能拆分镜头脚本,设计镜头语言 |
| 4 | 🖼️ 参考图生成 | 为每个镜头生成高精度参考图 |
| 5 | 🎥 视频生成 | 图生视频 / 文生视频 |
| 6 | ✂️ 后期剪辑 | 自动拼接视频片段,添加转场效果 |
🌟 核心能力
- 多模型支持:集成阿里云 DashScope、字节跳动 Seedream、即梦 Jimeng、快手可灵 Kling、DeepSeek、OpenAI、Google Gemini
- Agent 架构:基于 OpenClaw 平台的可调用 Skill,全流程自动化
- 交互式确认:每个阶段完成后展示产物,等待用户确认后继续
- 临时工作台:支持单独调用 LLM、VLM、文生图、图生图、视频生成
🛠️ 技术栈
🚀 快速开始
方式一:手动安装
# 1. 克隆项目 git clone https://github.com/HITsz-TMG/AIGC-Claw.git cd AIGC-Claw # 2. 配置并启动后端 cd aigc-director/aigc-claw/backend # 创建虚拟环境并安装依赖 python -m venv venv source venv/bin/activate # Linux/Mac pip install -r requirements.txt # 配置环境变量 cp .env.example .env # 编辑 .env 填入 API Key # 启动后端 python api_server.py # 服务运行在 http://localhost:8000
# 3. 配置并启动前端(新终端) cd aigc-director/aigc-claw/frontend npm install npm run build npm start # 访问 http://localhost:3000
方式二:OpenClaw 自动配置
向 OpenClaw 发送消息:
帮我克隆git仓库:https://github.com/HITsz-TMG/AIGC-Claw.git
然后把AIGC-Claw中的aigc-director文件夹递归复制到workspace/skills中,用作AIGC相关的skill
使用时建议指明 "使用 aigc-director":
你用aigc-director来帮我生成一个视频,内容是"一条狗的使命"
📊 工作流
┌─────────────┐ ┌─────────────┐ ┌─────────────┐ ┌─────────────┐ ┌─────────────┐ ┌─────────────┐
│ 剧本生成 │ → │ 角色设计 │ → │ 分镜设计 │ → │ 参考图生成 │ → │ 视频生成 │ → │ 后期剪辑 │
│ Script │ │ Character │ │ Storyboard │ │ Reference │ │ Video │ │ Post │
└─────────────┘ └─────────────┘ └─────────────┘ └─────────────┘ └─────────────┘ └─────────────┘
↓ ↓ ↓ ↓ ↓ ↓
🎭 剧本产出 👤 角色/场景 🎬 分镜列表 🖼️ 参考图 🎥 视频片段 🎬 最终成片
📁 项目结构
AIGC-Claw/
├── aigc-director/ # 🎯 OpenClaw Agent Skill
│ ├── SKILL.md # Agent 工作流规则定义
│ ├── CLAUDE.md # Claude Code 开发指引
│ ├── README.md # 项目说明(本文件)
│ ├── references/ # API 参考文档
│ │ ├── init_project/ # 项目初始化指南
│ │ ├── run_project/ # 服务启动指南
│ │ ├── workflow/ # 六阶段工作流 API
│ │ ├── sandbox/ # 临时工作台 API
│ │ └── send_message/ # 消息推送集成
│ └── aigc-claw/ # 💻 实际代码项目
│ ├── backend/ # Python FastAPI 后端
│ │ ├── api_server.py # API 入口
│ │ ├── core/ # 核心模块
│ │ │ ├── orchestrator.py # 工作流引擎
│ │ │ └── agents/ # 6 个阶段 Agent
│ │ └── tool/ # 外部 API 客户端
│ └── frontend/ # Next.js 前端
├── FilmAgent/ # 🎬 另一个 Agent(待开发)
└── README.md # 主 README
🔧 配置说明
环境要求
- Python: 3.9+
- Node.js: 18+
- npm: 9+
后端环境变量
在 aigc-claw/backend/.env 中配置:
# LLM 配置 LLM_MODEL=qwen3.5-plus VLM_MODEL=qwen-vl-plus # 图像生成 IMAGE_T2I_MODEL=doubao-seedream-5-0-260128 IMAGE_IT2I_MODEL=doubao-seedream-5-0-260128 # 视频生成 VIDEO_MODEL=wan2.6-i2v-flash VIDEO_RATIO=16:9 # API Keys DASHSCOPE_API_KEY=your_key ARK_API_KEY=your_key DEEPSEEK_API_KEY=your_key
可用模型
| 类型 | 模型 |
|---|---|
| LLM | qwen3.5-plus, deepseek-chat, gpt-4o, gemini-2.5-flash |
| VLM | qwen-vl-plus, gemini-2.5-flash-image |
| 文生图 | doubao-seedream-5-0, jimeng_t2i_v40, wan2.6-t2i |
| 图生图 | doubao-seedream-5-0, jimeng_t2i_v40, wan2.6-image |
| 视频生成 | wan2.6-i2v-flash, kling-v3, jimeng_ti2v_v30_pro |
📚 文档
🤝 贡献
欢迎提交 Issue 和 Pull Request!
- Fork 本仓库
- 创建特性分支 (
git checkout -b feature/amazing-feature) - 提交更改 (
git commit -m 'Add amazing feature') - 推送分支 (
git push origin feature/amazing-feature) - 打开 Pull Request
📄 许可证
MIT License - 查看 LICENSE 了解详情