扫一扫分享
LibTV是哩布哩布AI(LiblibAI)在2026年3月推出的一站式AI视频创作平台。LiblibAI你可能不陌生——它是国内最大的AI模型与创作社区,之前主攻图像生成,孵化了超过2000万AI创作者。LibTV是他们从图像迈入视频的拳头产品。
说人话就是:你可以在一个网站上完成从写剧本、设计角色、生成分镜图、图转视频、加音乐到最终剪辑的全流程,不用在ChatGPT、Midjourney、可灵、剪映之间来回切。
| 功能模块 | 能干什么 | 有啥特别的 |
|---|---|---|
| 剧本生成 | 上传一个故事大纲或一句话创意,AI帮你写出完整脚本 | 支持三种生成模式:纯文本生成、参考视频生成、角色图生成 |
| 角色三视图 | 生成一个角色多个角度(正面、侧面、背面)的设定图 | 保持角色一致性,后续生成的画面里角色不会长变形 |
| 多机位九宫格/25宫格 | 一次生成9个或25个不同机位、景别的关键帧 | 行业独家功能,生成后可以一键切分,每一张单独用 |
| 剧情推演四宫格 | 基于一张图,AI给出4种可能的剧情走向画面 | 帮你快速探索叙事可能性 |
| 画面推演(3秒后/5秒前) | 预测下一秒画面长什么样,或者倒推上一秒 | 辅助做视频过渡和接续 |
| 电影级灯光控制 | 24种主光位、9种轮廓光预设,还能用手动三维坐标球调光 | 专业影视级别的打光控制 |
| 批量生成分镜 | 脚本定好后点一下,所有分镜图一次生成 | 不用一个镜头一个镜头写提示词 |
| 批量视频生成 | 所有分镜图一键转视频片段 | 每个镜头时长、运镜方式可分别控制 |
| 视频合成与剪辑 | 画布内直接剪辑多个视频片段,加BGM、配音 | 有时间轴编辑面板,不用跳转第三方 |
| 音频生成 | 文字生成背景音乐、配音 | 集成Mureka、Eleven等音频模型 |
| OpenClaw自动挡拍片 | 给AI Agent一句话,它自己调用所有功能完成全片 | 全自动,返回成片+可编辑的画布项目 |
1. “无限画布+节点工作流”——创作像搭积木
别的AI视频工具大多是“输一句话出一段视频”,像黑箱子,你根本不知道它中间怎么想的。LibTV不是这样。
你在一个可以无限延伸的画布上,把“文本节点”“图片节点”“视频节点”“音频节点”“脚本节点”像乐高一样连起来。左边写剧本,中间出分镜图,右边转视频,底部加音乐——整个创作过程清清楚楚铺在画布上,随时可以修改中间任何一个环节,改完了后面的自动更新。
2. 20多项独家专业功能,解决“抽盲盒”痛点
这是LibTV最硬的地方。用过AI视频的人都知道“抽卡”的痛——同一个提示词生10次,10次都不一样,想要的效果永远抽不到。
LibTV一次性上了20多项功能,直接把“抽盲盒”变成了“精准控制”:
想要角色稳定?用“角色三视图”,每张图里角色都长一个样
想要多机位?用“九宫格”,一次出9种角度
想要光影质感?用“灯光控制”,24种光位随便调
想知道剧情走向?用“剧情推演”,AI给你4种选择
3. 人类和AI Agent都能用,首开先河
LibTV是第一个同时面向人和AI Agent设计的视频创作平台。什么意思?
你可以亲自上手,在画布上一个节点一个节点地搭。也可以让你的“龙虾”(OpenClaw等AI Agent)装上LibTV的Skill,然后对它说“帮我做一个龟兔赛跑的短片”,它自己调用所有功能,几分钟后把成片和可编辑的画布链接甩给你。
4. 集成市面上顶级的模型
LibTV自己不训练模型,而是把最好的模型都接进来:图像用Seedream、Midjourney V7,视频用可灵3.0、Seedance 2.0、HappyHorse 1.0(阿里出品),音频用Mureka。你在画布里做图的时候,可以随时切换模型,同一个提示词用不同模型跑一遍,看哪个效果更好。
5. 定价相当激进,量大管饱
对比市面上其他平台,LibTV的定价便宜得有点离谱。官方说法是:同等算力消耗下,成本比竞品低90%以上。会员折扣最低到3.5折(五一活动价),订阅还送可灵视频生成额度。
商业广告制作:做产品宣传片、TVC。用灯光控制、多机位功能,快速出高质量素材。实测有人用LibTV做了手表广告demo,3小时搞定。
影视剧本与分镜预演:导演、编剧用脚本节点快速生成分镜图和动态预演,提前可视化想法,降低沟通成本。
AI漫剧/短剧创作:这是目前LibTV上最热门的用法。漫剧需要大量连贯的、角色一致的画面,用角色三视图+批量生成分镜,效率翻倍。
自媒体内容:做短视频、解说类内容、音乐MV。有人直接用OpenClaw自动生成了一整条MV。
电商商品展示:给产品生成360度展示视频、多场景应用视频。参考图导入后,用多角度功能保持产品一致性。
学习与教学:老师用LibTV做教学动画、知识点可视化素材;学生用来做课程项目。
Q:LibTV和LiblibAI什么关系?
A:LiblibAI是母公司,之前主要做图像模型社区和星流(设计Agent)。LibTV是它们进军视频创作的拳头产品,2026年3月新上线的。
Q:我完全不会视频制作,能用吗?
A:看你想用哪种方式。如果亲自上手,需要一点学习成本——毕竟节点工作流本身是个专业工具,不是“输一句话出视频”那种傻瓜式。但官方有详细教程,而且画布上自带新手指南。如果觉得麻烦,直接用OpenClaw模式:你只需要说一句话,AI Agent帮你干完所有事儿。
Q:OpenClaw是什么?怎么用?
A:OpenClaw是AI Agent(俗称“龙虾”),可以理解为一个能主动干活的AI程序。让它装上LibTV的Skill(安装命令:npx skills add libtv-labs/libtv-skills),再配上LibTV的Access Key,然后直接跟它说“帮我做一个XX主题的短片”,它就自动完成剧本→分镜→视频→剪辑全流程。
Q:画布上的节点怎么玩?能给个例子吗?
A:以做产品宣传片为例:
双击画布新建「脚本节点」,输入剧本或故事大纲
点击“生成分镜”,系统自动把脚本转成6-8张分镜图
选中最满意的分镜图,点击“批量生成视频”,每张图转成5秒视频片段
把所有视频片段连到一个“视频合成”节点,调顺序、裁剪、加BGM
导出
全程不需要敲复杂的提示词,系统帮你填好了。
Q:LibTV接入了哪些模型?
A:图像模型:Seedream 5.0、Midjourney V7;视频模型:可灵3.0、Seedance 2.0、HappyHorse 1.0(阿里最新模型,LibTV首发)、Wan 2.6;音频模型:Mureka、Eleven。模型列表还在持续增加。
Q:收费怎么算?
A:按积分消耗。不同模型、不同分辨率消耗不一样。
Q:生成的视频有版权问题吗?
A:你用LibTV生成的视频,版权归你。但注意:如果你用的素材(参考图、音乐等)本身有版权问题,需要你自己处理。平台不背这个锅。
Q:新手从哪里开始?
A:去官网 https://www.liblib.tv 注册。进画布后系统会自动弹出新手指南。或者直接看官方教程,跟着做一个产品宣传片,半小时能摸清楚基本操作。
方式一:人类亲自上手
打开官网,注册登录
点击“开始创作”,进入无限画布
跟着新手指南或教程走一遍:建一个脚本节点,生成分镜,批量转视频,合成导出
过程中多用“/”调出隐藏功能(九宫格、灯光控制、剧情推演等)
方式二:让AI Agent帮你干
在LibTV个人中心获取Access Key
给你的OpenClaw装上LibTV Skill:npx skills add libtv-labs/libtv-skills
把Access Key配置给龙虾
跟它说一句话:例如“帮我做一个30秒的咖啡机广告片,突出清晨氛围”
等几分钟,它把成片和可编辑的画布项目链接发给你
马上访问,点击进入
仅供个人学习参考/导航指引使用,具体请以第三方网站说明为准,本站不提供任何专业建议。如果地址失效或描述有误,请联系站长反馈~感谢您的理解与支持!
手机扫一扫预览