TapNow 是由深圳添科智能科技有限公司打造的AI 原生商业视觉创作平台,定位为影视级 AI 视觉创作引擎,核心以节点式无限画布 + 导演级精准控制为架构,聚焦电商、营销、品牌宣传等商业视频创作场景,实现从剧本撰写、分镜设计到成片输出的全流程闭环创作。平台整合多模态 AI 生成模型,将专业影视制作流程产品化,大幅降低高质量商业视频的创作门槛,同时打造了全球首个 AI 视觉开源社区 TapTV,形成创作、分享、二创的生态闭环。自 2025 年 9 月正式发布后快速崛起,成为数十万专业创作者和品牌方的核心创作工具,被称为 “AI 时代的视觉工作站”。
官方网站:https://www.tapnow.ai
最近更新: 2026 年 3 月,检查日:2026 年 3 月 20 日。
开发信息
- 起源与创立
- TapNow 的开发主体为深圳添科智能科技有限公司,该公司成立于 2024 年 5 月 23 日,
- 核心研发团队由深耕 AdTech 和 AI 数据领域的香港 PressLogic 团队打造,团队拥有多年商业视觉与人工智能技术融合的研发经验,聚焦 AI 技术在商业内容创作领域的落地与商业化。
- 开发理念
- 核心开发理念为 “AI 赋能商业创作全流程闭环”,通过节点式工作流、多模型智能协同、自动化创作工具,让品牌方和创作者在单一画布上实现 “创意构思 – 内容生成 – 素材优化 – 多平台分发” 的一站式操作;
- 2026 年进一步深化“自动化 + 定制化” 理念,通过 Agentic 工作流实现标准化创作流程的一键执行,同时以开源社区 TapTV 为载体,实现创作经验的共享与商业资产的持续延展。
- 早期开发与发布
- 2024 年完成核心架构研发,聚焦节点式无限画布与商业视频生成的技术融合;
- 2025 年 9 月 1 日正式发布平台公测版,同期开放核心创作功能;2025 年末完成大规模推广,上线 TapTV 开源社区并实现月活用户数十万的突破;
- 2026 年进入功能精细化 + 生态商业化 迭代阶段。
- 开源与社区
- 打造全球首个AI 视觉开源社区 TapTV,作为 TapNow 的核心生态板块,不仅支持作品展示,还开放创作全流程解析(模型选择、参数调整、素材组合),支持用户对创作模板进行分享、编辑、二创与再分发,汇聚了 AI 视频领域顶尖创作者、导演、艺术家,形成覆盖 TVC 大片、动画、商业 MV、短电影等多品类的创作生态,2026 年 3 月社区模板库已突破百万级,新增 Nanobanana2 专属创作模板专区。
技术创新
TapNow 的核心竞争力在于商业创作场景的 AI 技术深度适配与可视化全流程工作流架构,核心技术创新围绕节点式编程、多模型协同、商业场景定制化展开,2026 年最新创新重点落地于 Agentic 自动化与精细化创作控制,同时实现创作与生态的深度融合:
-
节点式可视化创作工作流(Tapflow)
- 采用节点网络架构打造 Tapflow 核心工作流,用户通过拖拽、连接节点的输入输出,将脚本→分镜→图像→视频→音频→字幕全创作链路可视化串联,节点按功能模块化划分(生成类、编辑类、适配类、分发类),无需跨软件切换,单画布即可完成全流程创作,同时支持团队共享协作与创作逻辑的可视化梳理。
-
多模型智能协同与高保真生成
- 集成Sora 2、Gemini 2.5 Flash、VEO3、即梦 3.0、Nanobanana2等顶尖 AI 生成模型,平台可根据创作需求(如视频分辨率、风格、场景)自动选择最优模型组合;支持文生图 / 图生视频 / 关键帧生视频 / 涂鸦生视频等多模态输入,通过模型深度适配实现角色 / 场景一致性锁定,解决 AI 生成的人物、场景跳变问题,同时实现物理级渲染,让光影、布料、流体等效果遵循真实物理规律,达到影视级高保真动态效果。
-
导演级精准控制技术
- 针对专业创作需求打造精细化控制能力,支持推 / 拉 / 摇 / 移 / 跟等专业相机运镜调节,以及焦距、光圈、景深、焦点追踪的精准设置;
- 2026 年 3 月新增实时打光、焦点编辑功能,实现画面光影角度一键调整、局部焦点精准替换;支持视频 / 画面局部重绘 / 微调,无需对内容全量重生成,大幅降低试错成本。
-
AI Agentic 自动化工作流(2026 年核心创新)
- 打造自定义自动化创作链路,用户可将常用创作流程(如 “脚本生成→分镜设计→视频生成→多平台裁剪”)保存为专属 Agentic 工作流,实现一句话指令触发全流程执行,完美适配品牌方、MCN 机构的标准化内容批量生产需求,大幅提升创作效率。
-
商业场景定制化技术适配
- 电商视觉自动化生成:通过产品图智能解析,自动生成主图、场景图、模特试穿效果、动态广告视频,适配电商产品展示全需求;
- 多平台智能适配:内置智能裁剪与面部识别技术,可根据 TikTok、Instagram、亚马逊、国内主流电商 / 社交平台的尺寸要求,自动优化画面比例,导出即可直接发布;
- 本土化生成:支持按地区定制生成对应模特、文案、场景,适配不同区域的商业营销需求。
版本迭代中的重要技术更新
-
2025 年 9 月 公测版(核心功能首发)
- 发布Tapflow 节点式无限画布,实现脚本、分镜、视频、音频、字幕的全链路可视化创作,支持团队协作;
- 完成Kling 2.1 插件深度集成,实现 “一镜到底” 专业视频转场效果,填补 AI 视频转场的专业空白;
- 实现Gemini 2.5 Flash深度适配,新增分镜构图智能理解能力,平台可根据文字剧本自动生成符合影视构图规范的分镜;
- 上线基础商业创作模板,覆盖电商主图、短视频广告等核心场景,支持一键生成。
-
2025 年 10 月 模型扩展版
- 完成VEO3、即即梦 3.0等主流视频生成模型的接入,大幅提升 AI 视频生成的质量、稳定性与风格多样性;
- 优化角色 / 场景一致性锁定技术,通过参考图与参数双重锁定,解决跨镜头的人物、场景跳变问题;
- 新增一键拉片功能,支持参考片镜头语言、景别、运镜的自动拆解与分镜表生成;
- 升级电商创作功能,实现产品图的智能解析与多维度商用素材的批量生成。
-
2025 年 11 月 生态与工具优化版
- 正式上线全球首个 AI 视觉开源社区 TapTV,开放创作全流程解析、模板分享、二创编辑功能,实现创作生态闭环;
- 推出Tap 成就系统,支持游戏类应用成就同步,强化平台用户粘性与创作激励;
- 升级 UGC 内容工具,实现创作素材的快速采集、编辑与多平台分享,完善从创作到分发的链路;
- 新增Cinema Lab 电影感调色模块,支持镜头模拟、高级光影控制,实现影视级画面优化;
- 完成4K 商用无水印输出功能优化,支持 12 位色深输出,增强 HDR 和广色域支持,满足专业商业发布需求。
-
2026 年 1 月 精细化创作版
- 升级Cinema Lab 调色模块,强化光影物理模拟效果,实现水面光影流动、烟雾自然消散等真实物理交互;
- 优化帧级特征稳定技术,解决长镜头中人物面部、服装细节的跳变问题,实现原生 1080P/4K 高帧率输出;
- 新增短剧 / 小说推文专属创作工具,实现文案自动拆解、镜头自动匹配,适配内容出海需求。
-
2026 年 2 月 Agentic 自动化版
- 正式推出AI Agentic 工作流,支持自定义创作流程保存、自然语言指令触发,实现商业内容批量自动化生成;
- 上线开发者 API 深度对接功能,支持将 TapNow 的 AI 生成能力集成至第三方 SaaS 系统、小程序;
- 优化 TapTV 社区协作功能,支持团队共享创作工作流,实现多人实时协同创作。
-
2026 年 3 月 最新模型适配版
- 与 Google 同步上线Nanobanana2 模型,实现更优的空间推理能力与细节渲染效果,新增废片拯救、信息拆解等专属创作模板;
- 新增实时打光、焦点编辑精细化功能,支持画面光影角度一键调整、局部焦点指哪改哪;
- 优化 NVIDIA Upscale 视频超分技术,实现低分辨率素材的高清优化,提升素材复用效率;
- TapTV 社区模板库突破百万级,上线品牌商业大片专属模板专区(基于汤臣倍健等品牌创作流程打造)。