




使用视频场景检测 API 的 3 个步骤
通过简单的 API 工作流将自动场景检测集成到您的产品中。
Python
1from vidio import VidioClient
2import os
3from dotenv import load_dotenv
4
5load_dotenv()
6
7client = VidioClient(api_key=os.getenv("VIDIO_API_KEY"))
8
9# 1. Upload inputs
10u1 = client.upload("image1.jpg")
11u2 = client.upload("image2.jpg")
12u3 = client.upload("image3.jpg")
13
14# 2. Create highlight reel
15job = client.create_highlight_reel(
16 input_keys=[u1.input_key, u2.input_key, u3.input_key],
17 video_category="travel",
18 output_length=30,
19 aspect_ratio="portrait"
20)
21
22# 3. Wait for processing
23job = client.wait_for_job(job.job_id)
24
25# 4. Render output
26job = client.render(job.job_id)
27job = client.wait_for_render(job.job_id)
28
29print(job.output_url)场景检测 API
为开发者简化的视频场景检测
通过一个为简洁、速度和准确性而构建的 API,将自动化视频场景检测集成到您的应用中。
- 简单集成
- 通过直接的 API 工作流和清晰的开发者体验,将场景检测添加到您的产品中。
- 快速分析
- 使用优化的媒体基础设施和 AI 流水线,实现大规模且快速的场景边界检测。
- 准确的结果
- 返回可靠的场景分割数据,可用于驱动编辑、搜索、摘要和内容索引等工作流。

使用 AI 构建更智能的场景检测工作流
- 通过文本查询搜索场景
- 使用基于文本的查询和 API 返回的场景元数据以编程方式查找相关场景。
- 支持非剧本化素材
- 在非剧本化视频(如体育、Vlog、活动和原始素材)中检测场景变化,无需依赖文字记录。
- 对话感知分段
- 对于对话密集的内容,将场景边界与语音感知分段结合,以实现更精确的下游工作流。
- 场景时长控制
- 以编程方式配置最小或目标场景时长,以符合您的产品工作流和节奏需求。
- 面向下游工作流的场景输出
- 将检测到的场景以结构化数据或可直接用于编辑、搜索、剪辑和自动化工作流的资产返回。
- 支持批量处理
- 使用为自动化媒体管道和生产工作负载构建的 API 大规模处理多个视频。
常见问题
- 视频场景检测 API 如何工作?
该 API 分析视频内容并自动检测场景边界,返回可用于编辑、搜索、剪辑和其他工作流的结构化结果。
- 支持哪些视频格式?
支持的格式包括常见的视频类型,如 MP4 和 MOV,具体支持范围取决于您的工作流。
- 文件大小或视频时长是否有限制?
限制取决于您的订阅计划和工作流配置。例如,视频可能会受到最大文件大小(例如 3GB)的限制。
- 我可以在决定之前试用该 API 吗?
是的,是否有试用或免费访问选项取决于您的入职情况或定价计划。
- 我需要安装任何软件吗?
不需要。该 API 通过编程方式访问,因此无需安装编辑软件即可在您的产品中使用场景检测。
受全球内容创作者喜爱。
评论已翻译。









