横屏视频素材转化为竖屏视频素材的方法与流程

文档序号:31458049发布日期:2022-09-07 15:10阅读:186来源:国知局
导航: X技术> 最新专利> 计算;推算;计数设备的制造及其应用技术
横屏视频素材转化为竖屏视频素材的方法与流程

1.本技术涉及视频处理技术领域,特别是涉及一种横屏视频素材转化为竖屏视频素材的方法。


背景技术:

2.随着手机、平板电脑等移动终端的普及,竖屏视频素材的需求量越来越大。但摄像机、单反相机拍摄的视频素材都是16:9宽高比的横屏视频素材,如何高效率地将横屏视频素材转化为竖屏视频素材,提升用户在移动终端的观看体验,成为视频处理领域和视频剪辑领域的迫切需求。
3.传统方案一般是通过视频编辑器来实现横屏视频素材转化为竖屏视频素材。
4.现有视频编辑器中横转竖功能基本是采用手工编辑,直接对视频素材的画面进行旋转、或者在画面中央进行裁剪。这会导致视频素材的画面主体内容缺失,最终得到的竖屏视频素材无法保留视频全部主体信息。


技术实现要素:

5.基于此,有必要针对传统横屏视频素材转化为竖屏视频素材的方法会导致视频素材的画面主体内容缺失,最终得到的竖屏视频素材无法保留视频全部主体信息的问题,提供一种横屏视频素材转化为竖屏视频素材的方法。
6.本技术提供一种横屏视频素材转化为竖屏视频素材的方法,所述方法包括:
7.获取横屏视频素材,识别横屏视频素材中的至少一个转场时间节点;
8.依据至少一个转场时间节点将横屏视频素材分割为多个短横屏视频素材;
9.在每一个短横屏视频素材中,基于运动目标显著性的主体识别算法识别短横屏视频素材中的画面主体;
10.对每一个短横屏视频素材中的画面主体进行逐帧跟踪,
11.依据每一个短横屏视频素材中的画面主体的逐帧跟踪结果生成短竖屏视频素材,得到多个短竖屏视频素材;
12.将所有短竖屏视频素材拼接为一个完整的竖屏视频素材。
13.本技术涉及一种横屏视频素材转化为竖屏视频素材的方法,通过识别横屏视频素材中的至少一个转场时间节点,可以实现自动定位横屏视频素材中的各个转场位置,通过基于运动目标显著性的主体识别算法识别短横屏视频素材中的画面主体,可以实现结合运动信息自动筛选出显著性的画面主体,通过对画面主体逐帧进行长时跟踪,可以保证画面主体在运动出画面后,且在二次进入时,仍然能再次识别并跟踪上该画面主体,最终依据跟踪结果生成短竖屏视频素材,将所有短竖屏视频素材拼接为一个完整的竖屏视频素材,使得最终完整的竖屏视频素材可以保留横屏视频素材中的全部主体信息,不会丢失任何主体信息。
附图说明
14.图1为本技术一实施例提供的横屏视频素材转化为竖屏视频素材的方法的流程示意图。
15.图2为本技术一实施例提供的横屏视频素材中画面主体,预设搜索半径,和局部搜索区域之间的位置关系示意图。
16.图3为本技术一实施例提供的横屏视频素材中画面主体,不同的局部子搜索区域的选取示意图。
具体实施方式
17.为了使本技术的目的.技术方案及优点更加清楚明白,以下结合附图及实施例,对本技术进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本技术,并不用于限定本技术。
18.本技术提供一种横屏视频素材转化为竖屏视频素材的方法。需要说明的是,本技术提供的横屏视频素材转化为竖屏视频素材的方法应用于任何拍摄设备拍摄的横屏视频素材。
19.此外,本技术提供的横屏视频素材转化为竖屏视频素材的方法不限制其执行主体。可选地,本技术提供的横屏视频素材转化为竖屏视频素材的方法的执行主体可以为一种横转竖处理终端。
20.如图1所示,在本技术的一实施例中,所述方法包括如下s100至s600:
21.s100,获取横屏视频素材,识别横屏视频素材中的至少一个转场时间节点。
22.具体地,每个待处理的横屏视频素材可能由不同镜头拍摄的视频画面短横屏视频素材拼接而成,短横屏视频素材之间的画面内容是不连续的,画面主体也可能会随之变化。例如,拍摄一个视频,可能拍摄者使用了5个不同机位架设的5个不同的摄像机,那么最终成片的横屏视频素材就会由这5个不同的摄像机拍摄的视频画面穿插拼接而成。或者,使用同一个摄像机拍摄,但是先后使用了5个不同的镜头。
23.因此本实施例首先需要对横屏视频素材中转场的位置进行识别,即转场时间节点的识别,这样才能把横屏视频素材分割为多个短横屏视频素材。
24.s200,依据至少一个转场时间节点将横屏视频素材分割为多个短横屏视频素材。
25.具体地,将横屏视频素材分割为多个短横屏视频素材后,可以保证每个短横屏视频素材内的画面是连续的。
26.s300,在每一个短横屏视频素材中,基于运动目标显著性的主体识别算法识别短横屏视频素材中的画面主体。
27.具体地,画面主体是展现画面最重要的元素,画面主体不限于人物,动物,植物,也可以是其他任何带来视觉显著观感的目标。可选地,在本技术中,画面主体的形式可以为一个矩形框以及矩形框内展示的视频画面。
28.s400,对每一个短横屏视频素材中的画面主体进行逐帧跟踪。
29.具体地,本步骤的逐帧跟踪可以保证画面主体即便运动出画面,然后再二次进入时,本方法也能重新跟踪上画面主体。
30.s500,依据每一个短横屏视频素材中的画面主体的逐帧跟踪结果生成短竖屏视频
素材,得到多个短竖屏视频素材。
31.具体地,本步骤相当于提取每一个短横屏视频素材中的画面主体,然后将短横屏视频素材中的画面主体转化为短竖屏视频素材。
32.s600,将所有短竖屏视频素材拼接为一个完整的竖屏视频素材。
33.具体地,拼接短竖屏视频素材时,也要依照时间先后顺序进行拼接。
34.本实施例中,通过识别横屏视频素材中的至少一个转场时间节点,可以实现自动定位横屏视频素材中的各个转场位置,通过基于运动目标显著性的主体识别算法识别短横屏视频素材中的画面主体,可以实现结合运动信息自动筛选出显著性的画面主体,通过对画面主体逐帧进行长时跟踪,可以保证画面主体在运动出画面后,且在二次进入时,仍然能再次识别并跟踪上该画面主体,最终依据跟踪结果生成短竖屏视频素材,将所有短竖屏视频素材拼接为一个完整的竖屏视频素材,使得最终完整的竖屏视频素材可以保留横屏视频素材中的全部主体信息,不会丢失任何主体信息。
35.在本技术的一实施例中,所述s100包括如下s110至s145:
36.s110,解析横屏视频素材,得到多个视频帧。
37.具体地,一段横屏视频素材是由多个视频帧构成的。
38.s121,对每两个连续的视频帧进行差分计算,得到每两个连续的视频帧的差分图像。
39.具体地,差分计算,就是两个视频帧中的每一个处于同一位置的像素的像素值两两相减,得到像素差值,所有像素点的像素差值构成了一个新的视频图像帧,即差分图像。差分图像可以显示两个视频帧的相似部分,并突出显示两个视频帧的变化部分。差分图像能够检测出一个运动目标的轮廓。
40.例如,视频帧a和视频帧b是两个连续的视频帧,都各有10个像素点(为了方便说明,减少了像素点数量,实际视频帧的像素点数量远远大于10个),将视频帧a中的像素点1和视频帧b中的像素点1进行像素值的相减,将视频帧a中的像素点2和视频帧b中的像素点2进行像素值的相减......直到将视频帧a中的像素点10和视频帧b中的像素点10进行像素值的相减,最终得到10个像素差值,这10个像素差值构成了一幅图像,这幅图像就是差分图像。
41.s122,计算每一个差分图像中所有像素点的像素值之和,得到每一个差分图像的像素和。
42.具体地,对每一个差分图像而言,将每一个像素点的像素值相加,得到差分图像的像素和。
43.s123,对每两个相邻的差分图像的像素和进行差分计算,将差分计算得到的差分值的绝对值定义为二次差分和。
44.具体地,例如,横屏视频素材有16个视频帧,将视频帧1和视频帧2做差分计算,得到差分图像a,将视频帧2和视频帧3做差分计算,得到差分图像b,那么差分图像a和差分图像b就是两个相邻的差分图像。
45.s131,选取一个二次差分和,判断该二次差分和是否大于预设二次差分和阈值。
46.具体地,若该二次差分和小于或等于预设二次差分和阈值,则将该二次差分和舍弃。
47.s132,若该二次差分和大于预设二次差分和阈值,则将该二次差分和与所述二次差分和对应的时间节点作为候选转场时间节点。
48.具体地,例如,差分图像a和差分图像b的二次差分和大于预设二次差分和阈值,则将与差分图像a和差分图像b的二次差分和对应的时间节点作为候选转场时间节点。
49.与差分图像a和差分图像b的二次差分和对应的时间节点定义的方式是:
50.先比较差分图像a的像素和,与差分图像b的像素和的大小,如果差分图像a的像素和较大,将视频帧1和视频帧2中的视频帧2作为与差分图像a和差分图像b的二次差分和对应的时间节点,即视频帧2的时间节点为候选转场时间节点。
51.如果差分图像b的像素和较大,将视频帧2和视频帧3中的视频3作为与差分图像a和差分图像b的二次差分和对应的时间节点,即视频帧3的时间节点为候选转场时间节点。
52.换言之,一方面是从差分图像的像素和较大的两个视频帧中选,另一方面是从两个视频帧中时间更靠后的视频帧中选。
53.s133,返回所述s131,直直至所有二次差分和均进行过选取,得到多个候选转场时间节点。
54.具体地,得到的转场时间节点不会是第一个视频帧的时间节点,但是可能是最后一个视频帧的时间节点。
55.s141,依照时间先后顺序,将多个候选转场时间节点排序。
56.s142,以第一个候选转场时间节点作为时间锚点。
57.s143,在时间锚点后选取预设时间段。
58.s144,在时间锚点后的预设时间段内搜寻所有候选转场时间节点,选取二次差分和最大的候选转场时间节点作为转场时间节点。
59.s145,将该转场时间节点作为新的时间锚点,返回s143,直至得到所有转场时间节点。
60.下面解释下s141至s144的工作原理,例如,我们得到5个候选转场时间节点,按时间先后顺序排布后,将候选转场时间节点1作为时间锚点,预设时间段选为2秒,那么搜寻转场时间节点1后2秒内的所有候选转场时间节点,找到有候选转场时间节点2和候选转场时间节点3,候选转场时间节点3的二次差分和大于候选转场时间节点2的二次差分和,因此将后续转场时间节点3作为第一个转场时间节点。
61.这是因为二次差分和越大,代表候选转场时间节点产生的画面内容变化程度越大。
62.后续将后续转场时间节点3作为新的时间锚点,继续搜寻搜寻转场时间节点3后2秒内的所有候选转场时间节点,重复上述步骤,直到得出所有转场时间节点。
63.综上所述,本实施例介绍了一种识别转场时间节点的实施方式,是采用二次差分来识别转场时间节点的方式。第一次差分是s121,第二次差分是s123。
64.采用二次差分方法能够有效过滤镜头的快速运动。因为拍摄的时候如果相机有快速运动,会导致画面模糊拖尾等现象,采用二次差分方法能够过滤掉这种模糊拖尾画面。
65.在时间锚点后选取预设时间段时,预设时间段可以设置为1秒,也可以设置为1.5秒,也可以设置为2秒。
66.在本技术的一实施例中,在所述s131之前,所述s110还包括:
67.s124,计算所有二次差分和的平均值,得到二次差分和平均值。
68.具体地,本实施例介绍了二次差分和阈值的一种设置的实施方式,首先计算所有二次差分和的平均值。
69.s125,获取预设阈值倍率,将预设阈值倍率和二次差分和平均值的积作为预设二次差分和阈值。
70.具体地,阈值倍率可以设置为1.2。
71.在本技术的一实施例中,所述s100包括如下s150至s180:
72.s150,设定预设时间长度。
73.s160,采用预设时间长度的滑动窗遍历横屏时间素材,将横屏时间素材分解为多个视频片段。
74.s170,将每一个视频片段输入视频分类模型中,运行视频分类模型并判断每一个视频片段是否为存在转场的视频片段,以得到多个存在转场的视频片段。
75.s180,提取每一个存在转场的视频片段中的转场时间节点。
76.具体地,本实施例介绍的是另一种识别转场时间节点的方式,采用视频分类模型来实现的方式。视频分类模型是一种深度学习模型,需要提前训练。
77.训练的具体方法是,通过抓取行业内熟悉的转场特效片段,将其标注为1,抓取相同数量级的非转场片段,将其标注为0,然后将标注后的转场特效片段和非转场特效片段共同输入至视频分类模型,并以此作为训练数据训练视频分类模型。训练后的视频分类模型获得了可以识别转场片段的能力。
78.可选地,视频分类模型采用tsm、slowfast、x3d中的一种或多种作为视频分类网络框架,视频分类模型采用交叉熵作为网络损失函数。当网络损失函数下降到预设网络损失值以下,训练结束。
79.在s150中,首先设定滑动窗的预设时间长度。所述预设时间长度可以为16帧。
80.在本技术一实施例中,s160包括:
81.s161,采用第一预设时间长度为k的滑动窗截取横屏时间素材中第1帧至第k帧,将第1帧至第k帧作为第一视频片段。
82.s162,将滑动窗后移第二预设时间长度,所述第二预设长度为l,将第w-l帧至第w+l帧作为第二视频片段;w为上一个视频片段最后一帧的序号;l小于k。
83.s163,反复执行s162,直至遍历横屏时间素材,得到多个视频片段。
84.可以理解,本实施例中,每次滑动窗后移l的预设时间长度,使得截取的相邻两个视频片段虽然存在重叠片段,但是这样可以防止丢失关键片段。
85.例如,k取16,l取8,那么第一视频片段就是第1帧至第16帧,第二视频片段就是第8帧至第24帧。相比于滑动窗直接后移第一预设时间长度这种方式,滑动窗直接后移更小的第二预设时间长度,显然可以最大程度的防止丢失关键片段。
86.在本技术的一实施例中,所述s180包括如下s181至s186:
87.s181,选取一个存在转场的视频片段。
88.s182,提取存在转场的视频片段中的每一个视频帧。
89.s183,计算存在转场的视频片段中的每一个视频帧的颜色直方图。
90.s184,计算每相邻两个视频帧的颜色直方图之间的帧间距离。
91.s185,选取与帧间距离最大的视频帧对应的时间节点作为该存在转场的视频片段中的转场时间节点。
92.s186,返回s181,直至得到每一个存在转场的视频片段中的转场时间节点。
93.具体地,上一实施例只是识别存在转场的视频片段,但是尚未找到转场片段内的转场时间节点。本实施例介绍的则是根据颜色直方图的帧间距离来找到转场片段内的转场时间节点的方法。
94.颜色直方图反映了图像中颜色的组成分布,即出现了哪些颜色以及各种颜色出现的概率,因此通过计算相邻两个视频帧的颜色直方图之间的帧间距离,可以得知相邻两个视频帧的色彩变化程度。帧间距离越大,相邻两个视频帧的色彩变化程度越大。帧间距离最大的视频帧对应的时间节点,可以定义为转场时间节点。
95.在本技术的一实施例中,所述s200包括:
96.s210,将所有转场时间节点按时间先后顺序排序。
97.s220,选取第一个转场时间节点,截取横屏视频素材的起始时间节点和第一个转场时间节点之间的所有视频帧,作为一个短横屏视频素材。
98.s230,选取最后一个转场时间节点,截取最后一个转场时间节点和横屏视频素材的末尾时间节点之间的所有视频帧,作为一个短横屏视频素材。
99.s240,截取每两个相邻转场时间节点之间的所有视频帧,作为一个短横屏视频素材。
100.s250,输出所有的短横屏视频素材。
101.具体地,当转场时间节点只有一个时,那么它既是第一个转场时间节点,又是最后一个转场时间节点,那么最终执行完步骤后,会得到两个短横屏视频素材。
102.在本技术的一实施例中,所述s300包括如下s310至s390:
103.s310,选取一个短横屏视频素材。
104.s321,选取短横屏视频素材中的第一帧图像。
105.s322,对第一帧图像和第二帧图像基于flownet进行光流预测,得到第一帧图像和第二帧图像的光流图像。
106.具体地,光流图像需要前后相邻的两帧图像来得到,本技术只获取第一帧图像和第二帧图像的光流图像,依据第一帧图像和第二帧图像的光流图像来找到画面主体,然后通过后续s400对画面主体进行跟踪即可,并不需要对所有帧图像均进行光流预测,因此方法比较简单,不需要复杂的计算,工作效率高。
107.光流图像中的每个像素点都有一个x方向和y方向的位移。
108.s323,对第一帧图像和第二帧图像的光流图像中的每一个像素点计算x方向绝对值和y方向绝对值之和,得到光流绝对值和。
109.具体地,每一个像素点具有2个信息,一个是x方向绝对值(即x方向位移绝对值),其表达了像素点在x方向上的运动速度,也可以理解为像素点在x方向上的运动趋势。另一个是y方向绝对值(即y方向位移绝对值),其表达了像素点在y方向上的运动速度,也可以理解为像素点在y方向上的运动趋势。
110.s324,对光流绝对值和进行二值化,并依据光流绝对值和的二值化结果在第一帧图像和第二帧图像的光流图像中划分出多个光流连通域,得到光流连通域的集合{f1,
f2,

,fi},其中,i为光流连通域的序号。
111.具体地,光流绝对值和的二值化的一种实施方式是,将每一个像素点的光流绝对值和与预设光流绝对值和阈值比较。
112.若一个像素点的光流绝对值和大于或等于预设光流绝对值和阈值,则记作1。若一个像素点的光流绝对值小于预设光流绝对值和阈值,则记作0。这样光流图像中的每一个像素点可以通过0和1这样的二值化数据来表达。
113.那么后续可以通过二值化数据更简便的在光流图像中划分出多个光流连通域。
114.s331,对第一帧图像进行静态显著性分割。
115.具体地,光流连通域的划分是一种动态划分,而静态显著性分割是一种静态划分。动态划分和静态划分都有,能够更全面地检测出短横屏视频素材中的显著性目标。
116.s332,依据第一帧图像的静态显著性分割结果在第一帧图像中划分出多个静态显著性连通域,得到静态显著性连通域的集合{s1,s2,

,sm},其中,m为静态显著性连通域的序号。
117.具体地,m同时也是静态显著性连通域的总数。
118.s340,计算光流连通域的集合{f1,f2,

,fi}中的每一个光流连通域和静态显著性连通域的集合{s1,s2,

,sm}中的每一个静态显著性连通域之间的交并比,得到多个交并比。
119.具体地,交并比即iou,是光流连通域和静态显著性连通域的交集和并集的比值。
120.本步骤在计算交并比时,需要对光流连通域的集合{f1,f2,

,fi}中的每一个光流连通域和静态显著性连通域的集合{s1,s2,

,sm}中的每一个静态显著性连通域都进行一次计算,即f1要和s1,s2,

,sm每一个静态显著性连通域均计算一个交并比,f2要和s1,s2,

,sm每一个静态显著性连通域均计算一个交并比...以此类推。
121.s350,选取一个交并比,判断该交并比是否大于预设交并比阈值。
122.具体地,如果该交并比小于或等于预设交并比阈值,那么该交并比会被舍弃,该组光流连通域和静态显著性连通域也会被舍弃。预设交并比阈值可以设置为0.5。
123.s360,若该交并比大于预设交并比阈值,则获取与该交并比对应的光流连通域和静态显著性连通域的并集所展现的图形的外接矩形框,将该外接矩形框作为候选画面主体。
124.具体地,首先,本步骤取得是与该交并比对应的光流连通域和静态显著性连通域的并集所展现的图形。但是这个并集所展现的图形是不规则的,为了便于后续跟踪计算,第二步需要取并集所展现的图形的外接矩形框作为候选画面主体。
125.s370,返回所述s350,直至每一个交并比均被选取一次,得到至少一个候选画面主体。
126.s380,计算所有候选画面主体的光流绝对值和,将所有候选画面主体依照光流绝对值和从大到小进行排序,将光流绝对值和最大的候选画面主体作为短横屏视频素材中的画面主体。
127.具体地,光流绝对值和越大,运动趋势越大,反之,光流绝对值和越小,运动趋势越小。
128.s390,返回所述s310,直至得到所有短横屏视频素材中的画面主体为止。
129.具体地,本实施例采用的是一种基于光流连通域和静态显著性分割的长时跟踪的策略,可以保证画面主体运动出画面二次进入时,仍然能再次识别并跟踪上画面主体。
130.在本技术的一实施例中,所述s400包括:
131.s310,选取一个短横屏视频素材。
132.s321,获取短横屏视频素材中的第n帧,并获取第n帧中画面主体的位置。n初始设置为1。
133.s322,获取短横屏视频素材中的第n+1帧。
134.s323,以第n帧中画面主体的中心在第n+1帧中所在位置作为圆心,以预设搜索半径为半径在第n+1帧中绘制一个圆形,将该圆形的外接矩形所覆盖的区域作为局部搜索区域。预设搜索半径初始定义为局部搜索半径。
135.具体地,第n帧中画面主体的中心就是第n帧中画面主体的物理中心,即两个对角线的交点。因为画面主体是一个矩形框,画面主体的中心就是矩形框的两个对角线的交点。本技术中所有的“中心”都是指矩形框的两个对角线的交点。
136.预设搜索半径初始定义为局部搜索半径是为了初始步骤执行顺畅。
137.图2为本技术一实施例提供的横屏视频素材中画面主体,预设搜索半径,和局部搜索区域之间的位置关系示意图,本步骤可以结合图2进行理解。
138.s324,在局部搜索区域中截取多个与第n帧中画面主体形状相同且覆盖面积相同的局部子搜索区域。
139.具体地,局部搜索区域覆盖面积设置为远大于第n帧中画面主体覆盖面积,这样才能做到可选择性比较广。局部搜索区域覆盖面积设置为远大于第n帧中画面主体覆盖面积的方式,通过调控预设搜索半径的大小来实现。可选地,局部搜索半径可以设置为大于第1帧中画面主体的矩形框的最长对角线。局部搜索半径可以设置为第1帧中画面主体的矩形框的最长对角线的长度的2倍。
140.如图3所示,在图3中,在局部搜索区域截取了4个位置不同的局部子搜索区域,但是他们的形状相同且覆盖面积相同。
141.s325,搜寻第n帧中画面主体在第n+1帧中的所在位置。
142.s326,在第n+1帧中,计算第n帧中画面主体和每一个局部子搜索区域的相似度,得到多个相似度。
143.具体地,计算两个矩形轮廓的相似度可以采用多种图像比对方法,例如差分方法。这里采用任意图像比对的方法均可以实现第n帧中画面主体与局部子搜索区域的的相似度比较。
144.s327,获取多个相似度中的最大相似度,判断最大相似度是否大于相似度阈值。
145.具体地,相似度的指标可以用百分比表示。相似度阈值可以设置为92%。
146.s331,若最大相似度大于相似度阈值,则将与最大相似度对应的局部子搜索区域的位置作为第n+1帧中画面主体的位置,完成第n+1帧中画面主体的定位。
147.具体地,本步骤相当于“更新”了画面主体的位置。
148.s332,将n加1,将预设搜索半径定义为局部搜索半径,返回所述s322,直至完成短横屏视频素材中所有视频帧的画面主体的定位。
149.s333,返回所述s310,直至所有短横屏视频素材均完成所有视频帧的画面主体的
位置的定位。
150.具体地,当最大相似度大于相似度阈值时,本实施例采用局部搜索,此时代表画面主体尚未运动出画面。
151.在本技术的一实施例中,在所述s327之后,所述s400还包括:
152.s341,若最大相似度小于或等于相似度阈值,则将第n帧中画面主体的位置作为第n+1帧中画面主体的位置,完成第n+1帧中画面主体的的定位。
153.s342,将n加1,将预设搜索半径定义为全局搜索半径,返回所述s322。所述全局搜索半径大于所述局部搜索半径。
154.具体地,当最大相似度小于或等于相似度阈值时,此时代表画面主体运动出画面,下一帧必须转入全局搜索。当最大相似度重新大于相似度阈值时,代表画面主体回到画面中,下一帧重新转入局部搜索。全局搜索半径可以设置为局部搜索半径的2倍。
155.本实施例和前一实施例原理相同,不再赘述,区别在于预设搜索半径定义为全局搜索半径,而不是局部搜索半径,也可以参考图2理解,不再另外绘制图像。
156.在本技术的一实施例中,所述s500包括:
157.s510,选取一个短横屏视频素材。
158.s520,获取逐帧跟踪后的短横屏视频素材中每一帧的画面主体的中心位置。
159.s530,以每一帧的画面主体的中心位置为中心,在每一帧中裁剪出宽为w,高为h的矩形视频画面。
160.s540,以每一个矩形视频画面作为一个竖屏视频帧,将得到的所有矩形视频画面按照时间先后顺序拼接,得到一个短竖屏视频素材。
161.s550,返回所述s510,直至将所有短横屏视频素材均转化为短竖屏视频素材。
162.可选地,在s530之前,可以还对每一帧的画面主体的中心位置进行滤波,得到每一帧的滤波后的画面主体的中心位置,以该位置为中心裁剪出宽为w,高为h的矩形视频画面。
163.在s530之中,不直接以每一帧的画面主体的中心位置为中心,而是以每一帧的滤波后的画面主体的中心位置为中心裁剪出宽为w,高为h的矩形视频画面。
164.滤波的作用是平滑跟踪点,从而消除宽为w,高为h这个裁剪框在时序上的抖动,让最终裁剪出来的视频画面更加平顺。可选地,滤波的方式是对每连续的三帧画面主体的中心位置计算加权平均值。例如,滤波后的第2帧的画面主体的中心位置就是第1帧,第2帧和第3帧画面主体的中心位置的加权平均值。滤波后的第3帧的画面主体的中心位置就是第2帧,第3帧和第4帧画面主体的中心位置的加权平均值。
165.以上所述实施例的各技术特征可以进行任意的组合,各方法步骤也并不做执行顺序的限制,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
166.以上所述实施例仅表达了本技术的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本技术专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本技术构思的前提下,还可以做出若干变形和改进,这些都属于本技术的保护范围。因此,本技术的保护范围应以所附权利要求为准。
完整全部详细技术资料下载
当前第1页 1  2 
相关技术
  • 实现用户相关推荐的系统和方法...
  • 一种视频水印检测方法和装置、...
  • 分布式调用链的处理方法及装置...
  • 一种集群文件系统稳定性测试方...
  • 一种数据迁移的方法、装置、系...
  • 一种确定埋地管道干扰电流安全...
  • 基于计算机视觉技术的拉深件起...
  • 一种基于智慧校园建设的学生课...
  • 一种基于图模型的多任务联合调...
  • 一种基于注意力网络的代码修复...
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1

天下网标王蓟县网站优化排名价格松江区搜索引擎网站优化方案定制博客优化网站网站优化推广设计贵阳网站搜索优化免费优化网站建设塘沽网站优化福田百科网站优化及营销方案黄岛区网站seo优化排名站长网站如何优化代码鹤壁网站排名优化找哪家网站优化的标题两个域名同一个网站做优化网站seo优化供应商夏邑专业网站seo优化电话东莞网站权重优化嘉定区正规网站优化价格郑州站群营销网站优化海南网站优化排名厂家报价平谷线优化官方网站沈阳网站安全优化石家庄靠谱的网站优化哪家好广州网站优化企业青岛网站的优化罗湖公司网站优化广告新郑服务好的网站优化推广湖北网站搜索优化sem优化网站优化网站流程图解孝感外包网站优化多少钱香港通过《维护国家安全条例》两大学生合买彩票中奖一人不认账让美丽中国“从细节出发”19岁小伙救下5人后溺亡 多方发声卫健委通报少年有偿捐血浆16次猝死汪小菲曝离婚始末何赛飞追着代拍打雅江山火三名扑火人员牺牲系谣言男子被猫抓伤后确诊“猫抓病”周杰伦一审败诉网易中国拥有亿元资产的家庭达13.3万户315晚会后胖东来又人满为患了高校汽车撞人致3死16伤 司机系学生张家界的山上“长”满了韩国人?张立群任西安交通大学校长手机成瘾是影响睡眠质量重要因素网友洛杉矶偶遇贾玲“重生之我在北大当嫡校长”单亲妈妈陷入热恋 14岁儿子报警倪萍分享减重40斤方法杨倩无缘巴黎奥运考生莫言也上北大硕士复试名单了许家印被限制高消费奥巴马现身唐宁街 黑色着装引猜测专访95后高颜值猪保姆男孩8年未见母亲被告知被遗忘七年后宇文玥被薅头发捞上岸郑州一火锅店爆改成麻辣烫店西双版纳热带植物园回应蜉蝣大爆发沉迷短剧的人就像掉进了杀猪盘当地回应沈阳致3死车祸车主疑毒驾开除党籍5年后 原水城县长再被查凯特王妃现身!外出购物视频曝光初中生遭15人围殴自卫刺伤3人判无罪事业单位女子向同事水杯投不明物质男子被流浪猫绊倒 投喂者赔24万外国人感慨凌晨的中国很安全路边卖淀粉肠阿姨主动出示声明书胖东来员工每周单休无小长假王树国卸任西安交大校长 师生送别小米汽车超级工厂正式揭幕黑马情侣提车了妈妈回应孩子在校撞护栏坠楼校方回应护栏损坏小学生课间坠楼房客欠租失踪 房东直发愁专家建议不必谈骨泥色变老人退休金被冒领16年 金额超20万西藏招商引资投资者子女可当地高考特朗普无法缴纳4.54亿美元罚金浙江一高校内汽车冲撞行人 多人受伤

天下网标王 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化