3d片源2d播放和2d片源转换3d(两个画面那种)有什么区别。

问题已关闭
与已有问题相似
问题已重定向至
2D 电影可以转 3D 的原理是什么?
按投票排序
好吧,作为一个做过2D/3D转换的人,我来说说基本原理。某种实现大致如下:1. 进行画面分割2. 对画面分割的结果进行距离远近的推理,比如天空总是在上面,那么靠近画面上方距离用户远的概率要大,同理在画面下方的物体距离用户就要近一点3. 根据距离远近,进行左右眼图像生成一般来说自动转换,好一点效果类似纸片人效果,好像以前折叠立体圣诞卡打开那样的立体观感,做的差的时候根本就没有啥立体感觉。所以一般实际使用2D/3D转换,都是半自动半人工,效果也就差强人意,和以前黑白转彩色一样,是一个噱头技术。
简单说是基于双目立体视觉,每单帧图像对于人眼只包含平面信息,x和y轴,利用红蓝眼镜的滤色和每帧图像的水平移位,左右眼各获取一张图像,两图引入水平视差,就是这个视差b(水平移位值,例如5mm),对于人眼将额外获得一个“感觉上”的深度信息即z轴,这样就有3D感(伪立体,介质依然平面,但人眼的双目立体视觉会让你觉得是立体的)。ps:实际上,人闭上一只眼观察物体时,本该只有平面信息无立体感的,但由于大脑对于日常事物特质的熟悉性和记忆性,“处理”告诉自己是立体的,暂称为单眼立体感,但距离过远时单眼无法形成立体感,放一块平板人形图在真人身边,无法辨别哪个为真人。而双眼看物体时由于眼睛间距引入视差,是真正的立体视觉。
2d转换的3d肯定不能算真正的3d电影,应该叫“伪3d电影吧“。
2d电影只是从一个角度看物体,而3d电影是从两个角度。如果想转换成3d电影,必须用程序计算出另一个角度的物体被遮住的部分是什么样的,这个人脑都是无法想像出来完全正确的,更不要说电脑程序了,而且现在计算机的数字识别技术还是相当落后的。
上网查了下,应该是利用了”景深“来达到伪3d的效果。
因为电影只是一系列的图片,所以可以通过处理每一帧图片来处理整个影片。
我猜具体步骤应该是这样的(仅供参考,不保证正确性):
1,利用数字识别技术识别出图片中的不同物体,然后通过程序计算出每个物体的”景深“,也就是离摄像头的远近。现在的技术使可以实现的,数码相机就可以通过景深的计算识别背景。
2,根据不同物体的景深,进行3d建模,这个场景中物体实际上是”一张纸“一样的,因为只有一个角度,被遮住的部分无法计算出来。然后根据这个3d场景计算得到不同角度的两个画面。有了两个不同的画面就可以向3d电影的原理一样看到3d效果。
但是这个方法计算出来的,虽然每个物体远近大小都不同,但是无法同时看到一个物体的两面,因此3d感不真实。就如同你自己用纸片画几个小人,几座山,然后远近不同的摆在桌子上的效果类似。这样处理,影片整体还是层次分明的3d效果,但是具体到单个物体,3d效果就没有了??
3,通过单张图片分析,对每一个物体的可用信息偏少。如果技术非常成熟的话,可以通过电影不同画面之间的差异来进行3d建模。因为不同时间肯定会拍到不同的角度,通过多个角度的画面可以真实的模拟出这个物体,这样进行建模的场景中每一个物体都是立体的,再通过不同的角度计算出两个画面,就可以产生很真实的3d效果。
需要场景重建的,体力活,没有太多难度。
补充一下,我也不知道这种问题怎么解决,不过这种问题在学术上叫做 ill-posed problem。比如 Adobe 前段 demo 的 motion deblur 就属此列。严格的说没有可解性。所以解决的时候需要研究者附加一些条件。比如必要的人工干预。
两年前用PS做过一次红蓝两色的2D转3D,效果还可以,不是那种纸片似的,我记得当时是做我的手伸出屏幕的那种效果,立体感不错!基本原理就是判断一下原图的基本方位然后利用灰度的深浅做出左眼(红色)的图,然后和原图错开一定位置后即可。当然是跟着教程走做出来的了!至于全彩色的左右分离立体就没弄过——如果之前是全胶片拍的估计应该挺难的!3D中国有这个教程的,你去找找看吧!2D-3D片源转换技术热点发展现状 -- 上海情报服务平台
第一情报___信息产业&
2D-3D片源转换技术热点发展现状
供稿人:田丰;殷媛媛 &供稿时间:
人类在漫长的历史长河中积累了大量珍贵的绘画、摄影和摄像作品,这些作品几乎都是2D图像。与传统二维显示内容相比,3D视频内容获取和制作能力则相对不足、内容匮乏已成为制约3D市场进一步扩展的主要因素。如何将已有的2D视频内容转换为3D视频,是产业界探讨和实践的热点之一。
尤其是在家用3D电视领域,将2D平面影视节目立体化正不断受到消费电子开发商的重视。利用图像处理技术将这些2D图像转换成3D图像,可以为3D显示器提供丰富的片源,并给人们带来更加真实的视觉享受。心理学上的视觉感知使我们得知2D图像本身蕴藏着丰富的3D信息,其中最重要的信息就是深度信息。实现2D转换成3D的关键就是发掘出这些隐藏在2D图像中的深度信息,然后利用这些深度信息结合一定的方法提取出场景的深度图像。目前深度图像的提取方法主要有:基于双目视差的深度图像提取方法、基于运动视差的深度图像提取方法和基于线性透视的深度图像提取方法等。
目前立体效果较好的2D-3D片源转换主要依靠手工制作与计算机辅助计算的方法。基于人工交互的非实时转换的主要代表包括In-Three、工业光魔等好莱坞影视公司。人工交互转换方法效率主要体现在人工参与的程度高低,如扣图、深度赋值。主要环节均极其消耗人工,造成人工转换的成本极高,完成一部经典影片的转化可能耗资近亿元,因此应用局限于3D电影转换等高端市场。
在短期内,3D电视要想解决内容瓶颈,很大程度上仍然依赖于电视厂商不断提升自身产品2D转换3D技术的成熟度。这种2D转3D功能由三星提出,并已附加到目前所有三星的3D电视产品之中。JVC、DDD、HiMAX等公司也热衷此技术的研发。2D-3D自动转化的基本原理是通过电视内置的图象处理引擎,分析2D的场景,把场景当中的近点物体进行勾勒和突出,同时将背景环境和物体进行后置,从而实时实现2D图像转换为3D的效果。也就是说,观看者戴上3D眼镜后,只需轻轻按下3D功能键,面前的电视画面就由原来的普通图像瞬间转换为具有呼之欲出的3D效果,不仅如此,就连普通的照片也能在电视上变得立体感十足。
2D-3D片源的自动高效转换目前是世界性难题,但是中国也已走到了该技术的前列。在国内,由清华大学自主研发的“清立方”立体视频芯片,历经十余年攻关,在平面视频立体转换、立体视频采集、制作、编码传输和播放等方面,形成了一系列自主知识产权的核心关键技术,实现了平面视频高质量的立体转换。包括海尔集团3D智能电视、长虹集团立体电视机、北京数码视讯科技有限公司与天津通信广播集团的高清立体视频机顶盒、深圳宇龙计算机通信科技公司的智能立体手机等已使用了“清立方”立体视频芯片。
但是2D转3D产生的立体画面可能产生深度畸变,针对更准确的深度信息提取,本文介绍3D片源转化的过程中使用的几项热点技术。
热点技术一:基于双目视差的深度图像提取
视差图像对应点间的视差大小与其在场景中的深度有关,可以通过计算这些视差图像上对应点间的视差来提取出场景的深度,得到深度图像。所谓深度图像,就是反映空间物体纵深关系的图像。在深度图像中各像素灰度值表示物体在空间中的纵深信息。深度图像的提取只需左右两幅视差图像,而深度图像加一幅视差图像可以生成多幅视差图像,这样采用双相机拍摄便能为多视点光栅3D显示提供片源。基于双目视差的深度图像提取过程为先建立左右视差图像间对应点,即立体匹配,获得匹配点后,依据匹配点的坐标计算出能够反映出该点离观看者的距离远近的视差值。
热点技术二:基于运动视差的深度图像提取
当观看者与周围环境中的物体做相对运动时,由于在同一时间内距离不同物体在视网膜上运动的范围不同。近处物体视角大,在视网膜上运动的范围大,而远处物体视角小,在视网膜上运动的范围小,导致远近不同的物体对应的运动速度不同。一般来说,近处物体看上去移动得快,远处物体看上去移动得慢,把这种由于物体运动引起的视差叫做运动视差。基于运动视差原理,要从运动序列中提取出场景的深度信息要解决两个问题,一个是对图像上像素进行运动分析,得到每个像素的运动矢量,第二是找出场景物体的运动矢量与对应的深度值之间的关系。
热点技术三:基于线性透视的深度图像提取
当景物中含有如走廊、公路和铁轨等有近似于平行线边界的景物时,看起来这些平行的边界线所在的直线将会聚于视线远方的某一点,这一现象在透视学中被称为线性透视,它是一种重要的深度暗示。客观世界中,向远处延伸的一组平行线在图像平面中将靠得越来越近,甚至会聚,这样一组线称为消失线,消失线的会聚点称为消失点。图像中的物体离消失点越近,感知深度越大,反之越小。同时,消失线的中心线也能给出图像感知深度变化最快的方向。由此可见,2D图像中的消失点与消失线就是一种真实场景的深度暗示。所以可以利用消失点与消失线从2D图像中提取场景的深度信息,进而实现2D图像的3D化。
热点技术四:综合深度图像提取
除以上几种深度图像提取方法之外,其他方法比如基于大气透视、基于离焦、基于聚焦和基于单幅图像离焦的方法等也可以为深度图像提取提供思路。
①基于大气透视:空气中的微粒对光的散射及吸收使景物的对比度随着距离的增大而下降,这种自然现象称为大气透视,也是一种重要的图像深度暗示,图像中的物体越模糊,感知深度越大,反之越小。这种深度图像提取方法适合于提取某一类户外场景的深度,这些场景通常包含部分天空场景在内。
②基于离焦:基于离焦的深度提取方法是保持物体与相机的位置不变,通过调节相机焦距从图像的模糊程度来提取深度。在一个薄透镜系统中,物体在焦点处成清晰的像,在离焦处成模糊的像。
③基于聚焦:基于聚焦的深度提取方法与基于离焦的深度提取方法密切相关,两者主要区别在于:基于离焦的深度提取方法是根据两幅或者多幅图像来提取场景深度信息,这些图像是在相机和物体的位置固定的情况下,通过改变相机焦距拍摄所得;而基于聚焦的深度提取方法需要一系列在相机和场景距离不断变化的情况下拍摄到的场景图像,同时要求这些图像处于不同的聚焦等级。
参考文献:
1、“2D转3D” 三星的天才创意.//09/13/.htm
2、清华大学研发成功“清立方”立体视频芯片. /htmlnews/235.shtm
3、廖延彪.成像光学导论.清华大学出版社,20084、梁发云.彩色立体显示关键技术研究.博士论文,2005
转载本文需经本平台书面授权,并注明出处:上海情报服务平台
了解更多信息,请
请为这篇文章打分(5分为最好)感觉上3d电影和2d电影没什么区别_我们仍未知道那天所看见的花的名字吧_百度贴吧
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&签到排名:今日本吧第个签到,本吧因你更精彩,明天继续来努力!
本吧签到人数:0成为超级会员,使用一键签到本月漏签0次!成为超级会员,赠送8张补签卡连续签到:天&&累计签到:天超级会员单次开通12个月以上,赠送连续签到卡3张
关注:265,029贴子:
感觉上3d电影和2d电影没什么区别收藏
刚去看了场3d的,看得我头都晕- -
你是电影元老,你觉得怎么样
1楼 22:10&|
相关的贴子87134103800相关的图贴
当不起元老~没去看过
2楼 22:10&|
根据本人目前看了七部,总结如下1,让我感受一下戴眼镜的感觉2,让银幕里的东西凹进去3,睡着了也不会被发展我爸跟我去看了三次三次都睡了4,同时这也是最重要的………………比较贵,店长。结论:超级无敌坑爹。不过有一次去看觉得效果不错不过也是唯一的一次→_→
3楼 22:51&|来自
登录百度帐号
内&&容:使用签名档&&
为兴趣而生,贴吧更懂你。&或3D电影是两个画面,在电视上能看吗?如果不能转那应该下什么样格式的电影?_百度知道
3D电影是两个画面,在电视上能看吗?如果不能转那应该下什么样格式的电影?
我的电视是海尔的
提问者采纳
3D片源你基本上是下载不到的,因为每一个3D片源都在10G以上基本上,没有一哗紶糕咳蕹纠革穴宫膜个服务器愿意放这么大的东西。目前可选择的最好办法就是花两三千去买个3D蓝光机,或者四五千去买个PS3,然后再去用两百多到三百多去购买一部3D蓝光电影来看.3DTV的片源一个是少,而且最主要的是有些格式,用电视根本就不支持. 所以,3D电视目前普及率不大.除非有PS3.否则3D电视远远不如3D电脑的用处大. .你要用3D电视看3D电影,! 如果是在电视上看,你可以不考虑电影格式了,全部都能看的。
祝您观影愉快!
我已经下了几个,是有十几G,但都是左右两个画面,在电视上怎么看,能不能在电视上直接转换成那种重影的
普通电视没法看3D电影的 如果你下的3d电影是偏色的,那就可以看。 偏色属于最老的3D立体显示方式,主要是通过颜色差来实现两个眼睛的视觉差,它是只需要一个偏色眼镜即可,任何设备都可以播放偏色的立体电影。但是由于戴上极不舒服,立体效果最差,时间长了对眼睛的损害是最直接的,所以基本上已经淘汰。需要戴眼镜的.红蓝的或者红绿的采纳吧!谢谢啦! 有问题继续问哦!
提问者评价
原来是这样,感谢!
其他类似问题
按默认排序
其他2条回答
要在能放3D的电视才行,不然会是两份图片在播放。想看3D效果,没有什么格式之说
在电视上可以看,只要买3D碟片就可以了
您可能关注的推广回答者:
3d电影的相关知识
等待您来回答
下载知道APP
随时随地咨询
出门在外也不愁

我要回帖

更多关于 怎样把3d电影转换成2d 的文章

 

随机推荐