人的眼睛相当于多少手机像素?

2017年05月14日 23:58来源于:头条

求解

如果硬性比较,人眼大约等效于一台50毫米焦距,光圈F4-F32可变,400万像素——是的,只有400万像素,感光度ISO50-ISO6400,快门1/24的不停连续拍摄的相机。



对于人眼分辨率的研究比多说人想象的都要早许多,而且多年来这个结论没有太大的变化。最权威的结论来自1897年(没错,是1897年,就是康圣人跟梁启超等人准备搞变法跟老佛爷找不痛快的年代),德国人Konig在“Die?Abhangigkeit?der?Sehscharfe?von?der?Beleuchtungsintensitat”一书中指出,人眼的极限分辨率是能够分辨0.59角分的线对。这里要细致的说一下为何要用角度而不是长度来表示分辨率,大家知道,无论是人眼还是相机都会遵守远小近大的透视定律,同样大小的物体距离人眼不同的时候在视网膜上成的像大小是不一样的。利用角度来表征这个问题就会简单很多。



正常视力的人的视角超过150度,但是人眼分辨率细节的能力并不是均等的,和相机一样人眼中间分辨率细节的能力强于边缘部分,所以当一个人看到感兴趣的目标的时候会不自觉的把头或者眼睛转过来,让自己视网膜的中心对准目标。所以我们这里先假设人眼中间的90度具有最高的分辨率。那么人眼中央部分的就相当于一个(90×60/0.3)×(90×60/0.3)=3.24亿像素的相机。




德国医生阿瑟·康尼锡在一本著作里就提出了比较精确的答案。他采用了一种标准化的实验方式:在正常光亮的条件下,测试人能够分辨的、距离最小的平行线段中,两根线段与瞳孔正中所形成的夹角。测量结果是0.59角分(1°=60角分)。这也就是说,人眼能够识别的最小像素应该是0.3角分。这样一来,根据科学作家、研究者和摄影师罗杰·克拉克博士的推断,人的视野中心(假设是90°×90°的区域)所拥有的像素数就达到了3.24亿;如果认为人的中心视野是120°的话,像素数将会是5.76亿。


按照他的算法计算,正常人的视野大约是180°左右,这就意味着人眼拥有超过12.96亿的像素数。


然而基于180°视野来进行计算是有问题的。就像我们刚才提到的,视野中心和视野边缘的分辨率有很大不同。根据迈克尔·F·迪林在一本专著中的描述,人眼分辨率越往外围越低,最外围似乎只有12°。这样来看,人眼的像素数应该远小于10亿。但是我们没有办法获得更精确的数值,因为大脑根本不给我们机会让我们看到真正的世界———在我们反应过来之前,大脑就已经把我们看到的东西抹去细节、拼接画面,要想知道人眼的像素值,还真不是件容易的事情。

人的眼睛有大约1亿像素!而且每零点0.01秒连环拍摄。相当于世界上最好的摄像头的50000倍。


有人说人眼只有400像素,那你用400像素的相机给我看个指纹试试!?不要相信在网上传播的这些谣言,我们的身体是非常伟大的!我们的身体创造了无数奇迹!

1:根据人类的身体机理能力,我们能活2000年。

2:我们的身体比龟壳更抗击打。

3我们的牙齿上的牙釉质硬度仅次于金刚石,是地球上第二硬的东西。

为我们的身体喝彩!.

人的眼睛据美国科学家罗格曼在2011年研究成果,iso感光度达8000左右,晚上只需一分钟左右,眼基本能适应当前环境,且没有任何噪点,看见就看见,看不见就看不见,动态宽容度之高,至今相机都没研制出来,所以我们看光比比较大的景物时,暗处仍很清晰就是这个原理。研究还表明,人眼的标准视角为160度,不存在边缘不清晰,不像相机镜头存在边缘素质下降的情况,只存在视网膜的(底片)的大小的限制。罗格曼还说:以上文字都是楼主刚刚为凑字数信口胡诹的,不要信。


眼睛我不知道,但是上亿是肯定的,而更牛的是我们的大脑,我们平常随意看一眼的画面你大脑都在计算这些看见的物体和你的距离(太远的不算),两三米的距离你在桌子放个杯子,然后随意瞄一眼,再闭眼基本你都能准确的走过去“拿”到杯子而不是胡乱“摸”到杯子。我们的大脑随时都在计算着我们看见的物体的大概距离和空间位置。所以智能机器人取代人类还早着呢,人类随意瞄一眼的信息就能叫一般电脑当机。所谓的自动行驶汽车,也是大量删除“无用”信息因为计算能力有限,所以现在还是不靠谱的。

回答这个问题只是觉得很有意思

答案是我从其他地方看来的



人眼的像素灰常高,因为人眼有1.2亿个视杆细胞,600万~700万的视锥细胞,所以严格来说,人眼可能是上亿像素的数码相机!!!
但是,人眼是个定焦头。。。景深太浅啦!
不信?
你拿两个小药瓶放在眼前,你看其中一个的时候,必然看不清另一个。。。

如果你考虑人的光学系统的性能,比傻瓜相机的还要糟糕。。。采光点就瞳孔那么大。。。视网膜蚕豆那么大。。。

人眼牛逼之处不在于光学系统,而在于图片处理系统。

人眼大约相当于3.24亿像素的相机。对于人眼分辨率的研究比多说人想象的都要早许多,而且多年来这个结论没有太大的变化。最权威的结论来自1897年(没错,是1897年,就是康圣人跟梁启超等人准备搞变法跟老佛爷找不痛快的年代),德国人Konig在“Die?Abhangigkeit?der?Sehscharfe?von?der?Beleuchtungsintensitat”一书中指出,人眼的极限分辨率是能够分辨0.59角分的线对。这里要细致的说一下为何要用角度而不是长度来表示分辨率,大家知道,无论是人眼还是相机都会遵守远小近大的透视定律,同样大小的物体距离人眼不同的时候在视网膜上成的像大小是不一样的。利用角度来表征这个问题就会简单很多。1897年的时代,像素这个概念并不普及,所以Konig给出的是线对(line?pair)的数据,也就是说人眼可以分辨张角为0.59角分的明暗相间的线条对,因为表示一个明暗相间的线对至少需要两个像素,那么换算成像素就是:人眼上的一个像素相当于0.3个角分。为了让大家对于1度或者1分的张角对应的细节有一个直观的概念,这里给大家几个例子:太阳和月亮的张角大致都是30个角分,也就是半个角度的张角,太阳系中最大的行星木星在距离地球最近的时候对应的张角是47个角秒,也就是一个角分不到一点点(为何人的肉眼看不见环形山?因为在你的视网膜上月亮形成的图像其实不过就是一个100个像素左右的图片而已)。知道了人眼的分辨率细节的能力,再来探讨一下人眼的视野大小,正常视力的人的视角超过150度,但是人眼分辨率细节的能力并不是均等的,和相机一样人眼中间分辨率细节的能力强于边缘部分,所以当一个人看到感兴趣的目标的时候会不自觉的把头或者眼睛转过来,让自己视网膜的中心对准目标。所以我们这里先假设人眼中间的90度具有最高的分辨率。那么人眼中央部分的就相当于一个(90×60/0.3)×(90×60/0.3)=3.24亿像素的相机。

影像有个名词叫灰度,灰度决定了影像的清晰层度,也就是影像层次越多越丰富越好。人眼对灰度的分辨力是非常之强大的,这就是所谓的细节分辨力。同样是所谓的夜晚黑色,眼力好的能再加以区分其中差别。灰度平常分为256级,我估计某些人还能进一步区分。色彩丰富是建立在灰度基础上的,所以相机分辨率再高如灰度分辨能力不提高也敢不上人眼。当然相同灰度情况下,分辨率高的有优势。但是分辨率高的如果进光不足又会导致灰度分辨力的降低,取个平衡才好。

人眼其实是一台像素高达5.76亿的“超级相机”。如果硬性比较,人眼大约等效于一台50毫米焦距,光圈F4-F32可变,400万像素——是的,只有400万像素,感光度ISO50-ISO6400,快门1/24的不停连续拍摄的相机。 镜头约等于3片3组,全部由非球面镜组成,光圈(瞳孔)小于F32时,一般是某种化学药品中毒,大于F2.8时~~~那是死人。对焦速度极高,在0.5秒内就能完成从最远到最近的切换,永不跑焦。 非近视的情况下,景深极大。 影像处理器大约相当于4块Digital 3,并行工作,而后台的模糊识别处理器,则无法用地球上的计算机来衡量。 色彩不好说,一般是认为在32位和48位之间。

这个问题我也很想知道答案啊!!总感觉眼睛看出来的东西真的很清晰啊!!!

而且有的时候眼睛看出来的感动,美好,是用摄影机拍不出来的。

 
免责声明:

     本文仅代表作者/企业观点,与【名品家电网】无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,仅供读者参考,并自行核实相关内容。

     【名品家电网】刊载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,也不代表本网对其真实性负责。

      如因作品内容、版权和其它问题需要同本网联系的,请在30日内进行;新闻纠错: lwl#youngchina.cn