提问

#楼主# 2019-1-15

跳转到指定楼层
先回答第一个问题,是的。确实有比较严重的偏色问题,红色通道溢出严重。


第二个问题是可能的原因,那我从两个方面回答这个问题,一个是对本次任务载荷相关的回答,另一个是照片色彩原理和白平衡基础上。


更准确地色彩应该是这个样子的:
20190109_ce4-after.jpg

来源:http://www.planetary.org/blogs/g ... e-4-red-images.html


这里有必要纠正一下,这张图并不是用着陆器上的地形地貌相机拍摄的,而是来源于巡视器释放监控相机。嫦娥三号和四号除了中央桅杆上分辨率较高的地形地貌相机,还搭载了另外四个分辨率稍低的监视用相机。而这四个相机中有一个是黑白的、分辨率为1024X1024的降落相机,安装在着陆器底部,垂直指向月表。下面这个视频便由此相机拍摄。


QQ截图20190115174433.jpg

降落相机拍摄图像组合成的视频
另外三个监视相机均安装在巡视器分离机构附近,主要任务是对巡视器与着陆器的释放分离过程进行全程监视,实现两器解锁、巡视器驶离连接支架等关键过程的监测。题主发的图,也是人类历史上第一张月背地表图像,便是由其中的一台拍摄。可以在图像中清晰地看到巡视器释放导轨。另外还有这一张由中国探月工程官方号发布的图片,这是另一台朝向玉兔二号轮子释放机构的监视相机所拍摄,同样我们可以看到很严重的偏色问题:
QQ截图20190112003056.jpg



监视相机的存在的意义,主要是为了两器分离。拍摄月表图像不是它的主要职责,所以就没有进行特别的校色处理。在嫦娥四号刚刚落月之时已经接近月昼,面对太阳直射产生的高温,为了稳妥起见,位于着陆器上方的地形地貌相机并没有启动,所以就只能把监视相机拍的图拿出来给媒体了。事实上这种用监视器相机代劳的事情,我们以前就干过。嫦娥二号上就有3台监视相机,分别对卫星发动机、太阳翼和定向天线进行成像。在嫦娥二号结束月球使命后,本着物尽其用的思想,又前往小行星4179进行探测。因为一些原因嫦娥二号上专门用于对月成像的高性能CCD没有启用,取而代之的是用于监测太阳能帆板的监视相机:


Toutatis_from_Chang\'e_2.jpg

嫦娥2拍摄的 4179 Toutatis
怎么样,有没有发现连色偏都和这次的照片是一致的?






而专用于月表拍摄的地形地貌相机以及玉兔二号上的全景相机,CMOS传感器分辨率2352x1728,有专用的驱动电路和FPGA图像处理设备,可以自动进行测光并控制电子快门进行曝光。根据文献资料,在地面就利用标准靶标进行了色彩校准。
QQ截图20190112005023.jpg



所以1月11日当两器互拍的照片发布时,我们看到已基本不存在过于严重的色偏了。(不过略微过曝)


6c9bfa25ly1fz2tlss4qwj212w0lq4qq.jpg
6c9bfa25ly1fz2tm31in2j212w0sk1kz.jpg



在twitter上质疑照片偏色的文章作者也对此图表示了满意并且也认为这是真正意义上的science camera拍摄的




地面颜色矫正是一种方式,到了地方再进行矫正也是一种方式。其他答案中有童鞋提到了阿波罗,其实无人探测器也有例子,如美国的好奇号火星车就搭载了标准色卡和比例尺,甚至还有个硬币:
U2727P2DT20120913100110.jpg



以上便是从航天任务载荷角度的回答。


接下来来说说色偏的原理和白平衡,既然题主加了天文摄影的标签,我想很多天文摄影的同好以及涉及图像处理的研究者对这个问题应该是再熟悉不过了。


大家都知道,现在的电子照相机或摄像机是通过CMOS或者CCD元件对射入的光子进行光电转换变成电子储存在电荷阱中再经过读出得到图像。为了获得人眼可以识别的彩色图像,我们就要知道组成光的三种不能再分解的颜色的数值,即叠加型三原色 红 绿 蓝,通过三原色来组成RGB色彩空间。于是科研人员就通过在cmos或者ccd前方加装了一层滤镜的方式来获取数据。这个时候就有两种实现办法,一种是每次曝光更换滤镜,另一种则是把红(R),绿(G),蓝(B)滤镜做成一定排布的阵列永久性地放置在感光元件前,把几块滤镜为一组进行插值作为RGB色彩空间中的一个像素。后一种实现方法就是我们通常所说的彩色相机。最典型的滤镜叫做拜尔滤镜(Bayer filter):
QQ截图20190112065615.jpg



拜尔滤镜
这种滤镜的排列有50%是绿色,25%是红色,另外25%是蓝色。在相机获得图像后,我们事实上是知道了每一块像素的亮度,但这些像素有的是绿的、有的是蓝的、有的是红的。这时候我们就要通过一个debayer运算去通过插值填充每一个RGB色彩空间像素,即把四块不同颜色的像素融合成一块RGB像素。这里给大家展示一个例子,利用SONY IMX071传感器通过望远镜对远处的目标进行成像,这是从相机中读取的原始的图像数据,没有经过任何地处理或修改:


QQ截图20190112060156.jpg

Before Debayer
虽然这是一个彩色的相机,但是它所输出的是原始的图像,只有明度没有色彩,如果把他放大,其中的类似网格的效果便是拜尔滤镜后三种不同波长的光造成的明度差距:


QQ截图20190112060240.jpg

放大300%
接下来对其进行debayer运算,插值获得完整像素,我们就得到一张RGB色彩空间的图片:
QQ截图20190112060444.jpg



回到刚刚那个铃木标志,可以看到那种明度差异造成的方格自然消失了。
QQ截图20190112060526.jpg



刚刚前面提到,不管CMOS也好还是CCD也好,本质上都是光电转化器。既然是转化器就有转化效率的问题。这里头就必须引入一个概念叫量子效率(Quantum efficiency,通常简写为QE),这个QE用最通俗的话讲就是在一定时间内,射入我这个“像素”上的光子被转换成了多少个电子被存在了对应的电荷阱里。要命的是QE是光子能量的函数,也就是说不同频率的光的QE不一样.... 比如我刚刚拿来举例IMX071 CMOS传感器的QE曲线就是这个样子的:


20181022033648851.jpg

所以这就带来一个问题,终于讲到主题了,那就是偏色。。。从QE图上非常容易看出来,相机对绿色最敏感(其实人眼也是),其次是红,最后是蓝。
转播转播 分享淘帖
回复

使用道具

0

主题

4

帖子

0

积分

列兵

积分
0
王大脸同学 发表于 2019-1-16 16:24:37
彩色相机说白了就是在每个像素上加了带通滤镜,跟Bayer的作用类似,就像手机拍出来的照片会有色差一样,后期算法修正很关键,但是修正需要图像校准关系,地面上可以通过已知参照物等各种常见环境变量去提取,但是月亮上的情况大家都是懵逼一片的,所以放出来的色彩修正后的照片也只是按照人眼常规视觉进行的统计关系修正。
下次建议带个华为上天试试看。^_^|||
回复

使用道具 举报

1

主题

3

帖子

0

积分

上等兵

积分
0
myvesper 发表于 2019-1-15 23:59:58
go
on?
回复

使用道具 举报

0

主题

1

帖子

14

积分

列兵

积分
14
天祥 发表于 2019-1-18 00:33:55
长知识了
回复

使用道具 举报

86

主题

261

帖子

5万

积分

准将

积分
52767
罗恩格林 发表于 2019-1-18 01:33:35
[quote=王大脸同学,8260]彩色相机说白了就是在每个像素上加了带通滤镜,跟Bayer的作用类似,就像手机拍出来的照片会有色差一样,后期算法修正很关键,但是修正需要图像校准关系,地面上可以通过已知参照物等各种常见环境变量去提取,但是月亮上的情况大家都是懵逼一片的,所以放...[/quote] 华为上天了恐怕啥都排不出来,既抗不过150多度的昼夜温差也扛不过高能宇宙射线
回复

使用道具 举报

B Color Link Quote Code Smilies
Archiver|手机版|小黑屋|MakerTime 创客时代  
Powered by Discuz! X3.3  © 2001-2017 Comsenz Inc.