安卓小火箭怎么添加节点
而大多数人采用的方法,是根据自己所在的经纬度,算好空间站过境的时间(几秒到几分钟不等),然后配合手机或微单进行拍摄,然后啪得到这样一张小光点:
稍微进阶一点的,则会采用“凌日凌月”拍摄法,即在空间站飞过太阳或者月亮之前,以这两个天体为背景源,确定一个范围更小的区域。
然后等在中心线上,把持着几公斤到几十公斤重的大口径、长焦距望远镜进行长时间的稳定跟踪,直到空间站过月或过日的1秒之内,按下快门拍摄。
空间站平均每90分钟就能绕地球一圈。用知名的星空观测模拟工具Stellarium对比一下,相比空间站,金星和火星简直如同“静物”(实时模拟,没有加速):
因此,不仅1秒内拍摄的帧数有限(无法用多帧叠加克服大气抖动)、只能拍到轮廓剪影,甚至很可能因为计算错误而错过拍摄的机会。
在这套自动跟踪系统的加持下,望远镜不再是只能在特定几秒钟拍摄几张静态图像,而是持续不断地跟了空间站2分钟。
虽然空间站移动速度极快,平均每90分钟就能绕地球一圈,而且高度平均距离地球也就400公里左右,属于肉眼可见的范围,但我们并不能随时观测到它。
观测时间指我们能观测到空间站的时机。空间站自身不会发光,只有在每天日落后两小时、或日出前两小时以内,空间站反射的太阳光最亮,才最适合拍摄。
只有这两个条件同时满足,我们才有机会在地面观测并拍摄到空间站,但效果也还受天气等因素影响(如图中就是遇到了多云天气):
这种方法有一个缺陷,没办法拍摄非常高清的空间站。由于拍摄时必须靠人工跟踪,因此不能用长焦镜头直接找安卓小火箭怎么添加节点,否则就像是用显微镜去捕捉一只高速移动的蚂蚁,空间站一不留神就消失在镜头外了。
这种方法不需要移动镜头,而是反过来等空间站自己“经过”。但它又面临一些新的问题,例如空间站“路过”的时间很短,有时候往往只有几秒钟的时间,很可能抓拍不到;即使抓拍到的镜头,由于无法调整角度等原因,效果也无法保证。
这个功能通常只适用于用于追踪日月、行星、恒星等天体由于地球自转而产生的东升西落,毕竟它们移动的速度不快,基本与地球自转同步。但对于像空间站这种高速移动的天体,望远镜自己就追不上了。
第三种方法,是利用轨道根数(即轨道参数)跟踪,也就是利用在各种天文网站上(如Heavens-Above等)找到的天体信息,来调整望远镜的跟踪路径,并进行手动修正:
目前,大部分天文爱好者都是通过这种方法实现跟踪+微调,网上也已经有一些相对成熟的程序,例如这是用电动经纬仪根据轨道参数跟踪空间站的效果:
BUT,你永远不知道这些天文网站更新到底及不及时。有时候空间站临时调整了轨道、但网站没有更新的话,你的程序也就失效了。
他一开始的想法,是通过现有的一些软件寻找镜头中的“光点”,基于光学识别方法对目标实施识别和跟踪。
然而他在查找合适的程序时却发现,这些程序不是没维护(连Windows版都太古早没法用)、就是更新不及时且系统复杂,或者干脆就是闭源收费。
所以,刘博洋最终决定自己上手,写一个光学识别的自动跟踪脚本,手动找到空间站后基于PID控制跟踪。
他确实想过用参数+手动微调的方式进行跟踪,包括用摇杆无级控制赤道仪转速,以及用轨道根数进行粗跟、结合游戏手柄无级微调等,但试拍效果并不理想(微调时手不够稳)。
于是,他基于PID控制原理,编写了一种光学跟踪的方法。这是一种非常经典的控制算法,PID分别指比例、积分和微分单元,像让2轮机器小车保持平衡,用的就是这种算法。
刘博洋之前并没有学过这一知识,但是为了建立一个稳定的自动控制系统,他自然地引入了比例单元(P)和积分单元(I),以使系统的误差减少。
刘博洋的望远镜分为视野较大的寻星镜和视野较小的主镜两部分。这套算法的基本目标,就是根据当前空间站在寻星镜中的位置,计算出它偏离主镜视场的幅度,从而调整望远镜跟踪速度,以改正存在的偏离,使空间站落到主镜视场中。
利用这个程序,就能让寻星镜快速跟随移动的空间站“光源”,使得空间站总是保持在视野中央。刘博洋试着用激光笔在自己家墙上造了一个匀速移动的亮点,模拟空间站的运动,效果还不错:
它能将天文设备的所有配置,比如控制望远镜的对焦器、滤光片的转动、相机的开合都集成在一个单独的软件上,是在天文领域运用非常广泛的软件接口标准:
其中,望远镜大约4万元,佳能EOS R5相机租借了两周花费2200元(市价2.5万元),462c相机不到1000元,手柄则是和朋友以物换物拿到的(市价500多元)。
3月23日,由于未能及时对焦,自动光学跟踪没能起到作用;3月27日,由于寻星镜视场只有3左右,过小的视野导致初步捕获失败,再次没能进入自动跟踪流程。
此时距离中国空间站下次可见过境还有很久。因此,在修复操作问题后(将寻星镜视场增大到15),刘博洋决定,先用即将迎来几次绝佳过境的国际空间站“练练手”。
虽然还是有不完美的地方,例如软件崩溃导致寻星镜和主镜的位置校准数据丢失,针对这个问题刘博洋又增加了校准数据记录功能。
具体来说,望远镜对空间站的抓捕分为x和y两个轴,在按下catch后,y轴很快就稳稳跟上了目标,x轴则略慢了10秒。
在30秒左右时,两个轴都保持在了一个稳定的误差范围内(四个像素左右),这种高精度跟踪持续了一共120秒,完整记录了国际空间站从接近到远离的全流程:
最初得到的原始画面大约是100多像素,最终,在经过多帧叠加的超采样处理后,图片的像素提高到了200多像素。
在谈到整个项目中最难的一个阶段时,刘博洋印象最深刻的,就是如何让望远镜被Python代码调用:
这个专业要求掌握基本的编程技能,但是刘博洋大学时的相关课程,比如计算机概论、数据结构都是低分飘过或者缓考的。
这次之所以选择自编代码操控望远镜,除了没有找到现成可用的软件之外,也是想要继续锻炼自己的编程能力。
在成功拿国际空间站”练了手“后,刘博洋充满了信心,还在考虑是否要在接下来的捕捉中适当缩小视场,进而提高拍摄的精度。
中国空间站的拍摄如果顺利,将在4月21号之前结束,之后,他就要立刻赶往青海,开展新项目:发射一枚装着自己相机的小火箭。
再远一些,刘博洋还提到了今年下半年可能会有的神舟系列的火箭、以及实验舱的发射,他到时候会拿着自己的这套跟踪空间站的程序,再去跟拍大火箭。
不过随着为国内的航天任务越来越多,我能接触到相关活动的机会也就越来越多,于是航天方面的兴趣也就逐渐发展了起来,到现在已经发展成主要的业余爱好了。