今天是农历腊月二十八,时间快的让人猝不及防,又是一年春节,前天刚刚结束在北京为期50天的封闭开发回到沈阳公司,趁着这个闲暇时间简单总结下自己在即将过去的2017年中的工作与生活,并展望下2018年,开启新的篇章。
1. 2017年工作总结
依然清晰记得去年春节的时候,公司让每位员工写下各自2017年KPI,我当时还是一个只会写Storm实时分析的初级开发人员,充满了对周围Spark高级工程师的崇拜,所以我在KPI写的是:1.深入了解Storm内部机制,做到不仅仅会使用Storm,还要做到知其所以然;2. 学习Spark,能够自己开发Spark离线分析程序和实时分析程序。
现在回首过去的2017年感慨颇多,虽然我已经离开了当初的公司,但在2017年我一直在按照当初的KPI努力。
- 2017年3月,我阅读了Storm的部分源码,了解了storm应用程序的启动流程,了解了Nimbus/Supervisor与Zookeeper之前通过心跳包完成数据/任务同步与状态监控,了解了Supervisor与Worker通过节点本地磁盘实现数据交换/任务分配与状态监控。
- 2017年4月,我通过Spark官方文档学习了Spark离线开发并在君哥的指导下慢慢独自开始负责一部分Spark离线报表的产出工作,但当时也只是停留在使用阶段,不了解Spark的一些细节以及具体配置。 more >>