最近公司安排了比较富裕的时间,让我进行自学,最近一年虽然做了一些大数据包括JStorm、Spark、ElasticSearch等项目,但仍然停留在使用阶段,对其中的具体细节并没有有一个深入的理解,也没有进行很好的梳理这才有了上半年的JStorm源码分析,但鉴于时间原因,对JStorm的源码的阅读,也仅仅停留在Nimbus、Supervisor启动、Topology的提交阶段。因此正好利用这个难得的学习时间段,系统的研究一下Spark、HBase、ElasticSearch、Kafka这几个大数据组件,正好包括了从数据输入端到计算引擎,再到数据库存储、数据检索整个大数据处理流程。通过近些天的学习,由于公司还没有安排具体的项目进行实践,因而计划在学习过程中,对所学内容在博客上进行一个系统的梳理。有时候静下心来想想,博客更大程度上是写给自己看的,只有不断的梳理知识点,不断的改进与完善,才能真正将知识点转变为自身的内在。近一段时间内,主要会写《Spark系列》、《HBase系列》、《ElasticSearch系列》等内容,更多的是对所学知识的一个梳理与总结。
ps:最近在学习的过程中,看了网上以下大牛写的技术博客,文章的严谨性、系统性、专业性以及配图,让我感触很深,在今后我也会好好写自己的博客,使之更专业,更严谨,而不仅仅是当作学习笔记或学习总结。
这里有一些好的博客网址,推荐给大家:
HBase: 有态度的HBase/Spark/BigData
Spark: 守护之鲨
大数据网站:过往记忆大数据网站
由于种种原因,换了公司,新的征程已经开始,我不是技术大神,但我在成为大神的路上,前行……((写给自己,明年的这个时候,不知又是怎样的情景,Fighting!!!))