1. 负责大数据处理系统或应用的设计、开发、维护;
2. 平台大数据平台业务作业的开发,维护,优化和升级;
3. 负责处理平台hadoop/hive/spark/kafka等疑难问题的研究和解决;
4. 负责数据平台业务代码的编写;
5. 根据业务需求开发各类工具。
1. 计算机相关专业本科及以上学历,3年以上工作经验,有大数据项目经验优先;
2. 熟练掌握python/java/scala中至少一种编程语言;
3. 熟悉hadoop、hbase、kafka,flume、spark等相关开源项目,并从事过海量数据的实践与流数据(spark streaming)处理经验者优先;
4. 熟练使用postgresql或mysql数据库,使用过clickhouse更佳;
5. 具备hdp使用,并有相关streaming流式处理经验更佳;
6. 主人翁意识强,积极主动,善于团队协作,主动思考,自我驱动力强。
和记娱乐网站 copyright © 浩瀚深度 1994 - 2013 北京浩瀚深度信息技术股份有限公司