工作职责:
1、负责公司的大数据处理框架的研发设计
2、负责数据仓库架构设计、建模、日志传输及ETL开发,构建可扩展的数据仓库以及数据分析解决方案
3、负责公司hadoop/spark集群的部署、调优和维护
4、了解业务任务人员的分析需求,设计并完成相应的实施方案
5、对于数据异常情况进行分析排查
岗位要求:
1、熟练hadoop/kafka/flume/hive/zookeeper环境的部署、调优和维护,有spark集群维护及使用经验为佳。
2、熟练linux操作环境,熟练shell脚本,有hadoop集群自动化管理脚本编写经验为佳
3、具备分析问题、解决问题的能力,能够排查/分析数据异常
4、具备良好的学习精神和团队协作能力
5、如果以上要求都不具备,但是只要你熟悉sql和linux、能保证实习时间不低于6个月,come on
申请方式:
如果你对以上职位感兴趣,请发简历至:th_rd_core@taihe.com,邮件标题:姓名+毕业时间+开始实习时间+招聘信息来源
--
FROM 223.20.46.*