大数据运维工程师招聘要求(3-4人):
1. 硬件故障是常态,通过告警,日志,维护命令等识别故障,并支持硬件更换,熟练掌
握linux系统。
2. 大多使用PC Server挂本磁盘的存储方式,极少情况会使用SAN(存储区域网络)或NAS
(网络附属存储),熟悉分区,格式化,巡检等基本操作。
3.网络的配置变更更需要比较专业的知识,但网络硬件和配置出问题概率很低,主要关注
丢包,延时。
4.使用过hadoop生态(spark,hive,zookeeper,MR,hdfs.....)
5.熟悉shell脚本(会写,会读)
6.管理过至少100以上的节点服务。有过故障恢复服务的能力和经验,能够及时准确的反
馈和解决问题。
数据应用管理工程师(3-4人):
1.熟悉大数据组件(Zookeeper、Hdfs、Hive、Spark、Hbase、Sqoop、Phoenix等)。
2熟悉平台采集生产调度和组件管理服务系统包含ETL、Beh-Manager。
3.部署过100以上节点。处理过5PB以上的数据
4.熟悉个组件的用途,特性,配置等。
5. HBase关注读写性能,服务的可用性,.Kafka关注吞吐量,负载均衡,消息不丢机制,
Flume关注屯度量,故障后的快速恢复。
6. 通过告警,日志,维护命令等识别故障,熟练掌握linux系统。
7.会分析数据,根据业务需求找出有价值的数据。
8.人品优良,做事严谨,细心,尽快熟悉业务,喜欢大数据生态圈。
同时还招:产品经理、项目(技术)经理、Java开发、web前端开发
联系方式:171274409@qq.com
--
FROM 222.128.93.*