【职位描述】
1、负责面向日志服务的大数据平台建设和设计;
2、为大数据日志场景的全生命周期提供服务,覆盖数据产生、传输、建模、存储、统计分析、可视化、离线消费的全流程;
3、打造下一代时序索引存储引擎。
【职位要求】
1、熟悉Linux系统、常用Linux命令,熟练掌握Java/Go/Python/cpp 任意一种语言; 有强悍的编码能力,生产环境快速 trouble-shooting 能力,对新技术有强烈的学习热情;
2、熟悉Mysql或至少一种关系型数据库,具有一定SQL书写功底、优化经验;
3、熟悉batch/实时计算领域包括hadoop、spark、flink等分布式框架的优先;
4、熟悉至少一项大数据处理/分析相关的工具/框架,e.g. Hadoop, Mapreduce, Hive, Storm, Spark, kylin,scribe, kafka, hbase, canal,sqoop etc;
5、对于索引服务 Elasticsearch & Lucene & Solr 二次开发、应用、调优者加分;
6、参与过业界先进的监控系统(比如 CAT, Apache SkyWalking) 或者擅长故障分析和排查解决问题者优先。
【相关信息】
地点:北京 or上海
邮箱:感兴趣请发站内信
--
FROM 120.52.147.*