职责
1)参与百度 Spark/MapReduce 等分布式计算引擎和平台的研发工作,覆盖但不限于高吞吐离线计算、高性能数据分析、数湖数仓等场景
2)参与百度云大数据产品研发工作,实现极高性价比、极致资源弹性的产品能力
3)探索新架构、新技术、新硬件,设计并开发下一代分布式计算系统
要求
1)本科及以上学历,计算机专业优先,熟悉数据结构、算法、操作系统、网络等基础原理
2)精通Spark/Hadoop 生态和原理,具备大规模的大数据开发经验,有源码经验和开源社区经验优先
3)精通Java 高性能后端服务开发,具备云计算产品经验优先
4)具有很强的目标感、自驱力,优秀的跨团队协同能力,良好的的工程师素养,喜欢挑战并善于将事情做成
投递邮箱: lijunqing@baidu.com
邮件标题形式:[水木-社招]+姓名
补充:
1)团队多个spark及周边社区的committer和pmc,技术影响力高
3)团队氛围活跃,各种恰饭打球等你来
PPS:机会难得,欢迎各位叨扰。
--
修改:ljqwzq FROM 220.181.3.*
FROM 220.181.3.*