头部公募基金,金融科技转型,对技术重视程度高,福利待遇好
工作地点建国门,薪资待遇在金融行业非常具有竞争力,感兴趣可发送简历至wolverinelwd@163.com;或微信wolerine-L详细咨询
一、高级Java开发工程师
岗位职责
1、参与公司核心系统服务端的框架设计、程序开发和开发文档编写工作;
2、协助测试,分析并解决开发过程中的各种问题;
3、对系统进行持续重构与优化,提升性能、可靠性和可维护性;
4、完成项目的测试和部署等工作,保障系统可靠运行。
任职条件
1、重点院校计算机相关专业毕业,本科及以上学历,3年及以上开发经验;
2、计算机专业基础扎实,具备良好Java基础,具备一定的系统架构能力,了解前后端开发分离原理,能够与前端开发进行紧密高效的协作;
3、熟悉Spring、MyBatis、Dubbo等开发框架,熟悉Redis、RabbitMQ、MongoDB等中间件,能熟练使用Maven、Git、SVN等常用工具;
4、熟悉至少一种RDBMS,掌握MySQL或Oracle尤佳,能够进行数据库优化查询性能优化,有高可用系统开发经验;
5、熟悉Linux系统的使用,具备一定的脚本编写能力;
6、工作积极主动,责任心强,抗压能力强,有较强的学习能力,具备良好的团队合作精神、沟通协调能力和工作推进能力;
7、有金融类大型项目系统开发经验或交易系统开发经验者优先。
二、高级数据开发工程师
岗位职责:
1. 负责公司数据平台架构设计;侧重海量客户相关应用型数据产品的规划;利用大数据相关技术设计和指导实施端到端的数据平台。
2. 建设数据指标体系和分析模型,提升数据文化、实现数据价值;
3. 负责与业务及开发团队协同规划数据采集、加工、应用、治理全过程,推动公司数字资产的落地及在业务场景中的应用。
任职条件:
1. 211/985硕士及以上学历,极佳的逻辑思维和数据思维能力,数学、计算机相关背景;
2. 5年及以上经验,熟悉海量数据的处理,精通 Hadoop/Hive,熟练掌握 Hbase/Spark/Storm 的工作原理及应用;精通至少一门编程语言,如Python、Scala;良好的数据建模能力;
3. 负责过大型数据平台设计,丰富的OLAP系统经验,精通数仓架构及实施过程;深刻理解数据治理及落地方法论,有实战经验优先;
4. 熟悉数据挖掘、机器学习算法、数据可视化者优先考虑;
5. 善于交流,有良好的团队合作精神和协调沟通能力,有与业务、产品、开发等多方密切配合的经验和意识;驱动协调多个团队达成目标
三、高级前端开发工程师
岗位职责
1、参与系统Web前端的框架设计、功能开发和维护;
2、负责界面构建、兼容和优化,与设计人员和开发人员的协同配合;
3、持续重构和改进前端技术平台,不断提升用户体验。
任职条件
1、重点院校计算机相关专业毕业,本科及以上学历;
2、三年以上Web前端开发经验,具备大中型项目实际开发经验;
3、优秀的javascript基本功,熟练运用HTML、css等前端技术;
4、熟练React进行项目开发,有完整React项目开发经验,包括架构、编码、规范制定;
5、熟悉常用的构建工具(gulp和webpack等)、包管理器(bower和npm等);
6、工作积极主动,责任心强,抗压能力强,有较强的学习能力,具备良好的团队合作精神、沟通协调能力和工作推进能力。
四、高级运维开发工程师
岗位职责:
1. 负责公司数字化运维平台的研发与建设工作,根据需求研发新功能、持续提升用户体验、提高运行效率
2. 负责监控平台的各类优化、故障排查及日常运维管理等,确保系统服务安全稳定。
3. 负责各类运维脚本的编写和工具的研发,提高运维效率,规范操作流程。
4. 负责新技术、新工具的调研和应用。我们希望你:
岗位需求:
1. 本科以上学历,计算机相关专业,三年以上开发经验。
2. 掌握python/java/golang等任一种编程语言,并能进行快速开发。
3. 熟悉常见监控系统zabbix、open-falcon、ELK等。
4. 熟练使用git/ansible/saltstack等自动化运维工具,熟悉mysql/redis/kafka等工具。
5. 有运维自动化相关系统开发经验、如CMDB、发布系统、SSO系统等
6. 能够独立完成工作,具有较强的综合分析问题及解决问题的能力。有良好的团队协作能力、沟通能力,乐于分享,有良好的服务意识。
7.具备较好项目管理与沟通技能
五、大数据运维工程师
岗位职责:
1、负责公司大数据平台的部署、管理、优化、监控报警,保障平台服务7*24稳定可靠高效运行;
2、深入理解公司大数据平台架构,发现并解决性能瓶颈,支撑业务和数据量的快速增长;
3、开发大数据自动化运维、监控报警、故障处理相关脚本和工具;
4、负责Hadoop/spark/Kafka等集群服务、业务监控、持续交付、应急响应、容量规划等。
任职要求:
1、3年以上互联网运维相关工作经验,2年以上大数据平台运维相关工作经验;
2、具备一定的故障排查能力,有良好的技术敏感度和风险识别能力,精通一门以上脚本语言(shell/python等),熟悉Http/Https、TCP/IP、SMTP等协议;
3、熟悉Linux(redhat/centos)软硬件环境、系统管理和优化,熟练部署、优化各种常用服务。熟练使用Linux 命令和常用的ssh、ftp、git、maven等开发工具;
4、熟悉Hadoop大数据生态圈、各组件原理及实现,有实际部署维护管理及优化经验,包括但不限于CDH/HDFS/YARN/Hive/Hbase/Kafka/zookeeper/Spark/Flume/Impala/Hue/Sqoop/Elasticsearch/kibana/MySQL/Oracle等;
5、熟悉掌握常用的安全协议和组件服务,对hadoop各组件的权限、安全、kerberos进行配置管理。熟悉SSL、ACL、kerberos等在大数据环境场景的使用;
6、熟悉常用运维监控工具(nagios/ganglia/zabbix/grafan/openfalcon等)和相关插件的开发。比如邮件、短信、微信报警插件等;
7、熟悉常用nginx/haproxy/varnish/netscaler等代理工具的使用和优化;
8、具备良好的服务意识,善于主动思考,自我驱动力强。有良好的沟通、协调能力,富有团队精神,有较强的文档编写能力;
9、有大数据开发经验和阅读源码能力者优先。
--
FROM 121.69.135.*