星环科技在大数据行业是比较有名的,志在做大数据时代的Oracle,是全球顶尖Hadoop发行版厂商。
公司现在处于飞速发展中,由于业务需要每个岗位都需要更多的精英加盟, 无论你喜欢从大处着手(我们的系统需要处理上P的数据)还是从小处提高 (我们调整性能需要从毫秒入手), 喜欢做底层技术(Spark,Shark,HBase,Hive,HDFS,JVM调优)还是做美丽的界面(HTML,CSS,AngularJS),抑或你是一个传说中的Full Stack Engineer,在这里都能找到你的位置。
星环科技简介:
星环科技是目前国内极少数掌握大数据核心技术的高科技公司,专注于企业级大数据核心平台数据库软件的研发与服务。公司产品Transwarp Data Hub (TDH)以其业界最完整的SQL on Hadoop 支持,独特的对分布式ACID数据一致性支持;以及对SSD优化提高集群性价比等特点,比肩硅谷同行。产品的功能和性能在业界处于领先水平。在全球去IOE的大背景下,TDH已成为在数据仓库,数据集市等领域替代传统数据库公认的大数据产品。
公司研发团队是国内最早的大数据Hadoop发行版团队,从2009年起即开始致力于大数据Hadoop平台软件的开发,与硅谷同类公司同时起步;2011年在中国率先推出Hadoop发行版;之后,团队负责人原英特尔亚太研发中心CTO孙元浩、亚太区销售总监佘晖离开英特尔,创办星环科技。经过2年多发展,星环已经快速成长为一个注册资金超五千万元的高科技公司,以上海为核心总部,在北京设立分公司,并在广州、南京、济南等地分设办事处。星环已成功完成1.55亿元的B轮融资,打造了中国最顶尖的企业级Hadoop和Spark核心开发团队。星环科技将顺应时代潮流坚持大数据核心平台的研发与服务,致力于成为全球领先的大数据基础平台提供商。星环致力于深入研究分布式大数据处理领域,同时借助Apache Hadoop和Spark领先的分布式架构,为中国市场乃至国际市场提供优质的产品与服务。在这一领域,星环与美国硅谷同行同时起步,站在同一个起跑线上,并开展竞争,所以我们完全有信心和能力做出世界顶级的产品。
公司目前二百人团队,其中百分之八十为研发工程师, 以博士和硕士为主。这样的研发团队规模在国内专业大数据Hadoop开发的团队中并不多见。目前星环在金融、电信、交通、广电、电力、政府和企业等领域已经成功建立了超过一百个大数据项目成功案例,积极推动了大数据方案在中国的落地和应用。目前星环科技已经在国内建立众多大数据上线案例,案例规模和数量处于国内领先地位。
TDH一站式大数据综合平台是国内外首个全面基于Apache Spark计算框架的大数据平台软件,也是国内外领先的高性能大数据分析平台。TDH包含五个组成部分:Transwarp Hadoop发行版、Transwarp Inceptor 高速SQL引擎、Transwarp Discover大数据挖掘探索软件、Transwarp Hyperbase分布式实时数据库、Transwarp Stream流处理引擎。
咨询QQ:2335123066
职位申请方式: 简历投递至danhui.li@transwarp.io 邮件主题为“职位名称+姓名+公司”
媒体公关专员
岗位职责:
1. 媒体关系的拓展和维护,提升公司和品牌形象;
2. 负责市场热点、客户案例、行业深度分析稿件编写;
3. 协助策划和执行市场公关活动/事件,组织联络及媒体邀请等;
4. 负责公司新媒体策划、运营;
岗位要求:
1. 本科以上学历,新闻、中文、广告或相关专业,具备科技行业媒体或采编工作经验优先;
2. 文字驾驭能力强,具备快速学习能力和敏锐的行业洞察力,擅长优秀客户案例挖掘和包装;
3. 积极主动,善于沟通,抗压能力强,具有强烈的创作欲望;
4. 认真负责,具备团队合作精神
工作地点:北京或上海
数据工程师
工作职责:
PoC(Proof of Concept,原型验证),在客户业务场景下验证产品的功能与性能。在客户现场搭建大数据产品平台,与客户沟通,根据客户的需求或业务场景在大数据平台上实现
大数据平台软件的项目实施与安装部署
职位要求:
计算机或相关专业本科(或以上)学历
熟悉Linux shell以及SQL 语言
熟悉Java语言,会编写Oracle/DB2 存储过程
了解Hadoop,熟悉Hadoop,HBase,Hive基本命令
有Hadoop/HBase/Hive/Sqoop/Flume使用经验者优先
做事认真负责,沟通能力良好,自学能力较强,能够出差。
工作地点:成都、北京、广州、上海
方案构造师
职位描述:
1、根据产品特性功能结合市场需求,调研、归纳、整理解决方案材料
2、根据产品不断迭代开发功能,及时更新相关产品方案型文档
3、结合项目实施成果,归纳、整理、提取行业解决方案
岗位要求:
1.计算机、软件工程等相关专业,本科以上学历,1年以上软件行业工作经验者优先
2. 有缜密的思维逻辑能力与较强的学习能力
3. 具有良好的计划、沟通、协调能力。工作细致认真、责任心强
4. 具有比较强的文档管理与制作能力,精通word,excel及ppt
5.很好的书面和口头表达交流能力
6. 有数据库、数据仓库知识背景者优先
7. 有分布式处理知识背景者优先
工作地点:上海
售后支持工程师
工作内容:
负责大数据产品的售后产品问题解答和处理
负责大数据产品的远程PoC(原型验证)工作
职位要求:
计算机、软件工程或相关专业本科或以上学历
熟悉Linux shell以及SQL语言
了解Hadoop,熟悉Hadoop,HBase,Hive基本命令者优先
有Hadoop/HBase/Hive/Sqoop/Flume使用经验者优先
做事认真负责,沟通能力良好,自学能力较强
大数据培训师
工作职责:
负责大数据处理Hadoop、Spark课程的设计和传授:
技术包含hdfs,yarn,hive,hbase,docker等
课程内容包括底层原理,代码开发,应用实例,项目案例
参加公司产品培训,掌握公司大数据平台架构,并结合市场需求设计相应课程
完善公司对外颁发证书的认证体系,与第三方教育机构进行合作协商
职位要求:
1.对大数据技术有热情,对培训感兴趣
2.掌握java语言
3.熟悉linux系统操作
4.熟悉SQL基础语法
5.能够独立制作课程PPT,并设计相应认证考试测评
6.参加过RedHat、Oracle至少一种课程培训,取得证书者优先(加分项)
7.有一定的抗压能力
8.有钻研新技术的热情和能力,善于交流和表达,富有团队精神
地点:上海
中间件开发工程师(ETL/BI)
工作职责:
设计与开发大数据上的ETL或者BI工具,解决大数据量上数据加工/转换和展现的技术难题
职位要求:
熟悉JAVA或C++语言,熟悉SQL语言,有良好的数据结构和算法功底
熟悉报表工具,ETL工具
了解thrift,protobuf者优先
熟悉分布式编程者优先
熟悉数据仓库者优先
云计算平台开发工程师
工作职责:
基于Docker开源社区,开发高可靠自动化的云计算平台
职位要求:
掌握基础的计算机专业知识,如Linux,网络,数据库,操作系统等
对新兴事物有强烈的好奇心,有将最新的技术转化为产品的热情
有与人沟通的能力,乐意分享,敢于承诺
日常工作中熟练掌握并使用(Go, Java, C++)至少一种编程语言,熟悉Go语言者有加分,参与过开源项目者有加分
工作地点:上海
安全开发工程师
工作职责:
负责Kafka/Spark/Hive/Hadoop等基础平台的安全功能开发
职位要求:
对安全体系结构有一定了解,有身份认证和权限管理开发经验优先
熟练掌握Java或Scala语言,了解JAAS, SASL优先
熟悉计算机网络,对网络安全有一定了解
熟悉主流分布式计算框架,熟悉源码者优先
负责认真,有较强的团队合作能力
工作地点:上海
大数据云前端开发工程师
?
工作职责:
大数据管理软件Web前端的设计与开发
职位要求:
熟悉html/html5/css/css3/less/sass,对静态页面实现有一定经验和理解
熟悉页面架构和布局,对数据表现与有深刻理解,熟悉bootstrap者优先
熟练使用AngularJS进行前端开发,了解其他MVC框架并对数据前后端分离有深入理解者优先
熟悉前端自动化工具gulp/grunt/bower者优先
熟悉angular测试框架karma jasmine protractor者优先
熟悉nodejs(express框架)者优先
熟悉svn/git版本控制工具者优先
对CSS/JS性能优化、解决多浏览器兼容性问题有一定经验
对用户体验、交互操作流程设计、及用户需求有深入理解
有强烈的上进心和求知欲,善于学习和运用新知识,有良好的团队意识和执行力
工作地点:上海
?
大数据云后端开发工程师
?
工作职责:
大数据管理软件的设计与开发
?
职位要求:
扎实的Java语言编程能力
出色的troubleshooting能力(特别是在分布式环境下)
工作积极主动,自我驱动能力强
优先录取
熟悉Hadoop组件的配置和监控
熟悉Java后端框架Spring和Hibernate
熟悉AKKA
熟悉SMTP和SNMP在监控预警中的应用
熟悉Ganglia和Nagios
工作地点:上海
分布式数据库开发工程师
工作职责:
负责星环分布式存储系统的设计,开发与运维工作。
职位要求:
掌握基础计算机专业知识,具备优秀的代码编写能力
熟悉Java语言,Linux基本原理,熟悉网络编程
良好的沟通与团队协作能力;敢于创新,乐于接受挑战
有分布式存储系统(如HBase/Mongdb/cassandra等)开发或运维经验者优先
有搜索引擎(如Elasticsearch/Solr/Lucene等)开发经验者优先
工作地点:上海,北京
?
数据挖掘算法开发工程师
工作职责:
分布式机器学习算法的开发和优化
在线和离线海量数据分析平台的设计和开发
大规模数据挖掘系统的设计和实现
职位要求:
硕士及以上学历,计算机相关专业
2年及以上工作经验
熟悉常用的机器学习算法,了解不同模型的特性,具有灵活运用模型进行数据分析的能力
熟悉Spark,具有分布式数据挖掘项目经验
熟悉下列任意一种数据分析软件R/Matlab/Python
熟悉Linux平台、熟悉脚本(shell、python等)编程
具有良好的沟通能力,和良好的团队合作精神
优秀的分析问题和解决问题的能力,对解决具有挑战性问题充满激情
对机器学习/信息检索/自然语言处理/统计学习/博弈论/人工智能熟悉者优先
具有海量数据挖掘、分布式计算或高性能并行计算应用经验者优先
具有行业经验者优先
工作地点:上海,北京
并行计算平台软件工程师/高级工程师/架构师
工作职责:
负责基于Spark的并行计算平台的开发与优化工作
职位要求:
熟练掌握Java语言
有深厚的操作系统,数据结构和算法基础
熟悉并行计算或者分布式计算者优先考虑
了解Spark原理者优先
较强的团队合作能力
工作地点:上海
SQL编译器开发工程师/高级工程师
工作职责:
负责基于hadoop的SQL编译器,包括SQL的静态编译,解析执行计划和优化器的开发工作
职位要求:
熟悉编译原理,操作系统,有良好的数据结构和算法功底
熟悉SQL语言,了解存储过程和函数优先
有编译器开发经验者优先
熟悉Hive优先
较强的团队合作能力
工作地点:上海
工作地点:上海漕河泾 北京中关村
Why Join us:
1).行业前景:大数据时代核心平台数据库软件的研发,技术赶超估值超41亿美元的Cloudera,唯一一家中国公司进入Gartner报告。很有前景+钱景!
2).强悍团队:技术产品团队来自谷歌、Intel、微软、EMC、IBM、百度,员工的85%为研发工程师,以985名校博士硕士为主;配合极为彪悍的销售精英团队;
3).个人发展:团队和业务都在快速扩张,接触核心的Hadoop和Spark技术,拒绝做“螺丝钉”;
4).薪酬福利:敢与BAT叫板的薪资,全额五险一金,补充公积金,补充商业医疗保险,免费年度体检让你无忧;
5).员工培训:新人入职均会配以资深导师进行一对一辅导,让你快速成为技术大牛;
6).员工活动:不定期旅游,亲近大自然;足球、篮球、保龄球、羽毛球、K歌、游泳兴趣小组应有尽有,让你快乐工作同时身体棒棒哒!
--
FROM 116.228.132.*