招聘|字节跳动云原生计算团队,期待你的加入

团队介绍

字节跳动云原生计算团队支持字节今日头条、抖音、西瓜视频、幸福里、飞书等各条业务线,为离线 ETL & 机器学习、AML、推荐、数仓、搜索、广告、流媒体、安全和风控等核心业务场景和中台体系提供存储、计算、资源调度等底层支撑。

你将获得

个人成长:深度参与超大单体作业和超大集群规模应用场景下的性能优化与改造,获得高速的个人成长

业务经验:深入参与大数据生态 ToB 业务,为互联网、金融、政企等客户提供火山引擎企业级 Serverless 云原生大数据产品和服务,积累丰富的行业经验

公司福利:平等开放的工作氛围、弹性灵活的工作时间、营养均衡的三餐和住房补贴、免费健身房和娱乐中心、完善的商业保险......

招聘岗位

产品岗位

大数据产品专家 - 商业化(生态及解决方案方向)

职位描述

  1. 大数据产品标杆行业客户 POC,典型场景或解决方案沉淀,确保重点合作项目的拆解和落地,推进项目实施以及解决方案可复制;
  1. 整合外部生态伙伴及内部上下游团队,形成生态联盟合作,制定合作业务目标、业务落地策略,推动合作业务结果达成。

职位要求

  1. 具有大数据产品解决方案联调和适配的经验,能够沉淀与生态伙伴的联合行业大数据解决方案;
  1. 具有 POC 和现场调试、部署交付大数据产品的动手能力和经验;

工作地点: 北京、上海、杭州、深圳

1、大数据产品专家 - 商业化(生态及解决方案方向).jpg

【扫码一键投递】

大数据产品专家-开源大数据引擎

职位描述

  1. 基于开源技术发展和客户需求规划大数据引擎类产品路标,产出安全、稳定、易用产品并持续优化,对客户转化、留存、客户价值及满意度负责;
  1. 协调并驱动研发、测试、运营等多个团队共同完成产品业务目标,推进产品市场推广,包括内外部培训,市场活动,数据分析等。

职位要求

  1. 熟悉开源大数据引擎,具有云计算厂商产品设计经验,包括产品架构、产品UI、产品商业化及 Go to Market 等;
  1. 参与过公共云、专有云或混合云大数据产品设计,或者具备传统B类软件厂商产品设计经验者优先。

工作地点:北京、上海、杭州、深圳

2、大数据产品专家-开源大数据引擎.jpg

【扫码一键投递】

研发岗位

流式计算研发工程师/架构师

职位描述

  1. 构建高效,实时,稳定的流式计算引擎,支撑字节跳动公司内数多个产品线的推荐和广告业务;
  1. 构建高性能,高易用的 SQL 引擎,构建基于 SQL 的批流统一计算引擎,构建稳定高效的全图离线计算引擎,探索流式计算在新兴硬件,实时数仓,机器学习,图计算,准实时交互式查询等技术解决方案。

职位要求

  1. 精通 Java/C++/Go 等编程语言之一或多个,对数据结构及算法有较强的功底;具备并行计算或者分布式计算原理,熟悉高并发、高稳定性、可线性扩展、海量数据的系统特点和技术方案;
  1. 对开源计算框架 Flink/Calcite/Storm/Kafka/Yarn/Hive/Spark/Kubernetes 有一项或多项深入研究和相关经验者优先;对机器学习,图计算,OLAP 有深入研究和经验者优先。

工作地点:北京、杭州

3、流式计算研发工程师:架构师.jpg

【扫码一键投递】

火山引擎云原生大数据 JAVA 工程师/架构师

职位描述

  1. 深入理解内外部客户需求,解决实际问题,并从中提炼通用能力,为企业客户提供弹性、Serverless 化的云原生大数据产品;
  1. 独立完成中小型项目的系统分析、设计,并主导完成详细设计和编码的任务;
  1. 技术预研和技术难点攻关,保障系统可用性、稳定性和可扩展性。

职位要求

  1. 本科及以上学历,计算机相关专业,1年及以上相关工作经验;
  1. 熟悉 Linux 操作系统、数据结构及算法等基础知识;熟练使用 JAVA 语言,有高质量、高效率代码开发经验,良好的 TroubleShoting 能力;熟练使用 Java 后端开源框架 spring boot 等;具备良好的面向对象编程经验,具有很强的系统分析设计能力,熟悉常用设计模式。

工作地点:北京、上海、杭州

4、火山引擎云原生大数据JAVA工程师:架构师.jpg

【扫码一键投递】

火山引擎大数据测试开发工程师/架构师

职位描述

  1. 参与火山引擎大数据产品的质量和测试相关工作;
  1. 负责 DFX 和测试自动化工作,提升整体测试效率;
  1. 通过规划可靠性、性能测试等,有效指导测试业务的开展,提升产品竞争力。

职位要求

  1. 3年及以上测试开发经验; 深入掌握测试体系、测试流程和测试技术,能够通过技术体系化解决质量问题;
  1. 具备工程化和业务建模能力,有质量体系的测试技术建设经验;
  1. 具备可靠性测试、性能测试、自动化测试等方向的相关经验;
  1. 加分项:具备公有云/专有云大数据产品、大数据生态开源工具/开源引擎、云原生生态 Kubernetes 等系统测试开发或深度使用经验。

工作地点:北京、上海、杭州

5、火山引擎大数据测试开发工程师:架构师.jpg

【扫码一键投递】

实时引擎 C++ 研发工程师/架构师/研发 Leader

职位描述

  1. 参与字节实时引擎的研发工作;
  1. 对基础核心数据处理流程进行性能优化(包括算法优化,代码实现的软优化和硬优化)。

职位要求

  1. 精通 C/C++ 编程优先,有很强的代码阅读、分析和设计能力;如果熟悉 Java编程更佳;
  1. 熟悉 Linux 系统下进程性能调优优先;
  1. 熟悉 LSM,SQL 引擎者优先。

工作地点:北京、杭州

6、实时引擎c++研发工程师:架构师:研发leader.jpg

【扫码一键投递】

分布式消息平台高级研发工程师

职位描述

  1. 负责多款明星产品消息平台的研发;
  1. 负责字节跳动自研的新一代计算和存储分离架构的万亿级消息平台的研发;
  1. 负责系统的成本优化、稳定性改进和性能提升;
  1. 负责分析业务需求,拓展消息平台的功能。

职位要求

  1. 熟练掌握至少一种主流编程语言:C、C++、Java和Go;
  1. 熟悉常用的数据结构和算法,并能根据场景灵活运用;
  1. 有大规模、高性能和高可用分布式系统开发经验者优先;
  1. 对分布式流处理平台 Kafka、实时分布式消息平台 NSQ、高性能分布式消息和流平台 RocketMQ、分布式消息系统Pulsar等有开发经验者优先;
  1. 对系统性能剖析和优化有经验者优先。

工作地点:北京

7、分布式消息平台高级研发工程师 .jpg

【扫码一键投递】

大数据存储研发工程师

职位描述

  1. 参与大数据存储相关产品的设计,负责存储产品相关功能的设计、交付和维护;
  1. 发现产品缺陷,设计高可用、易扩展的方案解决问题,实现产品高质量、高效率发布。

职位要求

  1. 熟悉大型分布式存储系统的关键技术点,能分析业务需求,产出产品解决方案;
  1. 熟悉 Java/C/C++/Go 等其中一种语言,熟悉网络编程和多线程编程,参与研发,完成产品落地;
  1. 熟悉大数据体系生态,除存储系统外,熟悉至少两种相关生态组件(如Yarn、Spark、Flink、Kafka、HBase)的原理、架构和应用;

工作地点:上海

8、大数据存储研发工程师.jpg

【扫码一键投递】

计算引擎研发工程师/架构师-基础架构

职位描述

  1. 负责 Ray 内核研发&基础设施建设,如 GCS HA /资源隔离/ K8s 等;
  1. 深入理解业务,支持内部 Ray 的业务场景,包括图学习/机器学习训练等。

职位要求

  1. 具备扎实的计算机基础和数据结构与算法功底; 精通 C++ 编程语言;
  1. 具备大规模分布式系统的研发和优化能力;
  1. 对 Ray 有深入研究或者实践经验,对 Hadoop MapReduce/Spark/Flink 等开源计算框架有深入研究或有实践经验,对 TensorFlow/PyTorch/MXNet 等开源深度学习框架有深入研究或有实践经验优先。

工作地点:杭州

9、计算引擎研发工程师:架构师-基础架构.jpg

【扫码一键投递】

分布式训练框架研发工程师

职位描述

  1. 构建高效、可靠、易用的分布式框架, 支撑公司大规模机器学习系统的编排调度;
  1. 构建流批一体的特征存储系统,支撑公司海量特征、样本的存储与展示;
  1. 构建灵活、高性能的数据湖导入和读取系统,提升特征处理能力,加速训练。

职位要求

  1. 具备扎实的计算机基础和数据结构与算法功底;具备大规模分布式系统的研发和优化能力;
  1. 对 Hudi/Iceberg/Delta Lake/Hive 等有深入研究或有落地经验,对 Hadoop MapReduce/Spark/Flink 等开源计算框架有深入研究或有实践经验,对 TensorFlow/PyTorch/MXNet 等开源深度学习框架有深入研究或有实践经验,对 kubeflow/submarine 等项目有深入研究或有实践经验优先。

工作地点:北京、杭州

10、分布式训练框架研发工程师.jpg

【扫码一键投递】

Spark 开发工程师/架构师

职位描述

  1. 参与字节内部 Spark 在大规模离线数据处理场景稳定性&内核性能优化;
  1. 参与自研 Shuffle Service,支持内部 Spark/Flink/MapReduce 作业;
  1. 参与 Serverless Spark ToB 相关产品技术研发。

职位要求

  1. 对 Hadoop/Spark/Flink/Presto 等开源大数据计算框架以及场景有深入研究或有实践经验;
  1. 熟悉 SQL 引擎内核优化,如 codegeneration/vectorized 等;
  1. 精通 C++/Java 编程语言;
  1. 具备大规模分布式系统的研发和优化能力。

工作地点:北京、杭州

11、Spark 开发工程师:架构师.jpg

【扫码一键投递】

297
2
0
0
关于作者
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论