您当前的位置: 首页 > 职位列表 > 职位详情

大数据与人工智能运维负责人

2-3万元/月
投递简历
上海-虹口区
5-10年
2025-10-27 14:21:11 更新 被浏览:479 次
天翼支付科技有限公司
最近在线时间:2025-10-27 14:21:11
电话:132********
地址:北京市西城区阜成门外大街31号4层429D
职位描述

注:仅接受7-10年大数据平台运维经验,且具有Hadoop集群规模百台以上、数据规模PB级以上运维经验者简历,不满足者勿扰。

职位职责:
1.团队管理:参与运维团队的日常运作与人员协调,为公司内外部客户提供高效、稳定的技术服务支持;
2.集群运维:承担大数据中台系统的部署、配置、维护及性能调优工作,保障系统持续稳定高效运行;
3.故障处理:及时响应并有效处置系统异常,建立健康检查预警机制,持续提升系统可用性;统筹故障应对的事前预防、事中控制和事后复盘流程;
4.安全管理:构建并优化数据安全防护体系,确保平台数据的完整性与保密性;
5.技术选型:结合业务发展需求,协同开发团队评估并选定适配的大数据生态组件与技术方案;
6.项目支持:为各业务线及研发团队提供专业技术支撑,参与需求评审、架构设计等相关技术环节;
7.文档编写:编制运维相关技术文档,包括操作规范、排错手册等,推动知识积累与共享。

岗位要求
1.基本要求:具备良好的团队领导能力,能在高压与复杂环境下有序组织运维工作;自我驱动性强,抗压能力出色;学习能力强,乐于技术分享;具备良好沟通意识和协作精神,心态积极开放;
2.准入条件:拥有百台以上Hadoop集群、PB级数据规模的实际运维经历;
3.工作经验:本科需8年以上实际从业经历,硕士需6年以上;
4.教育背景:全日制211/985院校计算机科学或相关专业本科及以上学历;
5.运维经验:至少5年专注于大数据平台运维,尤其在Hadoop生态体系方面有深厚积累;
6.技术能力:精通Hadoop架构及其核心模块(如HDFS、YARN),熟悉常用生态组件(如Kerberos、LDAP、ZK、Hive、Spark、Flink、Kyuubi、Kafka、HBase等);熟练掌握Linux系统原理,具备Shell脚本编写能力,掌握Python或Java编程;
7.加分项:具备K8S集群运维经验;有GPU、向量数据库等AI相关技术栈的运维实践;了解AmbariMpack二次开发。

求职提醒:求职过程请勿缴纳费用,谨防诈骗!若信息不实请举报。
该公司的其他职位
广州番禺区急招软件测试
2-4万元/月
广东-广州
2025-10-30 09:17:41
投递简历
前端架构师(外包职位)
1.5-2万元/月
北京-西城区
2025-10-27 14:21:22
投递简历
前端架构师(外包职位)
1.5-2万元/月
北京-西城区
2025-10-27 14:21:18
投递简历
测试开发专家
2-3.5万元/月
北京-西城区
2025-10-27 14:21:17
投递简历
机器学习算法研发工程师
2-4万元/月
北京-西城区
2025-10-27 14:21:17
投递简历
解决方案岗(售前)(MJ001240)
1.8-3万元/月
北京-西城区
2025-10-27 14:21:16
投递简历
反欺诈算法工程师
2-4万元/月
北京-西城区
2025-10-27 14:21:10
投递简历
Node.js系统架构师
2-3万元/月
北京-西城区
2025-10-27 14:21:08
投递简历
B端产品高级经理
2-4万元/月
北京-西城区
2025-10-27 14:21:08
投递简历
穿透式监管数据解析岗位(MJ001319
1.8-3.5万元/月
上海-虹口区
2025-10-27 14:21:03
投递简历
推荐企业 职位专题
天翼支付科技有限公司
公司主页 >
微信求职找工作
手机扫一扫
手机扫一扫
随时随地找工作

海量高薪岗位在线免费直招 招聘者/求职者电话直聊

微信小程序
手机也能找工作