首页 > 简历攻略 > 大数据工程师主要是做什么的?

大数据工程师主要是做什么的?

2024-01-12 22:14:34

大数据工程师主要是做什么的?

大数据工程师主要是做什么的?

大数据工程师的主要工作是:分析历史、预测未来、优化选择。

1、分析历史,找出过去事件的特征:

大数据工程师一个很重要的工作,就是通过分析数据来找出过去事件的特征。找出过去事件的特征,最大的作用是可以帮助企业更好地认识消费者。通过分析用户以往的行为轨迹,就能够了解这个人,并预测他的行为。

2、预测未来,预测未来可能发生的事情:

通过引入关键因素,大数据工程师可以预测未来的消费趋势。

3、优化选择,找出最优化的结果:

根据不同企业的业务性质,大数据工程师可以通过数据分析来达到不同的目的。

在工作岗位上,大数据工程师需要基于Hadoop,Spark等构建数据分析平台,进行设计、开发分布式计算业务。负责大数据平台(Hadoop,HBase,Spark等)集群环境的搭建,性能调优和日常维护。负责数据仓库设计,数据ETL的设计、开发和性能优化。参与构建大数据平台,依托大数据技术建设用户画像。

扩展资料:

大数据工程师可以从事对大量数据的采集、清洗、分析、治理、挖掘,并对这些数据加以利用、管理、维护和服务的相关技术工作。

大数据工程师专业技术水平等级培训考试分初级、中级、高级三个级别。

大数据工程师培养人群:有志于从事大数据采集、清洗、分析、治理、挖掘等技术研究,并加以利用、管理、维护和服务的工程技术人员。

大数据工程师初、中、高三个级别考试均设《大数据理论基础》、《大数据技能实操》两个科目。

参考资料:百度百科-大数据工程师

大数据工程师主要是做什么的?

大数据开发工程师以后可以从事哪些岗位?

大数据开发工程师可以从事以下岗位:

1. 大数据工程师:负责搭建大数据平台、开发和优化数据处理系统和数据仓库。

2. 数据架构师:负责设计和管理企业的数据架构,确保数据在系统中的完整性和一致性。

3. 数据仓库架构师:负责设计和开发数据仓库,使商业智能系统从中获取可靠数据以支持业务决策。

4. 数据科学家:利用数据分析和统计技术帮助企业发现数据中的重要信息,提供商业洞察。

5. 机器学习工程师:建立机器学习系统以自动化数据分析和预测,提供高效率和精度。

6. 数据分析师:负责分析和解释数据,评估业务决策并提供指导建议。

7. 数据治理专员:开发和执行数据治理策略,确保数据质量和信息安全。

8. 数据质量工程师:负责创建和执行数据质量检查和验证规则,保证数据准确性和完整性。

9. 数据基础架构工程师:管理和优化企业数据基础设施的表现和可靠性,以支持各种业务用例。

10. 大数据系统管理员:监测和维护大数据平台性能,并对系统中的错误进行排除,确保系统满足业务需求。

大数据工程师主要是做什么的?

大数据运维工程师的基本职责

大数据运维工程师需要处理公司大数据平台各类异常和故障,确保系统平台的稳定运行。下面是我为您精心整理的大数据运维工程师的基本职责。

大数据运维工程师的基本职责1

职责:

1、技术保障各底层支撑系统的可靠性与稳定性;

2、负责车辆网平台的运行监控的解决方案编制、实施与二次功能开发;

3、负责技术文档手册编写,更新,经验总结沉淀,培训分享;

4、负责对新技术和方案进行调研,评估和引进,用技术去提升运维生产效率

任职资格:

1、熟悉常见的应用服务部署和调优(Nginx、MySQL、Redis、MongoDB、ELK,Hadoop等),熟悉高可用集群、负载均衡集群的规划与搭建;

2、熟练使用Linux、TCP/IP网络协议栈,了解常用的Troubleshooting手段和常见性能指标

3、具有车联网平台运维的经验,精于容量规划、架构设计、性能优化;

4、熟悉主流PaaS云产品的使用,具有运维平台开发经验者、参与过开源产品的开发者优先;

5、优秀的沟通能力,出色的学习与钻研能力,良好的问题分析与解决能力;

6、对行业技术敏感度高且细致,善于思考,乐于发现,对解决具有挑战性问题充满激情。

大数据运维工程师的基本职责2

职责:

1、负责维护服务器的运行,包括巡检、故障排除、数据备份等业务,保证服务器高质量、高效率运行状态;

2、负责服务器漏洞整改及补丁升级;

3、负责hadoop运维相关工作;

4、负责大数据平台的日常部署、升级、扩容、迁移;

5、负责高并发,大存储和实时流的Hadoop/spark大数据平台规划,运维,监控和优化工作。

任职资格:

1、2年左右服务器运维经验;

2、对linux基础运维命令熟悉,shell,python至少精通一种,如会scala语言可优先考虑;

3、熟悉Linux的维护和管理,熟悉bat及Shell脚本开发,能看懂Python/Scala优先;

4、做过大规模hadoop集群优先;

5、大数据项目:包括不限于hadoop、hive、kafka、hbase、spark、Kudu、Impala等大数据生态的平台搭建,监控,运维,调优、生产环境hadoop集群trouble shooting 、hadoop版本升级管理及优化支持。

大数据运维工程师的基本职责3

职责:

1、负责Hadoop平台搭建,运维,管理,故障处理。

2、负责保障大数据平台的高效运转、提升系统稳定性和安全性。

3、对平台的Hadoop,Hbase,Kafka,Hive等进行优化。

4、建立Hadoop集群管理和维护规范,包括版本管理和变更记录等。

岗位要求:

1、有丰富的Hadoop生态系统的运维经验,了解Hadoop、Storm、Spark、Kafka这些组件的原理,具备部署、实施、维护hadoop 及相关组件的能力;

2、至少精通 Perl/Python/Shell脚本语言中的一种;

3、掌握Linux操作系统的配置,管理、优化以及各种常用命令,能够独立排查及解决操作系统层的各类问题;

4、分析问题能力优秀,善于从各种系统、应用日志中寻找出问题的原因。

5、有独立分析问题和解决问题的能力,能出差。

大数据运维工程师的基本职责4

职责:

1.负责Hadoop、spark、hbase、oozie、hive等平台运营和优化工作,保障平台服务运行稳定、高效。

2.负责大数据方案架构及方案落地;

3.开发Hadoop大数据管理平台与监控建设;

3.负责hadoop平台部署、维护;生产问题、告警、故障处理及服务器维护、日常值班;

4.负责集群网络架构、机器管理等。

任职资格:

1. 全日制本科以上学历,三年以上后台系统运营工作经验;

2. 熟悉hadoop原理,具有Hadoop平台应用及管理经验,熟悉hadoop、hive、spark、hbase、oozie、druid、kylin、flink等开源项目及部署、维护、调优;

3. 熟悉linux操作系统及调优;熟悉sql编程,熟悉Shell/Python/Java/Perl语言的一种或多种,有开发经验优先, 熟悉nagios,cacti,ganglia,zabbix,zenoss优先;

4. 对大数据和自动化运维开发有浓厚兴趣,有大规模hadoop运维经验者优先;有hadoop/hbase/spark/hive 开发经验者优先。

大数据运维工程师的基本职责5

职责:

1. 负责大数据平台的稳定性和性能优化;

2. 负责大数据项目的运维工作;

3. 针对业务需求制定统一的运维解决方案;

4. 完善自动监控报警系统,对业务层面关键指标进行监控与报警通知;

任职要求:

1、熟练掌握hadoop平台搭建、维护,有平台优化经验;

2、熟悉HDFS、Hive、Spark、HBbase、Kafka、Flume等组件的原理,有阅读源码能力者优先;

3、熟悉腾讯云产品,有腾讯云EMR使用经验者优先考虑;

上一篇:如何做述职报告ppt 下一篇:如何制作一份述职报告ppt详细

联系我们 | 关于我们 | 公司介绍 | 常见问题

脚步网,高端简历在线制作平台,各行各业的简历模板应有尽有

版权所有 2012-2021 脚步网 琼ICP备2023002197号-5