当前位置:网站首页 >> 作文 >> 最新hadoop待遇(十三篇)

最新hadoop待遇(十三篇)

格式:DOC 上传日期:2023-02-19 10:46:12
最新hadoop待遇(十三篇)
时间:2023-02-19 10:46:12     小编:zdfb

在日常学习、工作或生活中,大家总少不了接触作文或者范文吧,通过文章可以把我们那些零零散散的思想,聚集在一块。写范文的时候需要注意什么呢?有哪些格式需要注意呢?接下来小编就给大家介绍一下优秀的范文该怎么写,我们一起来看一看吧。

hadoop待遇篇一

1、负责全行大数据在各类业务场景中的应用规划及设计方案的制定;

2、负责对全行大数据的标准化进行梳理并制定相应方案;

3、负责制定全行的元数据集,并对元数据管理的流程、技术方案进行设计;

4、面向数据价值服务为数据应用场景进行方案设计并指导落实实施;

5、负责对大数据相关领域的创新性研究和知识产权保护工作;

6、领导交办的其他工作内容。

1、全日制本科及以上学历,计算机、通信工程、数学等相关专业;

2、具备3年以上大数据相关开发经验,2年以上大数据系统相关设计经验;

3、熟悉hadoop、hive、hbase、flume、sqoop、spark以及流式计算等大数据相关技术,并具备相关开发经验;

4、在金融行业或互联网金融领域有过相关工作经验者优先考虑;

5、具备良好的沟通能力、团队合作精神,能接受高强度工作。大数据架构师:

工作职责:

1、负责全行大数据在各类业务场景中的`应用规划及设计方案的制定;

2、负责对全行大数据的标准化进行梳理并制定相应方案;

3、负责制定全行的元数据集,并对元数据管理的流程、技术方案进行设计;

4、面向数据价值服务为数据应用场景进行方案设计并指导落实实施;

5、负责对大数据相关领域的创新性研究和知识产权保护工作;

6、领导交办的其他工作内容。

1、全日制本科及以上学历,计算机、通信工程、数学等相关专业;

2、具备3年以上大数据相关开发经验,2年以上大数据系统相关设计经验;

3、熟悉hadoop、hive、hbase、flume、sqoop、spark以及流式计算等大数据相关技术,并具备相关开发经验;

4、在金融行业或互联网金融领域有过相关工作经验者优先考虑;

5、具备良好的沟通能力、团队合作精神,能接受高强度工作。

hadoop待遇篇二

1,基于hadoop进行mapreduce、hive和hbase的应用开发;

2,维护和管理大规模hadoop集群,解决不断增长的海量数据带来的存储和计算挑战;

3,大数据平台数据清洗、转换和建模的开发。

1,熟悉hadoop/hbase/spark/hive生态环境体系的`搭建和管理,掌握hadoop、hbase、mapreduce、hdfs、hive、kylin、zookeeper等开源项目的原理和使用方法,具有实际集群搭建和调优经验;

2,熟悉并有java开发经验,有大平台架构开发经验;

3,掌握至少一种nosql数据库,具有真正项目使用经验;

4,掌握数据分析的基本流程,擅长数据采集、清洗、分析等环节;

5,熟悉后端服务(restful api服务实现)优先;

6,熟悉使用sqlserver、oracle、mysql一种;

7,良好团队协作和沟通能力;

8,大专及以上学历,3-5年及以上工作经验。

hadoop待遇篇三

岗位为公司自研大数据平台产品线,非定制外包。

1.负责公司大数据平台的hadoop技术栈研究,形成技术解决方案和整体的大数据架构。

2.负责hadoop平台(分布式存储、分布式资源管理和调度、分布式计算等)的架构研究、测试、优化搭建工作;

3.负责探索,研究新的hadoop生态中技术引擎,不断扩充平台能力。

4.制定hadoop整体集群使用规范,规范的hadoop日常维护、异常处理等工作,保障集群稳定、运行规范解决方案

5.负责公司定制项目的.大数据架构的整体解决方案

6.负责各种行业大数据在不同应用场景的最佳开发实践,提供流计算、批处理分析、数据挖掘、bi分析等技术解决方案

1.三年以上hadoop集群架构开发或架构经验。

2.精通hadoop架构的设计以及生态,hadoop的集群的搭建、部署、开发和运维

3.精通hadoop各个模块的能力定位和配置,对hdfs、hbase、mr、spark等基本组件熟知

4.熟悉linux系统及调错经验,熟悉jvm运行机制,有shell、python开发经验。

5.有钻研新技术的热情和能力,善于交流和表达,富有团队精神

6.有企业级大数据系统设计经验者优先。

7.有一定的代码经验,python/java/c++/ruby均可。

hadoop待遇篇四

1、打造业界领先的大数据基础设施,包括数据接入,同步,存储、计算,查询等环节的分布式系统,为海量数据和大规模业务系统提供可靠的基础设施;

2、与开源社区保持交流,发现对业务场景有帮助的.特性并引入生产环境,或将经内部验证的特性贡献到社区;

3、承担千台规模集群的管理工作,与业务一起解决性能优化、容量规划、预算审计等问题,保障集群高效稳定经济运行;

1、计算机基础扎实,熟悉常用数据结构和算法,具备较强的逻辑思维能力和编码能力;

2、掌握分布式系统原理,对存储、计算、消息队列、资源管理,数据同步等中的一项或多项有深入的理解和认识;

3、乐于挑战没有明显答案的问题,能快速理解业务场景,从具体问题中抽象出通用的解决方案;

4,熟悉hadoop,hbase,zookeeper,flume,k8s等基础服务中的一项或多项;

5、有kafka或者同类型技术设计开发及集群管理经验者优先。

hadoop待遇篇五

1、遵循发布、变更流程,负责系统建设和运维工作,保证其高效、稳定工作

2、负责服务系统的网络架构与安全规划,部署实施、线上系统日常的运维变更;

3、搭建和维护业务系统的运行环境,服务器架设、网络及安全配置、系统软件安装配置及优化、灾备方案实施等;

4、持续完善监控告警、故障排查。对业务系统做好监控报警,及时发现业务系统异常,并快速止损恢复,保障系统服务7x24稳定运行。

5、优化和完善现有运维流程及规范;

6、基于高效的'原则,进行必要的自动化系统和工具的建设。

7、根据业务发展和运行情况,对业务系统的部署进行架构调整和优化

8、针对业务特点设计出能够支撑大规模服务集群的运维体系,优化运维成本和效率

9、定期评估和审核计算机系统有关数据库的安全状况,关注网络安全动态,堵塞网络安全漏洞,消除网络安全隐患,确保数据访问的畅通运行

10、负责网络安全相关应急响应工作,跟进外界最新ddos/cc攻击趋势,调优公司相应的防御水平

hadoop待遇篇六

1、负责数据仓库架构设计与研发;

2、负责大数据产品的数据研发;

3、助力数据化运营业务,与算法同学配合构建丰富多样的bi应用。

1、有从事分布式数据存储与计算平台应用开发经验,熟悉hadoop生态相关技术并有相关开发经验,有spark/flink的开发经验尤佳;

2、较为丰富的数据仓库及数据平台的架构经验,精通数据仓库建模及etl设计开发;有较为系统的.海量数据性能处理经验;在大数据资产管理与治理有一定成功产品化经验;

3、具备一定的java、python语言的开发能力,具备机器学习算法能力尤佳;

4、良好的思维逻辑性、语言表达能力;有较好英语口语能力,将安排海外岗位。

hadoop待遇篇七

1、负责hadoop平台上的'数据存储,数据维护和优化;

2、编写一些pig,hive等分析脚本;

3、负责把一些分析结果导入到数据库中,为bi提供基础数据分析;

4、hadoop集群问题排查,并提出解决方案;

5、job报错问题排查;

6、根据集群的问题,开发一些监控程序,解决隐患;

7、平台工具开发或者提供第三方开源工具。

1、深入了解hadoop运行机制,包括hdfs/mapreduce/zookeeper/yarn等工作原理。

2、了解分布式系统的原理。

3、负责hadoop平台上的数据存储,数据维护和优化;

4、hadoop集群问题排查,并提出解决方案;

5、开发监控程序,解决存在的隐患;

6、有hadoop平台运维经验优先。

7、有大数据平台工具开发经验。

hadoop待遇篇八

搭建和维护hadoop数据分析平台

协助研究r与hadoop结合实施大数据挖掘

依据分析挖掘方案,建立模型、生成分析结果、统计表、图和列表等的程序代码。

协助项目团队负责人履行项目职责。

能力和技能

熟悉linux操作系统、java、hadoop的'运营及算法。

具备基本的统计编程知识,例如r、base sas、sas/stat、sas宏语言、sql。

具备一定的沟通能力。

具备有效处理多任务的能力。

具备一定的计算能力及发现细节的能力。

具备团队合作能力。

学历和经验要求:

计算机、数学专业学士学历及以上,或同等教育背景并具有统计编程经验;有hadoop运营经验、hadoop算法经验者优先。

hadoop待遇篇九

1、设计、维护及管理网络系统,确保网络系统的安全和高效

2、服务器管理和日常维护,确保所有物理机及vm虚拟机正常工作

3、执行路由器、交换机、服务器等设备的硬件升级和软件升级

4、邮件相关系统账号管理和维护

5、执行数据备份以确保需要的'时候可以及时恢复数据

6、防火墙及防病毒系统管理和维护

7、用户权限管理和密码保护

8、给用户提供结束主持和帮助,及时对公司硬件进行维护

9、鉴定和评估软、硬件产品以满足公司业务的需要,确保公司内电脑的软件license合规

hadoop待遇篇十

1、hadoop平台及各服务组件的运维、变更、故障和异常问题迅速定位;

2、hadoop平台以及相关组件的规划、部署、扩容及搭建安装;

3、定期系统分析、性能调优,优化集群性能和资源利用率,提升集群性能,保证hadoop平台各核心服务运行的稳定、高效;

4、编写运维相关的shell脚本或者python脚本,hadoop平台运维相关文档撰写;

5、负责指导中低级工程师,为集群用户和开发人员提供支持;

6、维持服务高效稳定,支撑业务和数据量的快速扩张;

1、1年半及以上hadoop生态系统运维经验。

2、熟练掌握linux操作系统,熟悉linux文件系统,内核、网络等性能优化;

3、熟练掌握hdfs、yarn、hive、hbase、spark、storm等hadoop生态组件的`功能和原理;

4、熟练掌握hadoop的安装部署及性能调优;

5、熟悉一门以上脚本语言(shell、python、perl),熟悉java;

6、具有良好责任心,团队合作意识,具有良好的沟通能力和客户服务意识;

7、对于优秀人才,学历要求可适当放宽

hadoop待遇篇十一

1、对服务器进行日常维护,确保各项服务连续正常运行。

2、负责服务器存储网络等基础平台的技术维护和问题处理;

3、负责执行大客户服务项目的定制化服务配置和硬件安装等处理工作;

4、了解操作系统安装与配置;

5、具备一定的.网络相关故障解决能力;

6、熟悉主流厂商pc服务器硬件安装与配置;

7、windows、linux、vmware等日常管理、维护;

8、负责服务器异常或故障的受理、跟踪、解决以及统计分析;

hadoop待遇篇十二

incorporated in 20xx,kpmg technology r&d centre combines four functions: r&d,in-house services,outsourced services and operational is kpmg’s first r&d centre and second delivery centre in china.

as kpmg’s first r&d centre in china,our business activities currently include:

pment,design,production of computer software and computer system integration;

,r&d and delivery of technologies

data-related services and technical support,including data development,data processing,data mining etc.

driven by increasing market demand,we will expand the r&d centre’s scope of business on an ongoing basis to enable technologies to provide quality services for our clients.

responsibilities

work as part of a team supporting the following business platforms:

- enterprise data warehouse

- provide guidance on designing big data platform architecture

- conduct research on latest big data platform products

- take responsibility for designing the core components of big data platform such as: hdfs、mapreduce、hiva、hbase

skills and experience

- familiar with linux java development environment and java ee specifications

- familiar with basic data structures and common algorithm

- familiar with shell and/or java and / or scala

- familiar with basic linux operations

- ability to multi-task,

1.参与人工智能开源开放平台核心系统的构建;

2.人工智能开源开放平台相关前沿技术、运用调研及落地;

3.负责人工智能开源开放平台性能的.优化。

1.国内学历:统招全日制985/211硕士及以上学历,取得学位证和毕业证;

2.国外学历:海外全日制硕士及以上学历;qs世界大学排名前300高等院校;海外留学时长不少于1.5年;

3.有大型互联网公司大数据平台及数据开发经验者优先;

4.扎实的java、python基础,掌握常用数据结构(链表、哈希、树)等;

5.精通linux/unix环境,熟悉linux性能调优,熟练掌握shell,有良好的计算机网络基础;

6.有较强的产品理解,能从技术角度推动产品优化;

7.有如下技能者优先,spark/spark streaming/hadoop/hdfs/kafka/elastic search;

8.英语6级,能读懂相关外文技术文献。

hadoop待遇篇十四

1.负责设计和搭建软件系统架构(平台、数据库、接口和应用架构等),解决开发中各种系统架构问题。

2.优化现有系统的性能,解决软件系统平台关键技术问题攻关、核心功能模块设计。

3.在项目需求不断细化的工程中校正整体的架构设计,以及详细模块拆分设计。

4.营造技术学习氛围,带领团队不断完善开发方法及流程,提升开发效率与质量,加强技术标准及规范。

5.带领团队攻克例如大数据量、高并发、高稳定性等带来的各种挑战及技术难关。

6.参与讨论公司产品发展方向,完整的规划和把握产品研发架构。

五年以上java开发经验,有独立完成项目经验和能力;

1.精通springmvc+mybatis或ssh等框架的.搭建和开发;

2.精通tomcat,apache,nginx等web服务器的管理和调优;

3.精通mysql/mariadb或postgres数据库的开发,管理和调优;

4.熟练使用redis,rabbitmq,mongodb等相关或类似技术;

,jquery,h5,websocket,长链接,nio等技术;

6.熟练使用linux(centos/ubuntu)操作和管理;

7.擅长系统性能调优和疑难问题调试;

8.熟悉oracle、hbase、hive等数据库的开发优化;

9.熟悉hadoop、spark等大数据平台;

10.懂得构建高性能高并发分布式服务架构体系优先;

11.懂的数据安全、应用安全和系统安全可以加分;

12.具有团队合作精神、能带队和懂项目管理可以加分。

全文阅读已结束,如果需要下载本文请点击

下载此文档
a.付费复制
付费获得该文章复制权限
特价:5.99元 10元
微信扫码支付
已付款请点这里
b.包月复制
付费后30天内不限量复制
特价:9.99元 10元
微信扫码支付
已付款请点这里 联系客服