-
职位描述
职位信息 1. 负责基于Hadoop/Spark平台搭建的数据仓库做数据建模、ETL处理等工作 2. 使用Hive和Spark组件开发数据处理任务 3. 对系统框架相关技术和业务进行内部培训,指导开发人员,解决系统开发、运行中出现的各种问题。 任职资格: 1. 三年工作经验及以上,有至少二年的大数据行业实践经验。 2. 熟悉大数据Hadoop或Spark生态,并有实践经验。 3. 熟悉数据仓库的建模,精通SQL,熟练使用相关工具进行ETL开发 4. 熟悉Python、Scala语言优先考虑 5. 有良好的表达能力和团队合作精神,很好的分析问题、解决问题能力,对技术和业务理解能力强;
-
工作地址
广东省广州市天河区五山路248号金山大厦南塔1202-1204