職位描述
該職位信息待核驗,請仔細了解後再進行投遞!
崗位職責:
1、負責產品計算中心方案設計實施及hadoop/spark集群線上故障處理、性能調優;
2、負責基於hadoop/spark生態係統的產品研發;
3、負責基於搜索引擎(elasticsearch)的產品研發;
4、負責基於redis,kafka集群調優及產品研發;
5、參與海量數據處理和高性能分布式計算的架構設計,負責數據處理流程的設計和代碼開發,撰寫相關文檔;
6、研究大數據、ai領域最新進展,並應用到業務中。
職位要求:
1、大學本科或以上學曆,計算機相關專業,spark/hadoop全棧優先,精通任意一棧者也可;
2、擁有實際apache hadoop/spark相關係統的調優、運維、開發經驗;
3、使用hadoop及hadoop生態圈中的常用組件,如spark、hive、zookeeper、sqoop、flume、kafka、storm、redis、spark、yarn、impala、hbase、presto、solr 等全部或者部分組件,最好精通其中1-2個;
4、熟練掌握java 、scala或者python語言,熟悉並行計算或者分布式計算,理解mapreduce、hdfs原理、spark rdd/dataframe原理。
1、負責產品計算中心方案設計實施及hadoop/spark集群線上故障處理、性能調優;
2、負責基於hadoop/spark生態係統的產品研發;
3、負責基於搜索引擎(elasticsearch)的產品研發;
4、負責基於redis,kafka集群調優及產品研發;
5、參與海量數據處理和高性能分布式計算的架構設計,負責數據處理流程的設計和代碼開發,撰寫相關文檔;
6、研究大數據、ai領域最新進展,並應用到業務中。
職位要求:
1、大學本科或以上學曆,計算機相關專業,spark/hadoop全棧優先,精通任意一棧者也可;
2、擁有實際apache hadoop/spark相關係統的調優、運維、開發經驗;
3、使用hadoop及hadoop生態圈中的常用組件,如spark、hive、zookeeper、sqoop、flume、kafka、storm、redis、spark、yarn、impala、hbase、presto、solr 等全部或者部分組件,最好精通其中1-2個;
4、熟練掌握java 、scala或者python語言,熟悉並行計算或者分布式計算,理解mapreduce、hdfs原理、spark rdd/dataframe原理。
工作地點
地址:廣州從化區
📍
點擊查看地圖
詳細位置,可以參考上方地址信息
求職提示:用人單位發布虛假招聘信息,或以任何名義向求職者收取財物(如體檢費、置裝費、押金、服裝費、培訓費、身份證、畢業證等),均涉嫌違法,請求職者務必提高警惕。
職位發布者
HR
廣東凱通科技股份有限公司
-
請選擇
-
公司規模未知
-
私營·民營企業
-
固話:

廣州
應屆畢業生
本科
2026-05-04 23:41:05
15131人關注
注:聯係我時,請說是在杭州人才網上看到的。
