Mô tả công việc
Nghiên cứu và phát triển Big Data:
- Nghiên cứu, tối ưu và phát triển thuật toán trên các nền tảng Big Data như Hadoop, HBase, Spark, Kafka, Elasticsearch, và Hive.
- Làm việc với các công cụ xử lý dữ liệu như Spark và PySpark.
- Quản lý các hệ quản trị cơ sở dữ liệu SQL/NoSQL, bao gồm MySQL, Hive, Presto, HBase, và Cassandra.
Sản xuất và cung cấp sản phẩm phần mềm:
- Đảm bảo và hỗ trợ kiến trúc dữ liệu cho Data Scientist và Data Analyst.
- Phát triển Data Warehouse (DWH), Data Lake, và Lakehouse trên các nền tảng như Hadoop, Apache Hudi, Iceberg, và Delta Lake.
- Thực hiện các nhiệm vụ khác theo phân công trong phạm vi chức năng.
Yêu cầu công việc
- Tốt nghiệp Cao đẳng hoặc Đại học, ưu tiên các chuyên ngành CNTT, AI, Khoa học máy tính, Toán, Vật lý.
- Tối thiểu 1 năm kinh nghiệm ở vị trí Data Engineer.
Hiểu biết về hệ sinh thái IBM và có kinh nghiệm làm việc với:
- IBM DataStage: thiết kế, phát triển và triển khai pipeline ETL; quản lý và tối ưu job.
- IBM Cloud Pak for Data.
Sử dụng các dịch vụ trên Cloud Pak for Data:
- Watson Knowledge Catalog (quản lý metadata và chuẩn hóa dữ liệu).
- Watson Studio (hỗ trợ Data Science và ML pipelines).
Kỹ năng xử lý dữ liệu (ETL/ELT):
- Triển khai pipeline ETL phức tạp trên IBM DataStage hoặc công cụ ETL trong hệ sinh thái IBM.
- Quản lý xử lý dữ liệu real-time và batch.
Quản lý dữ liệu trên IBM Cloud:
- Hiểu và sử dụng IBM Cloud Object Storage trong pipeline dữ liệu.
- Triển khai và tối ưu workflow trên IBM Cloud Pak.
- Ngôn ngữ lập trình: Python, Java, và PySpark.
- Hiểu biết về giải pháp và kiến trúc Big Data, bao gồm DWH, Data Lakehouse, Kafka, Spark Streaming, và Flink.
Phúc lợi và chính sách
Dự án có thời gian 6-9 tháng.
Hợp đồng lao động: 24 triệu VNĐ.
Hợp đồng cộng tác viên: 28 triệu VNĐ.
Thời gian onboarding muộn nhất sau 2 tuần.
Quy trình phỏng vấn
2 vòng phỏng vấn online.
Công ty: Reco Agency
Địa điểm làm việc: Hà Nội
X