Data Engineer Leader
  • 1 vị trí
  • 199 lượt xem

Kinh nghiệm

3 năm

Thời gian làm việc

Full Time

Địa điểm

Hà Nội

Mức lương

Thương lượng

Mô tả

MÔ TẢ CÔNG VIỆC

  • Thiết kế và xây dựng pipeline dữ liệu: Kỹ sư dữ liệu chịu trách nhiệm thiết kế, phát triển và tối ưu hóa các luồng xử lý dữ liệu (ETL/ELT) để chuyển đổi, tải và tích hợp dữ liệu từ các hệ thống nguồn (như hệ thống ngân hàng lõi, CRM, ERP) vào Data Lake. Mục tiêu đảm bảo dữ liệu được xử lý một cách nhanh chóng và hiệu quả.
  • Quản lý và bảo trì hệ thống dữ liệu: Đảm bảo rằng hệ thống Data Lake hoạt động ổn định, thực hiện bảo trì thường xuyên và cải tiến hiệu suất hệ thống khi cần thiết, bao gồm việc giám sát dữ liệu, phát hiện và khắc phục sự cố, cũng như tối ưu hóa hiệu suất hệ thống.
  • Xử lý và tích hợp dữ liệu lớn (Big Data): Với khối lượng dữ liệu lớn, kỹ sư dữ liệu cần sử dụng các công nghệ Big Data như Apache Hadoop, Spark hoặc Kafka tôi sưu hóa xử lý và lưu trữ dữ liệu một cách hiệu quả.
  • Hướng dẫn và quản lý nhóm: Quản lý nhóm, hướng dẫn và phân công công việc cho các thành viên.
  • Quản lý và giám sát: Cải tiến tối ưu hóa tốc độ và xử lý dữ liệu, đảm bảo hệ thống hoạt động ổn định

YÊU CẦU KINH NGHIỆM

  • 3-5 năm kinh nghiệm trong trong lĩnh vực quản lý dữ liệu, ít nhất 3 năm vai trò quản lý về Datalake và Bigdata.
  • Kinh nghiệm với hệ thống dữ liệu lớn (Big Data): Có kinh nghiệm làm việc với các hệ thống dữ liệu lớn, bao gồm việc xử lý và lưu trữ dữ liệu khối lượng lớn trong môi trường phân tán.
  • Thành thạo các công cụ và nền tảng Big Data: Kỹ sư dữ liệu cần có kỹ năng với các công cụ và công nghệ như Apache Hadoop, Apache Spark, và Kafka, cũng như các dịch vụ Cloud như AWS Glue, Google BigQuery, hoặc Azure Data Lake.
  • Kiến thức về cơ sở dữ liệu và ETL/ELT: Kỹ năng làm việc với cơ sở dữ liệu quan hệ (SQL, Oracle) và NoSQL (MongoDB, Cassandra) là cần thiết, cùng với kinh nghiệm xây dựng và tối ưu hóa các pipeline ETL/ELT để xử lý và chuyển đổi dữ liệu từ nhiều nguồn.
  • Hiểu biết về Python hoặc Scala: Đa số các công cụ Big Data sử dụng Python hoặc Scala để phát triển và triển khai các quy trình xử lý dữ liệu.
  • Kỹ năng và Khả năng Kỹ thuật
  • Tích hợp dữ liệu và làm việc với API: Kỹ sư dữ liệu cần có kinh nghiệm tích hợp dữ liệu từ nhiều nguồn, bao gồm các hệ thống ngân hàng cốt lõi (Core Banking), CRM, và hệ thống quản lý tài chính.
  • Kinh nghiệm với Data Lake và Data Warehouse: Hiểu biết về các mô hình lưu trữ dữ liệu như Data Lake và Data Warehouse, khả năng quản lý dữ liệu bán cấu trúc và phi cấu trúc (JSON, XML).
  • Quản lý chất lượng dữ liệu và Data Governance: Có khả năng kiểm tra và quản lý chất lượng dữ liệu, hiểu biết về các khái niệm quản trị dữ liệu (Data Governance) và thực hiện các quy trình đảm bảo chất lượng.
  • Tiếng Anh: Kỹ năng giao tiếp, đọc hiểu tài liệu ngân hàng, trao đổi với đối tác.

QUYỀN LỢI

  • Chế độ lương thưởng hấp dẫn,
  • Chế độ BHYT, BHXH, BHTN theo quy định,
  • Bảo hiểm sức khỏe cho Nhân viên chính thức,
  • Bếp ăn cho Nhân viên (công ty hỗ trợ chi phí),
  • Hỗ trợ người lao động các dịp: 30/4 – 1/5, ngày 2/9, tết dương lịch,
  • Quà sinh nhật cho người lao động,
  • Với nữ nhân viên: ngày 8/3, 20/10,
  • Với nhân viên có con dưới 15 tuổi: 1/6, trung thu,
  • Các chế độ nghỉ theo quy định của nhà nước,
  • Nghỉ mát một lần một năm, thường xuyên tổ chức các Event nội bộ,
  • Thường xuyên tổ chức các buổi đào tạo nâng cao kỹ năng nghiệp vụ, kỹ năng mềm,…,
  • Chính sách đào tạo mở, khuyến khích CBNV đề xuất khoá học nâng cao năng lực,
  • Môi trường làm việc thân thiện, năng động, đa dạng và thăng tiến.    

VỀ CÔNG TY