شرح وظایف:
- خواندن و درک کدهای ETL به زبان SQL و بازنویسی آنها به زبان scala
- توسعه و نگهداشت تاپیک های kafka، استریم داده و کدهای ETL به زبان scala
- توسعه و نگهداشت ماژول های انتقال دیتای دست های spark
- رصد روزانه و صحت سنجی داده های منتقل شده به بستر کلان داده
- تحقیق، جستجو و یادگیری در جهت بهبود و جامعیت Data Lake موجود
- تهیه مستندات فنی ماژول های توسعه داده شده
- تعامل روزانه با بهره برداران از زیرساخت کلان داده
دانش و مهارت های مورد نیاز:
- دانش کافی در خصوص اکوسیستم کلان داده، پردازش توزیع شده و Data Lake
- تسلط بر دیتابیس های نرمال شده
- تسلط بر زبان PL/SQL
- دانش کافی در خصوص Apache Spark
- تسلط بر زبان برنامه نویسی Java
- آشنایی با زبان برنامه نویسی Scala
- تسلط بر مفاهیم شیئگرایی در برنامه نویسی
- کدنویسی خوانا و تمیز
- نوشتن و تهیه مستندات فنی مرتبط با ماژول های توسعه یافته
- حل مسئله
- تحقیق، تجزیه و تحلیل
- کار تیمی و ارتباط موثر
نکات حائز اهمیت:
آشنایی با کسب و کار بانکی / مالی
آشنایی با مفاهیم هوش تجاری
آشنایی با HDFS / Hive / Nifi
حفظ تمرکز در شرایط کاری بحرانی
آشنایی با Git
آشنایی با دستورات لینوکس
تجربه کار با دیتابیسهای NOSQL