شرح موقعیت شغلی
ما به دنبال یک کارشناس پایگاه داده با تجربه و درک عمیق از سیستم های Data Lake، Data Warehouse و Database هستیم. در این نقش، شما مسئول طراحی، توسعه و بهینهسازی زیرساختهای داده در مقیاس بزرگ خواهید بود تا یکپارچگی بینقص، دسترسی بالا و مقیاس پذیری تضمین شود. کاندیدای ایدهآل باید در روش های مدیریت داده تخصص قوی داشته باشد و بتواند راهحلهای پیشرفته ای را برای پشتیبانی از جریانهای کاری تحلیلی پیچیده و نیازهای بلادرنگ (real-time) پیادهسازی کند. همچنین، شما با تیمهای هوش مصنوعی همکاری نزدیک خواهید داشت تا مدل ها و راهحلهای هوشمندی ایجاد کنید که از دادههای ما به طور موثر بهره برداری کنند.
مسئولیتهای کلیدی
• Data Pipeline Development: طراحی، توسعه و نگهداری پایپلاینهای ETL/ELT مقیاسپذیر برای استخراج، تبدیل و بارگذاری کارآمد دادهها در سیستمهای متنوع. اطمینان از سازگاری، قابلیت اطمینان و قابلیت حسابرسی دادهها.
• Data Lake & Data Warehouse Management: رهبری در طراحی، بهینه سازی و نگهداری Data Lakeها و انبارهای داده برای سازمان دهی و بازیابی کارآمد داده ها، تسهیل تصمیم گیری مبتنی بر داده.
• Database Management : مدیریت و بهینه سازی پایگاه های داده رابطه ای و NoSQL برای تضمین عملکرد بالا، یکپارچگی داده و امنیت. استفاده از تکنیک هایی مانند indexing، sharding و replication.
• یکپارچه سازی و تجمیع داده: توسعه جریان های کاری برای یکپارچه سازی و تجمیع داده ها از منابع متعدد، ایجاد مجموعه دادههای غنی شده مناسب برای تحلیل و گزارش دهی
• بهینه سازی عملکرد: نظارت و بهبود مستمر عملکرد Data Lake ، انبارهای داده و پایپلاینهای مرتبط برای مدیریت ورودی و تبدیل دادههای بزرگ مقیاس.
• تضمین کیفیت داده: با پیاده سازی و اعمال استانداردهای کیفیت داده، شامل اعتبارسنجی خودکار، تشخیص ناهنجاری و فرآیندهای تطبیق، دقت و قابلیت اطمینان داده ها را تضمین نمایید.
• روحیه کار تیمی: با همکاری نزدیک با دانشمندان داده، تحلیل گران کسب وکار و مهندسان هوش مصنوعی، اطمینان حاصل کنید که زیرساخت داده از تحلیل ها، یادگیری ماشین و اهداف کسب وکار پشتیبانی می کند؛ این همکاری امکان توسعه بی نقص مدلهای هوش مصنوعی را فراهم می آورد.
• پشتیبانی زیرساخت: با تیم DevOps همگام شوید تا استقرار زیرساخت های داده ابری را سازمان دهی کنید، از ابزارهای "زیرساخت به عنوان کد" بهره ببرید و مقیاس پذیری، تحمل خطا و بازیابی از فاجعه را تضمین نمایید.
مهارتها و صلاحیتها
• مهارت های ارتباطی: تسلط قوی در ارتباط نوشتاری و گفتاری انگلیسی برای بیان موثر مفاهیم فنی به ذینفعان فنی و غیرفنی.
• تجربه: حداقل 3 سال تجربه حرفه ای در مهندسی داده، با تخصص عملی در مدیریت دریاچه های داده پیچیده، انبارهای داده و پایگاه های داده توزیع شده.
• Data Lakes: تجربه اثبات شده در طراحی و پیاده سازی معماری های Data Lakes با استفاده از ابزارهایی مانند Amazon S3، Azure Data Lake یا Google Cloud Storage.
• Data Warehouses: تخصص در پلتفرم هایی مانند Amazon Redshift،Snowflake یا Google BigQuery، با تمرکز بر طراحی پیشرفته اسکیما و بهینه سازی کوئری.
• مدیریت پایگاه داده: تسلط قوی به SQL، (با تجربه در مدیریت پایگاههای داده رابطه ای (مانند PostgreSQL و MySQL و سیستم های NoSQL مانند MongoDB و Cassandra.
• توسعه ETL: مهارت در ابزارهای ETL مانند Apache Airflow، Talend یا Informatica برای خودکارسازی جریان های کاری داده.
• برنامه نویسی: مهارت های قوی در Python، با تاکید بر نوشتن کد تمیز، ماژولار و مستند.
• پردازش داده های بزرگ: دانش عمیق از فریم ورک های داده بزرگ مانند Apache Spark، Hadoop یا Kafka برای پردازش دادههای توزیع شده و جریانی.
• پلتفرم های ابری: تجربه عملی با پلتفرم های ابری مانند AWS، Google Cloud یا Azure، شامل استفاده از ابزارها و خدمات ابری.
• جریان بلادرنگ: تجربه با پلتفرم های جریان داده بلادرنگ مانند Apache Kafka یا Amazon Kinesis برای نگهداری پایپلانهای بلادرنگ.
مهارت های ترجیحی
• Containerization & Orchestration: تجربه با Docker و Kubernetes برای کانتینرسازی و مدیریت بارهای کاری توزیع شده.
• تصویری سازی داده: آشنایی با ابزارهایی مانند Power BI یا Tableau برای پشتیبانی از بینش های کسب وکار و گزارش دهی.
نوع همکاری: تمام وقت
شنبه تا چهارشنبه از ساعت 8 صبح تا 17 عصر ( یک ساعت شناوری از 7 صبح )
محدوده شرکت: خیابان ولیعصر روبروی پارک ملت
مزایای شغلی:
امکان تقویت مکالمه زبان انگلیسی
امکان دریافت پورسانت
یادگیری مسائل فنی مرتبط با اشتراکگذاری آموختهها و تجربیات فنی همکاران
فرصت رشد و پیشرفت
کار در محیط حرفه ای
ناهار