این نقش برای فردی است که بتواند چرخهی کامل یک مسئله دادهمحور را از تعریف مسئله تا استقرار و پایش در محیط عملیاتی هدایت کند و در کنار مدلسازی، استانداردهای کیفیت داده/مدل و همکاری بین تیمی را تقویت کند.
مسئولیتها
· هدایت تحلیل مسئله و طراحی راهکار دادهمحور (Metric-driven) و همراستاسازی با ذینفعان
· طراحی و اجرای فرآیندهای Data Mining و Feature Engineering در مقیاس بزرگ
· توسعه و بهینهسازی مدلهای ML/DL (از جمله سری زمانی) و طراحی آزمایشها (Experimentation)
· تعریف و پیادهسازی استانداردهای ارزیابی، مستندسازی و قابلیت بازتولید نتایج (Reproducibility)
· همکاری نزدیک با مهندسی برای استقرار (Deployment)، پایش (Monitoring/Drift) و برنامه بازآموزی
· منتورینگ اعضای تیم و ارتقای کیفیت خروجیها (کدنویسی، تحلیل، مستندسازی)
مهارتها و الزامات (Must Have)
· تسلط بالا به Python و ابزارهای ML (NumPy/Pandas/Scikit-learn)
· تجربه عملی قابل اتکا با یکی از PyTorch / TensorFlow
· تسلط به SQL و کار جدی با دیتابیسهای رابطهای (و آشنایی با NoSQL مزیت)
· تجربه قوی در Time Series Analysis و طراحی/ارزیابی مدلهای مرتبط
· آشنایی کاربردی با Spark برای پردازش/مدلسازی در مقیاس بزرگ
· درک عمیق از آمار، طراحی متریک، خطاهای رایج مدلسازی و تفسیر نتایج
· توانایی ارتباط مؤثر با Product/Engineering/Business و ارائه خروجی قابل تصمیمگیری
امتیاز محسوب میشود (Nice to Have)
· تجربه دادههای مالی/بانکی یا مسائل ریسک/تقلب/ناهنجاری
· تجربه طراحی استانداردهای پایش Drift، کیفیت داده و چرخه بازآموزی
· تجربه Spark/Kafka/Airflow برای خطوط داده و پردازشهای مقیاسپذیر
· آشنایی با MLOps و استقرار: Docker / Kubernetes
· تجربه توسعه سرویس مدل با Flask/FastAPI
· تجربه کار با Clickhouse/MongoDB/Redis/Elasticsearch
· تجربه طراحی/راهاندازی پایپلاین و زیرساختهای داده در محیط عملیاتی