متن کامل آگهی:
ما به دنبال توسعهدهندهای با تجربه قوی در میکروسافت با پشته، پایتون و جریان هوای آپاچی هستیم تا خطوط لوله داده مقیاسپذیر و راهحلهای تحلیلی را در حوزههای تجاری متعدد بسازد. این نقش از انواع موارد استفاده از گزارش و تجزیه و تحلیل، از جمله امور مالی پشتیبانی میکند، در حالی که با دادههای عملیاتی و سازمانی کار میکند.
مسئولیتهای کلیدی
• طراحی، توسعه، و حفظ خطوط لوله داده سرتاسر با استفاده از پایتون، جریان هوای آپاچی، و پلتفرم داده مایکروسافت
• ساخت و بهینهسازی etl/elt و توسعه گردشهای کاری etl/elt، و توسعه و نگهداری گردشهای کاری etl/elt، با استفاده از powerdashs، pythsson راه حل های تجزیه و تحلیل سلف سرویس
• طراحی و مدیریت راه حل های انبار داده و داده های مارت (طرحواره های ستاره/دانه برف)
• توسعه و بهینه سازی مدل های جدولی ssas و لایه های معنایی
• نوشتن و بهینه سازی پرس و جوهای پیچیده t-sql، نماها، و رویه های ذخیره شده (با استفاده از برنامه زمانبندی، مانیتورینگ اپراتور، جریان هوا، orchestra و orchestra نظارت، هشدار)
• ادغام دادهها از منابع داده، برنامههای کاربردی تجاری، apis و فایلهای مسطح
• اجرای کیفیت داده، اعتبارسنجی، تطبیق و چارچوبهای نظارت
• اعمال امنیت داده، امنیت در سطح ردیف (rls)، و حاکمیت، اصل و نسب و ابزارهای ابرداده بهترین شیوهها
• همکاری با بهرهوری، سرمایهگذاری، شرکتهای مالی و محصولات تیمها
• مستندسازی مدلهای داده، خطوط لوله، و راهحلهای دو
مهارتها و صلاحیتهای مورد نیاز
• مهارت قوی در پایتون برای تبدیل دادهها و اتوماسیون
• تجربه عملی با جریان هوای آپاچی برای هماهنگسازی جریان کار
• تجربه پیشرفته با sql/ssis/ssis/ssis بهینهسازی سرور و درک بهینهسازی qubr>ssa الگوهای etl/elt، بارهای افزایشی، و خطوط لوله داده مقیاس پذیر
• تجربه کار با دریاچه های داده و انبارهای داده
• تجربه قوی با power bi (dax، power query، مدل سازی داده)
• تجربه با ssas tabular و ssrs
• توانایی ترجمه نیازمندی های مربوط به کسب و کار به ارائه راه حل های مرتبط با پشتیبانی از حوزه مالی و تحلیلگر تجزیه و تحلیل
• قرار گرفتن در معرض حوزه های عملیاتی، فروش، یا سایر حوزه های داده های سازمانی
• درک کیفیت داده، کنترل ها، و قابلیت حسابرسی، به ویژه برای داده های کسب و کار حیاتی
مهارت های ترجیحی / خوش دست
• تجربه با کافکا و کلیک هاوس
• ci/cd برای خطوط انتقال داده
آموزش، تحصیلات و سیستم های مرتبط با داده ها، مدرک تحصیلی و تجربه
زمینه
• بیش از 3 سال تجربه در نقش های مهندسی دو و/یا داده
We are seeking a BI Developer with strong experience in the Microsoft BI stack, Python, and Apache Airflow to build scalable data pipelines and analytical solutions across multiple business domains. The role supports a variety of reporting and analytics use cases, including finance, while also working with operational and enterprise data.
Key Responsibilities
• Design, develop, and maintain end-to-end data pipelines using Python, Apache Airflow, and Microsoft data platform
• Build and optimize ETL/ELT workflows using SSIS, and Python
• Develop and maintain Power BI dashboards and self-service analytics solutions
• Design and manage data warehouse and data mart solutions (star/snowflake schemas)
• Develop and optimize SSAS Tabular models and semantic layers
• Write and optimize complex T-SQL queries, views, and stored procedures
• Orchestrate, schedule, and monitor workflows using Apache Airflow (DAGs, operators, monitoring, alerting)
• Integrate data from Data Sources, business applications, APIs, and flat files
• Implement data quality, validation, reconciliation, and monitoring frameworks
• Apply data security, row-level security (RLS), and governance, lineage and metadata tools best practices
• Collaborate with stakeholders across Finance, Operations, Product, and Analytics teams
• Document data models, pipelines, and BI solutions
Required Skills & Qualifications
• Strong proficiency in Python for data transformation and automation
• Hands-on experience with Apache Airflow for workflow orchestration
• Advanced experience with SQL Server/ SSIS/ SSAS / T-SQL and query optimization
• Strong understanding of ETL/ELT patterns, incremental loads, and scalable data pipelines
• Experience working with data lakes and data warehouses
• Strong experience with Power BI (DAX, Power Query, data modeling)
• Experience with SSAS Tabular and SSRS
• Ability to translate business requirements into effective analytical solutions Domain Knowledge
• Experience supporting finance-related reporting and analytics
• Exposure to operational, sales, or other enterprise data domains
• Understanding of data quality, controls, and auditability, especially for critical business data
Preferred / Nice-to-Have Skills
• Experience with KAFKA and CLICKHOUSE
• CI/CD for data pipelines
Education & Experience
• Bachelor’s degree in Computer Science, Information Systems, Data, or related field
• 3+ years of experience in BI and/or data engineering roles