نشان کن
کد آگهی: KP7665133208

توسعه دهنده هوش تجاری | BI Developer | Q-Commerce

توسعه دهنده هوش تجاری | BI Developer | Q-Commerce - دیجی‌‌کالا | Digikala
دیجی‌‌کالا | Digikala
در تهران
در وبسایت ایران تلنت  (چند ساعت پیش)
اطلاعات شغل:
نوع همکاری:  تمام‌وقت
نیاز به سابقه:  حداقل 3 سال
متن کامل آگهی:
ما به دنبال توسعه‌دهنده‌ای با تجربه قوی در میکروسافت با پشته، پایتون و جریان هوای آپاچی هستیم تا خطوط لوله داده مقیاس‌پذیر و راه‌حل‌های تحلیلی را در حوزه‌های تجاری متعدد بسازد. این نقش از انواع موارد استفاده از گزارش و تجزیه و تحلیل، از جمله امور مالی پشتیبانی می‌کند، در حالی که با داده‌های عملیاتی و سازمانی کار می‌کند.
مسئولیت‌های کلیدی
• طراحی، توسعه، و حفظ خطوط لوله داده سرتاسر با استفاده از پایتون، جریان هوای آپاچی، و پلت‌فرم داده مایکروسافت
• ساخت و بهینه‌سازی etl/elt و توسعه گردش‌های کاری etl/elt، و توسعه و نگهداری گردش‌های کاری etl/elt، با استفاده از powerdashs، pythsson راه حل های تجزیه و تحلیل سلف سرویس
• طراحی و مدیریت راه حل های انبار داده و داده های مارت (طرحواره های ستاره/دانه برف)
• توسعه و بهینه سازی مدل های جدولی ssas و لایه های معنایی
• نوشتن و بهینه سازی پرس و جوهای پیچیده t-sql، نماها، و رویه های ذخیره شده (با استفاده از برنامه زمانبندی، مانیتورینگ اپراتور، جریان هوا، orchestra و orchestra نظارت، هشدار)
• ادغام داده‌ها از منابع داده، برنامه‌های کاربردی تجاری، apis و فایل‌های مسطح
• اجرای کیفیت داده، اعتبارسنجی، تطبیق و چارچوب‌های نظارت
• اعمال امنیت داده، امنیت در سطح ردیف (rls)، و حاکمیت، اصل و نسب و ابزارهای ابرداده بهترین شیوه‌ها
• همکاری با بهره‌وری، سرمایه‌گذاری، شرکت‌های مالی و محصولات تیم‌ها
• مستندسازی مدل‌های داده، خطوط لوله، و راه‌حل‌های دو
مهارت‌ها و صلاحیت‌های مورد نیاز
• مهارت قوی در پایتون برای تبدیل داده‌ها و اتوماسیون
• تجربه عملی با جریان هوای آپاچی برای هماهنگ‌سازی جریان کار
• تجربه پیشرفته با sql/ssis/ssis/ssis بهینه‌سازی سرور و درک بهینه‌سازی qubr>ssa الگوهای etl/elt، بارهای افزایشی، و خطوط لوله داده مقیاس پذیر
• تجربه کار با دریاچه های داده و انبارهای داده
• تجربه قوی با power bi (dax، power query، مدل سازی داده)
• تجربه با ssas tabular و ssrs
• توانایی ترجمه نیازمندی های مربوط به کسب و کار به ارائه راه حل های مرتبط با پشتیبانی از حوزه مالی و تحلیلگر تجزیه و تحلیل
• قرار گرفتن در معرض حوزه های عملیاتی، فروش، یا سایر حوزه های داده های سازمانی
• درک کیفیت داده، کنترل ها، و قابلیت حسابرسی، به ویژه برای داده های کسب و کار حیاتی
مهارت های ترجیحی / خوش دست
• تجربه با کافکا و کلیک هاوس
• ci/cd برای خطوط انتقال داده
آموزش، تحصیلات و سیستم های مرتبط با داده ها، مدرک تحصیلی و تجربه
زمینه
• بیش از 3 سال تجربه در نقش های مهندسی دو و/یا داده
We are seeking a BI Developer with strong experience in the Microsoft BI stack, Python, and Apache Airflow to build scalable data pipelines and analytical solutions across multiple business domains. The role supports a variety of reporting and analytics use cases, including finance, while also working with operational and enterprise data.
Key Responsibilities
• Design, develop, and maintain end-to-end data pipelines using Python, Apache Airflow, and Microsoft data platform
• Build and optimize ETL/ELT workflows using SSIS, and Python
• Develop and maintain Power BI dashboards and self-service analytics solutions
• Design and manage data warehouse and data mart solutions (star/snowflake schemas)
• Develop and optimize SSAS Tabular models and semantic layers
• Write and optimize complex T-SQL queries, views, and stored procedures
• Orchestrate, schedule, and monitor workflows using Apache Airflow (DAGs, operators, monitoring, alerting)
• Integrate data from Data Sources, business applications, APIs, and flat files
• Implement data quality, validation, reconciliation, and monitoring frameworks
• Apply data security, row-level security (RLS), and governance, lineage and metadata tools best practices
• Collaborate with stakeholders across Finance, Operations, Product, and Analytics teams
• Document data models, pipelines, and BI solutions
Required Skills & Qualifications
• Strong proficiency in Python for data transformation and automation
• Hands-on experience with Apache Airflow for workflow orchestration
• Advanced experience with SQL Server/ SSIS/ SSAS / T-SQL and query optimization
• Strong understanding of ETL/ELT patterns, incremental loads, and scalable data pipelines
• Experience working with data lakes and data warehouses
• Strong experience with Power BI (DAX, Power Query, data modeling)
• Experience with SSAS Tabular and SSRS
• Ability to translate business requirements into effective analytical solutions Domain Knowledge
• Experience supporting finance-related reporting and analytics
• Exposure to operational, sales, or other enterprise data domains
• Understanding of data quality, controls, and auditability, especially for critical business data
Preferred / Nice-to-Have Skills
• Experience with KAFKA and CLICKHOUSE
• CI/CD for data pipelines
Education & Experience
• Bachelor’s degree in Computer Science, Information Systems, Data, or related field
• 3+ years of experience in BI and/or data engineering roles

این آگهی از وبسایت ایران تلنت پیدا شده، با زدن دکمه‌ی تماس با کارفرما، به وبسایت ایران تلنت برین و از اون‌جا برای این شغل اقدام کنین.

هشدار
توجه داشته باشید که دریافت هزینه از کارجو برای استخدام با هر عنوانی غیرقانونی است. در صورت مواجهه با موارد مشکوک،‌ با کلیک بر روی «گزارش مشکل آگهی» به ما در پیگیری تخلفات کمک کنید.
گزارش مشکل آگهی
تماس با کارفرما
این آگهی رو برای دیگران بفرست
نشان کن
گزارش مشکل آگهی
دوشنبه 21 بهمن 1404، ساعت 18:42