موقعیت شغلی: DevOps / MLOps Engineer
سطح تجربه: Mid-level رو به Senior یا Senior
ما به دنبال یک DevOps / MLOps Engineer هستیم که مسئول طراحی، پایداری و مقیاسپذیری زیرساخت اجرای مدلهای سنگین AI برای تولید محتوای دیجیتال باشد. تمرکز این نقش روی Inference، اجرای On-Demand روی GPU و بهینهسازی هزینه و کارایی است و مستقیماً در مرز عملی MLOps و سیستمهای AI مولتیمدال قرار دارد.
با توجه به نیاز بازار ایران و جهان به تولید سریع و مقرونبهصرفه محتوا، خروجی این نقش تأثیر مستقیم و ملموس روی محصول نهایی خواهد داشت.
مسئولیتها
- طراحی و پیادهسازی پایپلاین end-to-end اجرای مدلهای AI برای تولید محتوای دیجیتال (Inference-focused)
- پیادهسازی اتوماسیون اجرای jobها شامل:
- روشن/خاموش کردن Instanceهای GPU
- زمانبندی و مدیریت Queue
- اجرای پایدار مدلهای سنگین AI روی GPU و بهینهسازی مصرف منابع
- مانیتورینگ GPU، حافظه و سایر منابع برای حداکثر کارایی و کنترل هزینه
- همکاری نزدیک با تیم AI برای تست مدلها، بررسی خروجیها و artifacts
- مستندسازی معماری و بهبود تدریجی پایپلاین
- ارائه راهکارهای Scale-up / Scale-out و بهینهسازی اجرای Multi-GPU
مهارتها و شایستگیها
- تجربه عملی کار با GPU Cloud Providers (مانند Vast.ai، RunPod، Lambda Labs یا مشابه)
- تسلط به Docker و اجرای سرویسهای GPU-based
- آشنایی با Kubernetes در حد اجرای و مدیریت GPU workloads
- تجربه طراحی یا اجرای Inference pipeline برای مدلهای AI (ترجیحاً مولتیمدال)
- توانایی بهینهسازی مصرف GPU، مدیریت حافظه و کاهش Bottleneckها
- آشنایی با مفاهیم CI/CD
- تجربه یا آشنایی با ابزارهای مانیتورینگ مانند Prometheus، Grafana یا مشابه
- توانایی کار تیمی، نظم، مسئولیتپذیری و نگاه مسئلهمحور
-
مهارتهای امتیازی
- آشنایی با ابزارهای Job orchestration (مانند Airflow یا Prefect)
- تجربه بهینهسازی Cold Start در سرویسهای مبتنی بر GPU
- تجربه Cost Optimization در زیرساختهای GPU
- مستندسازی زیرساخت و سیستمها با ابزارهایی مانند MkDocs یا Sphinx
-
مزایای همکاری با ما
✨ تجربه کار عملی با مدلهای AI مولتیمدال و سیستمهای واقعی تولید محتوا
✨ ساعت کاری منعطف، شناور و محیط استارتاپی پویا
✨ تأثیرگذاری مستقیم خروجی شما روی محصول نهایی
✨ مسیر رشد شفاف و یادگیری از چالشهای واقعی MLOps
✨ بودجه آموزشی برای دورهها و کنفرانسها
✨ همکاری با تیم چابک، نتیجهگرا و فنی
✨ امکان دریافت سهام تشویقی (ESOP) برای افراد اثرگذار
Position: DevOps / MLOps Engineer
Experience Level: Mid-level to Senior
We are looking for a DevOps / MLOps Engineer to design, operate, and scale the infrastructure for running heavy AI models for digital content generation. This role is focused on GPU-based inference, on-demand execution, and cost/performance optimization, and sits at the practical intersection of MLOps and multimodal AI systems.
Given the growing global and local demand for fast and affordable content generation, this role has a direct and measurable impact on the final product.
Responsibilities
- Design and implement end-to-end inference-focused pipelines for AI-based digital content generation
- Build automation for GPU job execution, including:
- On-demand instance start/stop
- Scheduling and queue management
- Run and optimize heavy AI models on GPU infrastructure
- Monitor GPU utilization, memory, and system resources to maximize efficiency and control costs
- Collaborate closely with the AI team to test models and review outputs and artifacts
- Document the infrastructure and continuously improve pipeline reliability
- Propose and implement scale-up / scale-out and multi-GPU optimization strategies
Required Skills & Qualifications
- Hands-on experience with GPU cloud providers (Vast.ai, RunPod, Lambda Labs, or similar)
- Strong experience with Docker and GPU-based containerized workloads
- Working knowledge of Kubernetes for running and managing GPU workloads
- Experience building or operating ML inference pipelines (multimodal experience is a plus)
- Strong understanding of GPU optimization and memory management
- Familiarity with CI/CD concepts and workflows
- Experience with or exposure to monitoring tools such as Prometheus, Grafana, or equivalents
- Strong sense of ownership, structured thinking, and ability to work collaboratively
Nice to Have
- Experience with job orchestration tools (Airflow, Prefect)
- Experience reducing cold start latency in GPU-based services
- Proven GPU cost optimization experience
- Infrastructure documentation using MkDocs, Sphinx, or similar tools
What We Offer
✨ Hands-on work with real-world multimodal AI systems
✨ Flexible working hours and a startup-friendly environment
✨ Direct impact on a production AI product
✨ Clear growth path and exposure to real MLOps challenges
✨ Learning budget for courses and conferences
✨ Collaboration with a fast, pragmatic, and technical team
✨ ESOP (equity incentives) for high-impact contributors