دوره MLOps (عملیاتسازی یادگیری ماشین) نقشی اساسی در پر کردن فاصله بین توسعه مدلهای یادگیری ماشین و استقرار کارآمد آنها در محیطهای عملیاتی ایفا میکند. با توجه به افزایش نقش هوش مصنوعی در تحول صنایع مختلف، نیاز به جریانهای کاری مقیاسپذیر، قابل اعتماد و خودکار برای یادگیری ماشین بیشتر شده است. MLOps تضمین میکند که ادغام بدون مشکل بین مهندسی داده، توسعه مدل و عملیات انجام شود و یک خط پردازش یکپارچه ایجاد گردد. این دوره مهندسان هوش مصنوعی را با مهارتهای لازم برای مدیریت کامل چرخه عمر یادگیری ماشین، از آمادهسازی دادهها و استقرار مدل تا نظارت و بهینهسازی، توانمند میسازد.
				چرا به MLOps نیاز داریم؟
محتوای دوره:
۱. معرفی MLOps
- مروری بر چرخه عمر یادگیری ماشین
 آمادهسازی دادهها، توسعه مدل، استقرار و نظارت بر مدل.
- MLOps چیست؟
 اهداف کلیدی: خودکارسازی، همکاری تیمی، و مقیاسپذیری.
- ابزارها و چارچوبهای MLOps
 معرفی برخی ابزارها مانند MLflow، Kubeflow، TensorFlow Extended (TFX) و Airflow.
۲. مفاهیم کلیدی در MLOps
- چالشهای یادگیری ماشین در محیط تولیدی
 مشکلات رایج: انحراف مدل، مقیاسپذیری و قابلیت بازتولید.
 اهمیت بازتولیدپذیری و ایجاد فرآیندهای قوی.
- تست، پروفایلسازی، و نظارت
 تست سیستمهای یادگیری ماشین: تست واحد، یکپارچه و خطوط پردازش.
 پروفایلسازی: شناسایی و رفع گلوگاههای عملکردی در فرآیندهای ML.
 نظارت بر مدلها در محیط تولیدی: دقت، تاخیر و شناسایی انحراف دادهها.
 معرفی ابزارهایی مانند Prometheus و Grafana.
- کانتینرسازی
 اهمیت استفاده از Docker در فرآیندهای یادگیری ماشین.
 آشنایی اولیه با Kubernetes برای مقیاسپذیری.
 پروژه عملی: کانتینرسازی یک خط پردازش ساده ML با Docker.
- رابط برنامهنویسی (API)
 معرفی REST APIها برای استقرار مدلهای ML.
 ابزار FastAPI و معماریهای میکروسرویس.
۳. تکنیکهای فشردهسازی مدلها
- هرس کردن (Pruning)
 کاهش پیچیدگی مدل با حذف وزنهای غیرضروری.
 کاربردها در محیطهای با محدودیت منابع (اینترنت اشیا و دستگاههای موبایل).
- کوانتیزاسیون (Quantization)
 کاهش دقت مدل برای افزایش سرعت پیشبینی.
 ابزارها: TensorFlow Lite و PyTorch Quantization.
- استخراج دانش (Knowledge Distillation)
 آموزش مدلهای سبک با استفاده از پیشبینیهای مدلهای بزرگتر.
 پروژه عملی: پیادهسازی هرس، کوانتیزاسیون و استخراج دانش روی یک دیتاست واقعی.
۴. کامپایل مدلها
- معرفی کامپایلرهای یادگیری ماشین
 ابزارهایی مانند TensorRTو ONNX Runtime.
 مزایای بهینهسازیهای سختافزاری (GPU، TPU و دستگاههای Edge).
- پروژه عملی: کامپایل و بهینهسازی یک مدل ONNX برای استقرار.
۵. سرویسدهی مدلها
- مفاهیم کلیدی در سرویسدهی مدلها
 تفاوتهای سرویسدهی بلادرنگ و دستهای.
 چالشها: تاخیر، مقیاسپذیری و کنترل نسخه.
- ابزارهای سرویسدهی مدل
 معرفی ابزارهای TensorFlow Serving، TorchServe، BentoML، FastAPI.
 پلتفرمهای ابری: AWS SageMaker، GCP AI Platform.
- پروژههای عملی:
 استقرار یک مدل TensorFlow کانتینرسازی شده با TensorFlow Serving.
 ساخت یک REST API برای مدل یادگیری ماشین با استفاده از FastAPI.
۶. فرمتهای قابل حمل مدلها
- معرفی فرمتهای قابل حمل
 فرمتهایی مانند ONNX، PMML، TFLite.
 مزایای حملپذیری: استقرار مستقل از چارچوب.
 تبدیل مدلها: TensorFlow به ONNX، PyTorch به ONNX.
- پروژه عملی: تبدیل یک مدل PyTorch به ONNX و استقرار با ONNX Runtime.
۷. استراتژیهای استقرار
- رویکردهای استقرار
 استقرار آبی-سبز، انتشار کاناری و بهروزرسانیهای تدریجی.
 انتخاب استراتژی مناسب برای سناریوهای مختلف.
- استقرار در فضای ابری و Edge
 معرفی AWS SageMaker، GCP AI Platform و Azure ML.
 استقرار Edge با TFLite و NVIDIA Jetson.
- نظارت و لاگگیری در تولید
 راهاندازی سیستمهای لاگگیری و نظارت بر عملکرد.
 ابزارها: Prometheus و Grafana.
- پروژههای عملی:
 استقرار یک مدل ML کانتینرسازی شده با Kubernetes و Docker.
 راهاندازی نظارت بر مدلهای استقرار یافته با استفاده از Prometheus.
