mlops

توسعه و عملیات یادگیری ماشین MLOps

وضعیت فعلی

ثبت‌نام نشده

قیمت

بسته

شروع کنید

این دوره در حال حاضر بسته است

چرا به MLOps نیاز داریم؟

این دوره به موضوعات کلیدی مانند کانتینرسازی، سرویس‌دهی مدل، یکپارچه‌سازی و استقرار مداوم (CI/CD) و نظارت پیشرفته در تولید می‌پردازد. ابزارهایی نظیر Docker، Kubernetes، TensorFlow Serving و Prometheus برای تسهیل خودکارسازی و مقیاس‌پذیری معرفی می‌شوند. با تکمیل این دوره، یادگیرندگان به بهترین شیوه‌های استقرار مدل‌های هوشمند، مقابله با چالش‌هایی مانند انحراف مدل و مقیاس‌پذیری و ایجاد جریان‌های کاری قوی و بازتولیدپذیر مسلط می‌شوند که اجزای ضروری نقشه راه مهندسی هوش مصنوعی هستند.

محتوای دوره:

۱. معرفی MLOps

  • مروری بر چرخه عمر یادگیری ماشین
    آماده‌سازی داده‌ها، توسعه مدل، استقرار و نظارت بر مدل.
  • MLOps چیست؟
    اهداف کلیدی: خودکارسازی، همکاری تیمی، و مقیاس‌پذیری.
  • ابزارها و چارچوب‌های MLOps
    معرفی برخی ابزارها مانند MLflow، Kubeflow، TensorFlow Extended (TFX) و Airflow.

۲. مفاهیم کلیدی در MLOps

  • چالش‌های یادگیری ماشین در محیط تولیدی
    مشکلات رایج: انحراف مدل، مقیاس‌پذیری و قابلیت بازتولید.
    اهمیت بازتولیدپذیری و ایجاد فرآیندهای قوی.
  • تست، پروفایل‌سازی، و نظارت
    تست سیستم‌های یادگیری ماشین: تست واحد، یکپارچه و خطوط پردازش.
    پروفایل‌سازی: شناسایی و رفع گلوگاه‌های عملکردی در فرآیندهای ML.
    نظارت بر مدل‌ها در محیط تولیدی: دقت، تاخیر و شناسایی انحراف داده‌ها.
    معرفی ابزارهایی مانند Prometheus و Grafana.
  • کانتینرسازی
    اهمیت استفاده از Docker در فرآیندهای یادگیری ماشین.
    آشنایی اولیه با Kubernetes برای مقیاس‌پذیری.
    پروژه عملی: کانتینرسازی یک خط پردازش ساده ML با Docker.
  • رابط برنامه‌نویسی (API)
    معرفی REST API‌ها برای استقرار مدل‌های ML.
    ابزار FastAPI  و معماری‌های میکروسرویس.

۳. تکنیک‌های فشرده‌سازی مدل‌ها

  • هرس کردن (Pruning)
    کاهش پیچیدگی مدل با حذف وزن‌های غیرضروری.
    کاربردها در محیط‌های با محدودیت منابع (اینترنت اشیا و دستگاه‌های موبایل).
  • کوانتیزاسیون (Quantization)
    کاهش دقت مدل برای افزایش سرعت پیش‌بینی.
    ابزارها: TensorFlow Lite و PyTorch Quantization.
  • استخراج دانش (Knowledge Distillation)
    آموزش مدل‌های سبک با استفاده از پیش‌بینی‌های مدل‌های بزرگ‌تر.
    پروژه عملی: پیاده‌سازی هرس، کوانتیزاسیون و استخراج دانش روی یک دیتاست واقعی.

۴. کامپایل مدل‌ها

  • معرفی کامپایلرهای یادگیری ماشین
    ابزارهایی مانند TensorRTو ONNX Runtime.
    مزایای بهینه‌سازی‌های سخت‌افزاری (GPU، TPU و دستگاه‌های Edge).
  • پروژه عملی: کامپایل و بهینه‌سازی یک مدل ONNX برای استقرار.

۵. سرویس‌دهی مدل‌ها

  • مفاهیم کلیدی در سرویس‌دهی مدل‌ها
    تفاوت‌های سرویس‌دهی بلادرنگ و دسته‌ای.
    چالش‌ها: تاخیر، مقیاس‌پذیری و کنترل نسخه.
  • ابزارهای سرویس‌دهی مدل
    معرفی ابزارهای TensorFlow Serving، TorchServe، BentoML، FastAPI.
    پلتفرم‌های ابری: AWS SageMaker، GCP AI Platform.
  • پروژه‌های عملی:
    استقرار یک مدل TensorFlow کانتینرسازی شده با TensorFlow Serving.
    ساخت یک REST API برای مدل یادگیری ماشین با استفاده از FastAPI.

۶. فرمت‌های قابل حمل مدل‌ها

  • معرفی فرمت‌های قابل حمل
    فرمت‌هایی مانند ONNX، PMML، TFLite.
    مزایای حمل‌پذیری: استقرار مستقل از چارچوب.
    تبدیل مدل‌ها: TensorFlow به ONNX، PyTorch به ONNX.
  • پروژه عملی: تبدیل یک مدل PyTorch به ONNX و استقرار با ONNX Runtime.

۷. استراتژی‌های استقرار

  • رویکردهای استقرار
    استقرار آبی-سبز، انتشار کاناری و به‌روزرسانی‌های تدریجی.
    انتخاب استراتژی مناسب برای سناریوهای مختلف.
  • استقرار در فضای ابری و Edge
    معرفی AWS SageMaker، GCP AI Platform و Azure ML.
    استقرار Edge با TFLite و NVIDIA Jetson.
  • نظارت و لاگ‌گیری در تولید
    راه‌اندازی سیستم‌های لاگ‌گیری و نظارت بر عملکرد.
    ابزارها: Prometheus و Grafana.
  • پروژه‌های عملی:
    استقرار یک مدل ML کانتینرسازی شده با Kubernetes و Docker.
    راه‌اندازی نظارت بر مدل‌های استقرار یافته با استفاده از Prometheus.

محتوای دوره

جلسه آنلاین
سبد خرید
درخواست مشاوره رایگان ×

    Call Center