در این مطلب، فهرستی از محبوب‌ترین و پرکاربردترین روش های بهینه سازی در یادگیری ماشین به همراه منابع آموزش روش های بهینه سازی ارائه شده است.

روش های بهینه سازی در یادگیری ماشین

«پودیا پریل» (Judea Pearl)، از جمله دانشمندان علوم کامپیوتری است که نسبت به «هوش مصنوعی» (Artificial Intelligence) و «شبکه‌های بیزی» (Bayesian Network) دیدگاه و رویکرد آماری دارد. او درباره «یادگیری عمیق» (Deep Learning) چنین می‌گوید:

همه دستاوردهای تاثیرگذار یادگیری عمیق در برازش منحنی خلاصه می‌شوند.

تقلیل یافته‌ترین شکل «یادگیری ماشین» (Machine Learning) را می‌توان برازش منحنی دانست. از جهاتی می‌توان گفت که داشتن چنین رویکردی درست است. مدل‌های یادگیری ماشین معمولا بر اساس اصول «همگرایی» (Convergence) و در واقع، «برازش» (Fitting) داده‌ها در مدل بنا نهاده شده‌اند. اگرچه، این رویکرد منجر به «هوش عمومی مصنوعی» (Artificial General Intelligence | AGI) می‌شود که همچنان موضوعی مورد بحث است. این در حالی است که در حال حاضر، «شبکه‌های عصبی عمیق» (Deep Neural Networks) از بهترین راهکارها برای مسائل یادگیری ماشین محسوب می‌شوند و از «روش‌های بهینه‌سازی» (Optimization) برای رسیدن به هدف استفاده می‌کنند.

روش‌های بهینه‌سازی پایه‌ای معمولا به سه دسته روش‌های «مرتبه اول» (First Order)، «مرتبه بالا» (High Order) و «روش‌های بهینه‌سازی فاقد مشتق» (Derivative-Free Optimisation Methods) تقسیم می‌شوند. به طور معمول، روش‌های بهینه‌سازی موجود، در دسته بهینه سازی مرتبه اول قرار می‌گیرند؛ از جمله این روش‌ها می‌توان به «گرادیان کاهشی» (Gradient Descent) و انواع آن اشاره کرد. برای مطالعه بیشتر پیرامون بهینه‌سازی، مطالب زیر پیشنهاد می‌شوند.

همچنین، پیش‌تر، برخی از الگوریتم های بهینه سازی در یادگیری ماشین در مجله فرادرس به طور جامع، کامل و کاربردی، همراه با مثال‌های فراوان و ارائه کدهای پیاده‌سازی در زبان‌های برنامه‌نویسی گوناگون مورد بررسی قرار گرفتند. علاقه‌مندان می‌توانند برای آشنایی با این روش های بهینه سازی در یادگیری ماشین مطالب زیر را مطالعه کنند.

در مطالبی از مجله فرادرس نیز به پرسش‌های رایج در زمینه بهینه‌سازی پاسخ داده شده است. لینک دسترسی به این مطالب در ادامه آمده است.

در نهایت، در مطالبی از مجله فرادرس که طی آن‌ها به بهینه سازی در یادگیری ماشین پرداخته شده بود، کاربردهای بهینه سازی، پیاده‌سازی آن روی مسائل جهان‌واقعی و ابزارهای پیاده‌سازی مورد بررسی قرار گرفته بودند. این مطالب در ادامه ارائه شده‌اند تا علاقه‌مندان امکان دسترسی سریع و مطالعه آن‌ها را داشته باشند.

روش های بهینه سازی در یادگیری ماشین -- راهنمای کاربردی

در ادامه و مطابق با بررسی موردی انجام شده با عنوان «بررسی موردی پیرامون روش های بهینه سازی از چشم‌انداز یادگیری ماشین» (A Survey of Optimization Methods from a Machine Learning Perspective) که توسط «شی لیانگ» و همکاران او انجام شده است، برخی از برترین روش‌های بهینه‌سازی مورد استفاده که افراد اغلب در مجلات یادگیری ماشین با آن‌ها مواجه می‌شوند معرفی شده‌اند و مورد بررسی قرار گرفته‌اند.

گرادیان کاهشی

«روش گرادیان کاهشی» (Gradient Descent Method) محبوب‌ترین روش بهینه‌سازی محسوب می‌شود. ایده نهفته در پس این روش، به روز رسانی «تکرار شونده» (Iteratively) در جهت مثبت «تابع هدف» (Objective Function) است. با هر به روز رسانی، این روش مدل را به سمت پیدا کردن هدف هدایت می‌کند و به تدریج به مقدار بهینه تابع هدف همگرا می‌شود.

روش های بهینه سازی در یادگیری ماشین -- راهنمای کاربردی

گرادیان کاهشی تصادفی

«گرادیان کاهشی تصادفی» (Stochastic Gradient Descent | SGD) برای حل مشکل پیچیدگی محاسباتی موجود در هر تکرار برای داده‌های کلان مقیاس در گرادیان کاهشی، معرفی شد. معادله این روش به صورت زیر است.

روش های بهینه سازی در یادگیری ماشین -- راهنمای کاربردی

دریافت مقادیر و تنظیم آن‌ها به صورت بازگشتی روی پارامترهای گوناگون به منظور کاهش «تابع زیان» (Loss Function)، «پس‌انتشار» (BackPropagation | BP) نامیده می‌شود. در این روش، یک نمونه برای به روز رسانی گرادیان (تتا | Theta) مورد استفاده قرار می‌گیرد؛ به جای آنکه به طور مستقیم مقدار دقیق گرادیان محاسبه شود. گرادیان تصادفی یک تخمین «بدون سوگیری» (Unbiased) از گرادیان حقیقی (Real Gradient) ارائه می‌کند. این روش بهینه‌سازی زمان به روز رسانی را برای سر و کار داشتن با تعداد زیادی از نمونه‌ها کاهش می‌دهد و میزان خاصی از «افزونگی» (Redundancy) را حذف می‌کند.

روش نرخ یادگیری تطبیقی

نرخ یادگیری یکی از «فراپارامترهایی» (Hyperparameters) است که در بهینه‌سازی وجود دارد. نرخ یادگیری تصمیم می‌گیرد که مدل از بخش خاصی از داده‌ها پرش کند. اگر نرخ یادگیری بالا باشد، مدل ممکن است که جنبه‌های ظریف‌تر داده‌ها را از دست بدهد و در واقع، به آن‌ها توجه نداشته باشد. اگر این مقدار کم باشد، برای کاربردهای جهان واقعی مطلوب است. نرخ یادگیری تاثیر قابل توجهی روی گرادیان کاهشی تصادفی (SGD) دارد. تنظیم مقدار صحیح برای نرخ یادگیری کاری چالش‌برانگیز است. روش‌های تطبیقی ارائه شده‌اند تا این تنظیمات را به صورت خودکار انجام دهند.

انواع تطبیقی SGD به طور گسترده در شبکه‌های عصبی عمیق (DNN) مورد استفاده قرار گرفته‌اند. روش‌هایی مانند «آدادِلتا» (AdaDelta)، «آراِم‌اِس‌پراپ» (RMSProp) و «آدام» (Adam) از «میانگین‌گیری نمایی» (Exponential Averaging) برای فراهم کردن به روز رسانی‌های موثر و ساده کردن محاسبات استفاده می‌کنند.

  • Adagrad: وزن‌ها با گرادیان بالا نرخ یادگیری پایینی خواهند داشت و بالعکس.
  • RMSprop: روش Adagrad را به صورتی تنظیم می‌کند که نرخ یادگیری به طور یکنواخت رو به کاهش آن را کاهش دهد.
  • Adam: شباهت زیادی به RMSProp دارد، با این تفاوت که تکانه دارد.
  • ADMM: «روش متناوب جهت ضرب» (Alternating Direction Method of Multipliers) جایگزین دیگری برای گرادیان کاهشی تصادفی است. تفاوت بین گرادیان کاهشی تصادفی و روش متناوب جهت ضرب آن است که نرخ یادگیری دیگر ثابت نیست. این مورد با استفاده از همه گرادیان‌های تاریخی تجمیع شده تا آخرین تکرار، محاسبه می‌شوند.

روش گرادیان مزدوج

رویکرد «گرادیان مزدوج» (Conjugate Gradient) برای حل سیستم‌های معادلات خطی بزرگ و مسائل بهینه‌سازی غیر خطی مورد استفاده قرار می‌گیرند. روش‌های مرتبه اول سرعت همگرایی کمتری دارند. این در حالی است که روش‌های مرتبه دوم زیاد از منابع استفاده می‌کنند و اصطلاحا «منابع سنگین» (Resource-Heavy) هستند. روش بهینه‌سازی گرادیان مزدوج یک الگوریتم میانی است که مزایای اطلاعات روش‌های مرتبه اول را ضمن حصول اطمینان از سرعت همگرایی روش‌های مرتبه بالا ارائه می‌کند.

روش های بهینه سازی در یادگیری ماشین -- راهنمای کاربردی

بهینه‌سازی بدون مشتق

در برخی از مسائل بهینه‌سازی، می‌توان از گرادیان به این دلیل استفاده کرد که مشتق (Derivative) تابع هدف وجود ندارد و یا محاسبه آن دشوار است. این مسائل نقاطی هستند که بهینه‌سازی بدون مشتق در آن‌ها مطرح می‌شود. این روش‌ها از «الگوریتم هیوریستیک» (Heuristic Algorithm) استفاده می‌کنند. الگوریتم‌های هیوریستیک روش‌هایی را انتخاب می‌کند که در حال حاضر به خوبی کار کرده‌اند؛ به جای آنکه راهکارها را به صورت سیستماتیک به دست آورد.

بهینه‌سازی مرتبه صفر

بهینه‌سازی مرتبه صفر (Zeroth Order Optimisation) اخیرا برای حل کمبودهای بهینه‌سازی بدون مشتق ارائه شده است. روش‌های بهینه‌سازی بدون مشتق مقیاس دادن به مسائل بزرگ را دشوار می‌کنند و از فقدان تحلیل‌های نرخ همگرایی رنج می‌برند. مزایای بهینه‌سازی مرتبه صفر عبارتند از:

  • سادگی پیاده‌سازی با صرفا ویرایش‌های ناچیزی از الگوریتم‌های متداول مبتنی بر گرادیان
  • تخمین بهینه بودن از نظر محاسباتی برای مشتقاتی که محاسبات آن‌ها دشوار است
  • نرخ همگرایی خوب و قابل مقایسه با الگوریتم‌های مرتبه اول

یادگیری متا

بهینه‌سازی متا در «یادگیری متا» (Meta Learning) روش محبوبی است. هدف یادگیری متا به دست آورد یادگیری سریع است که در عوض، گرادیان کاهشی را در بهینه‌سازی صحیح‌تر می‌کند. خود فرایند بهینه‌سازی را می‌توان به عنوان یک مسئله یادگیری برای یادگیری گرادیان پیش‌بینی به جای یک الگوریتم گرادیان کاهشی در نظر گرفت. به دلیل مشابهت بین به روز رسانی گرادیان در پس‌انتشار و به روز رسانی سلول در «حافظه کوتاه مدت بلند» (Long Short-Term Memory | LSTM) اغلب به  عنوان یک «متا بهینه‌ساز» (Meta-Optimiser) مورد استفاده قرار می‌گیرد.

در حالی که «الگوریتم یادگیری متا مدل آگنوستیک» (Model-Agnostic Meta Learning Algorithm | MAML) روش دیگری است که پارامترهای مدل‌های در معرض روش‌های گرادیان کاهشی را می‌آموزد که شامل «دسته‌بندی» (Classification)، «رگرسیون» (Regression) و «یادگیری تقویتی» (Reinforcement Learning) می‌شوند. ایده اصلی نهفته در پس الگوریتم مدل آگنوستیک آن است که چند وظیفه به طور هم‌زمان آغاز شوند و سپس، جهت گرادیان مصنوعی وظایف گوناگون دریافت شود تا یک مدل متداول پایه‌ای یاد گرفته شود.

روش های بهینه سازی در یادگیری ماشین -- راهنمای کاربردی

این‌ها تنها برخی از روش‌های بهینه‌سازی پر کاربرد هستند. صرف‌نظر از این موضوع، روش‌های دیگری نیز برای بهینه‌سازی وجود دارند که پرداختن به آن‌ها از حوصله این بحث خارج است. مسئله بهینه‌سازی برای یادگیری عمیق در همینجا به پایان نمی‌رسد، زیرا همه مسائل تحت «بهینه‌سازی محدب» (Convex Optimisation) مطرح نمی‌شوند. «بهینه‌سازی غیر محدب» (Non-Convex Optimisation) یکی از مشکلات در مسئله بهینه‌سازی است. یک رویکرد برای حل مسائل بهینه‌سازی غیر محدب، تبدیل آن‌ها به مسائل بهینه‌سازی محدب است. راهکار دیگر، استفاده از روش‌های خاص بهینه‌سازی مانند «گرادیان کاهشی پروجکشن» (Projection Gradient Descent)، «بهینه‌سازی متناوب» (Alternating Minimisation)، «بیشینه‌سازی امید ریاضی» (Expectation Maximisation | EM) و گرادیان تصادفی و انواع آن است.

منابع آموزش روش های بهینه سازی در یادگیری ماشین

در ادامه، منابع آموزش روش های بهینه سازی در یادگیری ماشین معرفی شده‌اند.

  • برای دسترسی به بیش از ۷,۴۱۲ دقیقه فیلم آموزشی و به زبان فارسی الگوریتم‌ های بهینه‌ سازی هوشمند + اینجا کلیک کنید.

آموزش مبانی محاسبات تکاملی و بهینه سازی هوشمند

طول مدت دوره آموزشی «آموزش مبانی محاسبات تکاملی و بهینه سازی هوشمند» که مدرس آن دکتر سید مصطفی کلامی هریس است، برابر با شش ساعت و دوازده دقیقه است. این آموزش در واقع به نوعی درس شماره صفر تمام دروس آموزش بهینه‌سازی محسوب می‌شود. در این دوره آموزشی، مفهوم بهینه‌سازی، مباحث پایه‌ای مربوط به مسائل بهینه‌سازی و الگوریتم‌های مورد استفاده در این راستا مورد بحث و بررسی قرار گرفته‌اند. برخی از مباحث مورد بررسی در این فیلم آموزشی در ادامه بیان شده‌اند.

  • مفاهیم پایه بهینه‌‌سازی
  • اجزای یک مسئله بهینه‌سازی، تابع هدف و فضای جستجو
  • اجزای یک مسئله بهینه‌‌سازی، قیدها و محدودیت‌ها
  • مبانی بهینه‌سازی چندهدفه
  • بررسی ساختار کلی الگوریتم های بهینه سازی
  • ساختار کلی و نحوه عملکرد الگوریتم‌‌های تکاملی
  • روش‌های توصیف متغیرها و فضای جستجو
  • روش‌های برخورد با قیدها

برای کسب اطلاعات بیشتر پیرامون فیلم آموزش مبانی محاسبات تکاملی و روش های بهینه سازی هوشمند و مشاهده پیش‌نمایش‌هایی از آن + اینجا کلیک کنید.

آموزش بهینه سازی چند هدفه در متلب

طول مدت دوره آموزشی «آموزش بهینه سازی چند هدفه در متلب» که مدرس آن دکتر سید مصطفی کلامی هریس است، برابر با هجده ساعت و پنجاه و سه دقیقه است. در این دوره آموزشی، مفهوم بهینه سازی چند هدفه و تفاوت آن با مسائل بهینه سازی یک هدفه، تقسیم‌بندی روش های بهینه سازی چند هدفه و دیگر مباحث مرتبط با روش های بهینه سازی چند هدفه مورد بحث و بررسی قرار گرفته‌اند. برخی از مباحث مورد بررسی در این فیلم آموزشی در ادامه بیان شده‌اند.

  • مبانی بهینه‌سازی چند هدفه و بیان تفاوت‌های آن با مسئله بهینه‌سازی یک هدفه
  • تقسیم‌بندی روش‌های بهینه‌سازی چندهدفه
  • روش های بهینه سازی چندهدفه کلاسیک
  • روش چبیشف (Chebyshev)، به عنوان حالت کلی روش‌های مبتنی بر آرمان
  • روش تبدیل به قید یا ε-Constrainet (بخوانید Epsilon Constraint)
  • مقدمه‌سازی برای طرح الگوریتم های تکاملی چند هدفه

روش های بهینه سازی در یادگیری ماشین -- راهنمای کاربردی

برای کسب اطلاعات بیشتر پیرامون فیلم آموزش بهینه سازی چند هدفه در متلب و مشاهده پیش‌نمایش‌هایی از آن + اینجا کلیک کنید.

آموزش بهینه‌سازی مقید در متلب

طول مدت دوره آموزشی «آموزش بهینه‌سازی مقید در متلب» که مدرس آن دکتر سید مصطفی کلامی هریس است، برابر با نُه ساعت و بیست و شش دقیقه است. در این دوره آموزشی، مفهوم بهینه‌سازی مقید و دیگر مباحث مرتبط با روش های بهینه سازی مقید مورد بحث و بررسی قرار گرفته‌اند. برخی از مباحث مورد بررسی در این فیلم آموزشی در ادامه بیان شده‌اند.

  • مبانی بهینه‌سازی مقید
  • بهینه‌سازی مقید مبتنی بر تابع جریمه
  • رویکردهای مبتنی بر قابل قبول نگه داشتن جواب‌ها برای بهینه‌سازی مقید
  • حل مساله تخصیص منابع یا Resource Allocation
  • بهینه‌سازی مقید با استفاده از روش های بهینه سازی چند هدفه
  • بهینه‌سازی مقید با استفاده از روش‌های هم‌تکاملی

برای کسب اطلاعات بیشتر پیرامون فیلم آموزشی بهینه سازی مقید در متلب و مشاهده پیش‌نمایش‌هایی از آن + اینجا کلیک کنید.

آموزش مقدماتی پیاده‌سازی مسائل بهینه‌سازی در پایتون

طول مدت دوره آموزشی «آموزش مقدماتی پیاده‌سازی مسائل بهینه سازی در پایتون)» که مدرس آن مهندس پژمان اقبالی است، برابر با چهار ساعت و سه دقیقه است. در این دوره آموزشی، مسائل معروف و شناخته شده‌ای مانند بهینه‌سازی کوله‌پشتی، مسئله کوتاه‌ترین مسیر در گراف و دنباله فیبوناچی با بهینه‌سازی و «برنامه‌نویسی پویا» (Dynamic Programming) مورد بحث و بررسی قرار گرفته‌اند. برخی از مباحث مورد بررسی در این فیلم آموزشی در ادامه بیان شده‌اند.

  • مسائل بهینه‌سازی کوله‌پشتی
  • مسائل بهینه سازی گراف
  • برنامه نویسی پویا

برای کسب اطلاعات بیشتر پیرامون فیلم آموزش مقدماتی پیاده‌سازی مسائل بهینه‌سازی در پایتون و مشاهده پیش‌نمایش‌هایی از آن + اینجا کلیک کنید.

روش های بهینه سازی در یادگیری ماشین -- راهنمای کاربردی

آموزش پیاده‌سازی الگوریتم‌های تکاملی و فراابتکاری در سی‌شارپ

طول مدت دوره آموزشی «آموزش پیاده سازی الگوریتم های تکاملی و فراابتکاری در سی شارپ» که مدرس آن دکتر سید مصطفی کلامی هریس است، برابر با نُه ساعت و یک دقیقه است. در این دوره آموزشی، برخی از محبوب‌ترین الگوریتم‌های بهینه‌سازی مورد بحث و بررسی قرار گرفته‌اند و در زبان برنامه‌نویسی سی‌شارپ پیاده‌سازی شده‌اند. برخی از مباحث مورد بررسی در این فیلم آموزشی در ادامه بیان شده‌اند.

  • مرور مبانی تئوری الگوریتم بهینه سازی ازدحام ذرات یا PSO
  • پیاده سازی الگوریتم PSO در سی شارپ
  • تبدیل برنامه قبلی به صورت شی گرا
  • افزودن رویداد و تبدیل برنامه به حالت تحت ویندوز
  • بهبود برنامه تحت ویندوز با افزودن کنترل های پارامتری
  • جداسازی تعریف مساله و الگوریتم با تعریف کلاس مجزا
  • تعریف متغیرهای تصمیم پیوسته با بازه متفاوت
  • تعریف متغیرهای تصمیم گسسته باینری و عدد صحیح
  • مرور مبانی تئوری الگوریتم شبیه سازی تبرید و پیاده سازی آن
  • اتصال برنامه SA به برنامه تحت ویندوز قبلی
  • مرور مبانی تئوری الگوریتم های ژنتیک و نحوه کارکرد آن ها
  • پیاده سازی عملی الگوریتم ژنتیک در سی شارپ
  • اتصال برنامه GA به برنامه تحت ویندوز قبلی

برای کسب اطلاعات بیشتر پیرامون فیلم آموزش پیاده‌سازی «الگوریتم های تکاملی» (Evolutionary Algorithms) و «فراابتکاری» (Meta Heuristic) در سی شارپ و مشاهده پیش‌نمایش‌هایی از آن + اینجا کلیک کنید.

آموزش بهینه‌سازی سبد سهام با روش های بهینه سازی کلاسیک و هوشمند در متلب

طول مدت دوره آموزشی «آموزش بهینه‌سازی سبد سهام با روش‌های بهینه‌سازی کلاسیک و هوشمند در متلب» که مدرس آن دکتر سید مصطفی کلامی هریس است، برابر با چهار ساعت و سی و دو دقیقه است. در این دوره آموزشی، ضمن بررسی مدل‌های ریاضی مسئله بهینه‌سازی سبد سهام، بهینه‌سازی سبد سهام کلاسیک با بهره‌گیری از روش‌های بهینه‌سازی کلاسیک و هوشمند انجام شده است.. برخی از مباحث مورد بررسی در این فیلم آموزشی در ادامه بیان شده‌اند.

  • مدل های ریاضی مساله بهینه‌سازی سبد سهام
  • بهینه‌سازی سبد سهام با استفاده از روش های بهینه سازی کلاسیک
  • بهینه‌سازی سبد سهام با استفاده از روش های بهینه سازی هوشمند و فرا ابتکاری

برای کسب اطلاعات بیشتر پیرامون فیلم آموزش بهینه سازی سبد سهام با روش های بهینه سازی کلاسیک و هوشمند در متلب و مشاهده پیش‌نمایش‌هایی از آن + اینجا کلیک کنید.

آموزش انواع الگوریتم های بهینه سازی و تکاملی الهام گرفته از طبیعت

روش های بهینه سازی یادگیری ماشین گوناگونی وجود دارند. در فرادرس، فیلم‌های آموزشی و به زبان فارسی برای محبوب ترین الگوریتم های بهینه سازی ارائه شده است. در ادامه، آموزش‌های الگوریتم های بهینه سازی معرفی شده‌اند.

روش های بهینه سازی در یادگیری ماشین -- راهنمای کاربردی

  • فیلم آموزش بهینه‌سازی مبتنی بر جغرافیای زیستی یا BBO در متلب (مدرس دوره: دکتر سید مصطفی کلامی هریس، طول مدت دوره: یک ساعت و پنجاه و یک دقیقه) + اینجا کلیک کنید.
  • فیلم آموزش الگوریتم چرخه آب برای حل مسائل بهینه‌سازی (مدرس دوره: دکتر علی سعداله، طول مدت دوره: چهار ساعت و چهار دقیقه) + اینجا کلیک کنید.
  • فیلم آموزش الگوریتم بهینه‌سازی جهش قورباغه یا SFLA در متلب (مدرس دوره: دکتر سید مصطفی کلامی هریس، طول مدت دوره: سه ساعت و سی و پنج دقیقه) + اینجا کلیک کنید.
  • فیلم آموزش الگوریتم بهینه‌سازی مبتنی بر آموزش و یادگیری یا TLBO (مدرس دوره: دکتر سید مصطفی کلامی هریس، طول مدت دوره: یک ساعت و پانزده دقیقه) + اینجا کلیک کنید.
  • فیلم آموزش الگوریتم PSO، شامل مباحث تئوری و عملی (مدرس دوره: دکتر سید مصطفی کلامی هریس، طول مدت دوره: نه ساعت و پنجاه و سه دقیقه) + اینجا کلیک کنید.
  • فیلم آموزش پیاده‌سازی و برنامه‌نویسی الگوریتم ازدحام ذرات (PSO) گسسته باینری (مدرس دوره: دکتر اسماعیل آتش‌پز گرگری، طول مدت دوره: یک ساعت و چهل دقیقه) + اینجا کلیک کنید.
  • فیلم آموزش الگوریتم فرهنگی یا Cultural Algorithm در متلب (مدرس دوره: دکتر سید مصطفی کلامی هریس، طول مدت دوره: دو ساعت و سی و شش دقیقه) + اینجا کلیک کنید.
  • فیلم آموزش الگوریتم گروه میگوها با پیاده‌سازی در MATLAB (مدرس دوره: دکتر بهداد آرندیان، طول مدت دوره: یک ساعت و بیست دقیقه) + اینجا کلیک کنید.
  • فیلم آموزش جستجوی ممنوع یا Tabu Search در متلب (مدرس دوره: دکتر سید مصطفی کلامی هریس، طول مدت دوره: دو ساعت و سی و شش دقیقه) + اینجا کلیک کنید.
  • فیلم آموزش الگوریتم بهینه‌سازی علف هرز مهاجم یا IWO در متلب (مدرس دوره: دکتر سید مصطفی کلامی هریس، طول مدت دوره: دو ساعت و بیست و شش دقیقه) + اینجا کلیک کنید.
  • فیلم آموزش جامع کلونی زنبور مصنوعی یا Artificial Bee Colony در متلب (مدرس دوره: دکتر سید مصطفی کلامی هریس، طول مدت دوره: دو ساعت و چهل و یک دقیقه) + اینجا کلیک کنید.
  • فیلم آموزش الگوریتم جستجوی هارمونی یا Harmony Search در متلب (مدرس دوره: دکتر سید مصطفی کلامی هریس، طول مدت دوره: یک ساعت و پنجاه و چهار دقیقه) + اینجا کلیک کنید.
  • فیلم آموزش الگوریتم زنبورها یا Bees Algorithm در متلب (مدرس دوره: دکتر سید مصطفی کلامی هریس، طول مدت دوره: دو ساعت و یک دقیقه) + اینجا کلیک کنید.
  • فیلم آموزش الگوریتم تکامل تفاضلی، شامل مباحث تئوری و عملی (مدرس دوره: دکتر سید مصطفی کلامی هریس، طول مدت دوره: یک ساعت و چهار دقیقه) + اینجا کلیک کنید.
  • فیلم آموزش الگوریتم کرم شب‌تاب یا Firefly Algorithm در متلب (مدرس دوره: دکتر سید مصطفی کلامی هریس، طول مدت دوره: یک ساعت و دوازده دقیقه) + اینجا کلیک کنید.
  • فیلم آموزش الگوریتم بهینه‌سازی ملخ (GOA) و پیاده‌سازی آن در MATLAB (مدرس دوره: مهندس حسن سعادتمند، طول مدت دوره: پنج ساعت و هفت دقیقه) + اینجا کلیک کنید.
  • فیلم آموزش الگوریتم رقابت استعماری در متلب (مدرس دوره: دکتر سید مصطفی کلامی هریس، طول مدت دوره: سیزده ساعت و هشت دقیقه) + اینجا کلیک کنید.
  • فیلم آموزش شبیه‌سازی تبرید یا Simulated Annealing در متلب (مدرس دوره: دکتر سید مصطفی کلامی هریس، طول مدت دوره: چهار ساعت و بیست و هشت دقیقه) + اینجا کلیک کنید.
  • فیلم آموزش الگوریتم بهینه‌‌سازی شیرمورچه و پیاده‌سازی آن در متلب (مدرس دوره: دکتر بهداد آرندیان، طول مدت دوره: یک ساعت و چهل و نه دقیقه) + اینجا کلیک کنید.
  • فیلم آموزش الگوریتم مورچگان در متلب (مدرس دوره: دکتر سید مصطفی کلامی هریس، طول مدت دوره: شش ساعت و چهل و هفت دقیقه) + اینجا کلیک کنید.

اگر این مطلب برای شما مفید بوده است، آموزش‌ها و مطالب زیر نیز به شما پیشنهاد می‌شوند:

الهام حصارکی (+)

«الهام حصارکی»، فارغ‌التحصیل مقطع کارشناسی ارشد مهندسی فناوری اطلاعات، گرایش سیستم‌های اطلاعات مدیریت است. او در زمینه هوش مصنوعی و داده‌کاوی، به ویژه تحلیل شبکه‌های اجتماعی، فعالیت می‌کند.

بر اساس رای 1 نفر

آیا این مطلب برای شما مفید بود؟

نظر شما چیست؟

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

برچسب‌ها