تقلب نامه (Cheat Sheets) یادگیری ماشین دانشگاه استنفورد به زبان فارسی – راهنماهای سریع و کامل

۹۱۳ بازدید
آخرین به‌روزرسانی: ۱۰ تیر ۱۴۰۲
زمان مطالعه: ۴ دقیقه
تقلب نامه (Cheat Sheets) یادگیری ماشین دانشگاه استنفورد به زبان فارسی – راهنماهای سریع و کامل

«تقلب‌نامه» (Cheat Sheet) متنی جامع اما موجز پیرامون یک مبحث مشخص است که با هدف ارائه بیشترین اطلاعات در کم‌ترین حجم از متن تولید می‌شود. تقلب‌نامه را می‌توان به منظور مطالعه سریع و کامل پیرامون یک موضوع، انجام جمع‌بندی پس از مطالعه کتب، جزوات و مشاهده فیلم‌های آموزشی، همراه داشتن به صورت مجموعه نکاتی برای ارجاع در وقت نیاز و دیگر حالات مورد استفاده قرار داد. «مجله فرادرس»، به دلیل مزایای گوناگونی که تقلب‌نامه‌ها برای فراگیران دانش در حوزه‌های مختلف دارند، اقدام به انتشار تقلب‌نامه‌هایی به زبان فارسی در زمینه‌های گوناگون کرده است که می‌توان لیست دقیق آن‌ها را از اینجا مشاهده کرد.

در این مطلب، هدف معرفی مجموعه «تقلب‌نامه‌های تهیه شده توسط افشین عمیدی (+) دانشمند داده شرکت اوبر و شروین عمیدی (+) از فارغ‌التحصیلان دانشگاه استنفورد» است. این مجموعه تقلب‌نامه در زمینه «یادگیری ماشین» (Machine Learning) که ابتدا فقط نسخه انگلیسی آن موجود بود، توسط تیمی از دانشجویان دانشگاه استنفورد فارسی‌سازی شده و در این صفحه (+) قرار گرفته‌اند. در ادامه محتوای هر یک از این تقلب‌نامه‌ها به طور دقیق‌تر بررسی می‌شود.

تقلب‌نامه یادگیری با نظارت (+): در این تقلب‌نامه مفاهیم «یادگیری نظارت شده» (Supervised Learning) و انواع الگوریتم‌های آن تشریح شده است.

در ادامه سرفصل‌های ارائه شده در این تقلب‌نامه بیان شده‌اند.

  • مبانی یادگیری با نظارت شامل انواع پیش‌بینی و نوع مدل
  • نمادها و مفاهیم کلی شامل فرضیه، «تابع خطا» (Error Function)، تابع هزینه یا تابع زیان (Cost Function یا Loss Function)، «گرادیان کاهشی» (Gradient Descent)، «درست نمایی» (likelihood) و «الگوریتم نیوتن» (Newton's Method)
  • مدل‌های خطی شامل معادلات نرمال، الگوریتم کمینه میانگین مربعات، «وایازش محلی وزن‌دار» (Locally Weighted Regression | LWR)
  • وایازش لجستیک (Logistic Regression | رگرسیون لجستیک) شامل «تابع سیگموئید» (Sigmoid Function) و وایازش Softmax
  • مدل‌های خطی تعمیم‌یافته شامل «خانواده نمایی» (Exponential Family) و فرضیه‌های مدل‌های خطی تعمیم یافته (GLM - Generalized Linear Models)
  • ماشین‌های بردار پشتیبان (Support Vector Machines) شامل دسته‌بندی حاشیه بهینه، خطای Hinge، هسته، «لاگرانژی» (Lagrangian) و «ضرایب لاگرانژ» (Lagrange Multiplier)
  • یادگیری مولد شامل تحلیل متمایزکننده گاوسی و دسته‌بند بیز ساده
  • روش‌های مبتنی بر درخت شامل CART، «جنگل تصادفی» (Random Forest) و «روش‌های ترقی دادن» (Boosting)
  • روش k-نزدیک‌ترین همسایگی (K-Nearest Neighbors | KNN)
  • نظریه یادگیری شامل کران اجتماع و «نامساوی هوفدینگ» (Hoeffding's Inequality)، خطای آموزش، یادگیری احتمالاً تقریباً صحیح (Probably Approximately Correct | PAC)، خرد شدن، قضیه کران بالا، بُعد VC و قضیه Vapnik

تقلب‌نامه یادگیری بدون نظارت (+): در تقلب‌نامه مذکور به مفاهیم و روش‌های یادگیری بدون نظارت (Unsupervised learning | یادگیری نظارت نشده) پرداخته شده است. از جمله موضوعات مورد بررسی در این تقلب‌نامه می‌توان به موارد زیر اشاره کرد.

تقلب‌نامه نکات و ترفندهای یادگیری ماشین (+): در این تقلب‌نامه برخی نکات و ترفندهای یادگیری ماشین (به ویژه معیارهای دسته‌بندی به منظور ارزیابی مدل) ارائه شده‌اند. از جمله موضوعات مورد بررسی در این تقلب‌نامه می‌توان به موارد زیر اشاره کرد:

  • معیارهای دسته‌بندی شامل «ماتریس درهم‌ریختگی» (Confusion Matrix)، معیارهای اصلی، «منحنی عملیاتی دریافت کننده» (Receiver Operating Characteristic | ROC) و «ناحیه زیر منحنی عملیاتی دریافت کننده» (AUC یا AUROC)
  • معیارهای وایازش (رگرسیون | Regression) شامل معیارهای ابتدایی، ضریب تعیین، معیارهای اصلی
  • انتخاب مدل شامل واژگان، «اعتبارسنجی متقاطع» (Cross-Validation | CV) و «نظام بخشی» (با قاعده‌سازی | Regularization)
  • عیب‌شناسی شامل «پیش‌قدر» (سوگیری | Bias)، واریانس، «تعادل پیش‌قدر/واریانس» (Bias–Variance Tradeoff | موازنه سوگیری/واریانس)، تحلیل خطا و تحلیل تقطیعی

تقلب‌نامه یادگیری عمیق (+): در این تقلب‌نامه مفهوم «شبکه‌های عصبی» (Neural Networks) و انواع آن بیان شده و سپس مباحث زیر تشریح شده‌اند:

  • تابع فعال‌سازی
  • خطای آنتروپی متقاطع
  • نرخ یادگیری
  • انتشار معکوس
  • نحوه به روز رسانی وزن‌ها در شبکه عصبی
  • مفاهیم و محاسبات «شبکه‌های عصبی پیچشی» (کانولوشنی | Convolutional Neural Network) شامل الزامات لایه کانولوشنی و «نرمال‌سازی دسته‌ای» (Batch normalization)
  • مفاهیم «شبکه‌های عصبی بازگشتی» (Recursive Neural Network) شامل انواع دروازه‌ها و شبکه حافظه طولانی کوتاه مدت (LSTM)
  • تعاریف یادگیری تقویتی و کنترل شامل «فرآیندهای تصمیم‌گیری مارکوف» (Markov Decision Process)، خط مشی، تابع ارزش، «معادله بلمن» (Bellman Equation)، الگوریتم تکرار ارزش و یادگیری Q

تقلب‌نامه جبر خطی و حسابان (+): در این تقلب‌نامه مفاهیم و محاسبات جبر خطی و حسابان مورد نیاز در زمینه یادگیری ماشین بیان شده‌اند. سرفصل مطالب ارائه شده به شرح زیر است:

تقلب‌نامه آمار و احتمال (+): تمرکز این تقلب‌نامه بر مباحث آمار و احتمالات مورد نیاز در زمینه یادگیری ماشین است. از جمله مباحث مطرح شده در این نوشتار می‌توان به موارد زیر اشاره کرد:

اگر مطلب بالا برای شما مفید بوده، آموزش‌های زیر نیز به شما پیشنهاد می‌شوند:

^^

بر اساس رای ۱۴ نفر
آیا این مطلب برای شما مفید بود؟
اگر بازخوردی درباره این مطلب دارید یا پرسشی دارید که بدون پاسخ مانده است، آن را از طریق بخش نظرات مطرح کنید.
منابع:
صفحه شخصی شروین عمیدی در دانشگاه استنفورد
۵ دیدگاه برای «تقلب نامه (Cheat Sheets) یادگیری ماشین دانشگاه استنفورد به زبان فارسی – راهنماهای سریع و کامل»

سلام فایل pdf کجاست؟! برای دانلود

سلام، وقت شما بخیر؛

این تقلب‌نامه‌ها همانطور که در متن مطلب نیز شرح داده شده است توسط مجله فرادرس تهیه نشده‌اند و برای همین فاقد فایل PDF هستند. در اصل، مجله فرادرس تنها اقدام به معرفی آن‌ها برای علاقه‌مندان کرده است. برای مشاهده چیت‌شیت‌های معرفی شده می‌توانید از این لینک یا لینک‌های قرار شده در خود نوشتار استفاده کنید.

از همراهی شما با مجله فرادرس بسیار سپاسگزاریم.

Dear Staff, thank you for your interest in our work.

Could you please clearly indicate at the beginning of each cheatsheet the source of the original content (https://stanford.edu/~shervine/teaching/cs-229.html)?

Also, we ask that you please do not monetize our cheatsheets in any way — we created them so that they could be freely accessible to everyone.

Thank you in advance,
Shervine

That sounds great, thank you Elham!

All the best,
Shervine

Dear Shervine Amidi,

First of all, I would like to thank you for developing these efficient and comprehensive cheatsheets. To respect endeavors of professional content creators, we always cite the source of foreign language contents which translated to persian by our bloggers. In this way, the main source of this cheatsheet also cited twice, once in the blog post (source part) and another time at the end of the cheatsheet’s PDF file (This is the template of our cheatsheets and even in the ones we create, the source cited at the end). Of course we are not going to monetize these cheetsheets and they are freely accessible through our weblog.

Thanks a lot for the feedback and your attention,

Your Sincerely,

Elham Hesaraki
Head of data science and AI content team

نظر شما چیست؟

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *