تقلب نامه (Cheat Sheets) یادگیری ماشین دانشگاه استنفورد به زبان فارسی – راهنماهای سریع و کامل
«تقلبنامه» (Cheat Sheet) متنی جامع اما موجز پیرامون یک مبحث مشخص است که با هدف ارائه بیشترین اطلاعات در کمترین حجم از متن تولید میشود. تقلبنامه را میتوان به منظور مطالعه سریع و کامل پیرامون یک موضوع، انجام جمعبندی پس از مطالعه کتب، جزوات و مشاهده فیلمهای آموزشی، همراه داشتن به صورت مجموعه نکاتی برای ارجاع در وقت نیاز و دیگر حالات مورد استفاده قرار داد. «مجله فرادرس»، به دلیل مزایای گوناگونی که تقلبنامهها برای فراگیران دانش در حوزههای مختلف دارند، اقدام به انتشار تقلبنامههایی به زبان فارسی در زمینههای گوناگون کرده است که میتوان لیست دقیق آنها را از اینجا مشاهده کرد.
در این مطلب، هدف معرفی مجموعه «تقلبنامههای تهیه شده توسط افشین عمیدی (+) دانشمند داده شرکت اوبر و شروین عمیدی (+) از فارغالتحصیلان دانشگاه استنفورد» است. این مجموعه تقلبنامه در زمینه «یادگیری ماشین» (Machine Learning) که ابتدا فقط نسخه انگلیسی آن موجود بود، توسط تیمی از دانشجویان دانشگاه استنفورد فارسیسازی شده و در این صفحه (+) قرار گرفتهاند. در ادامه محتوای هر یک از این تقلبنامهها به طور دقیقتر بررسی میشود.
تقلبنامه یادگیری با نظارت (+): در این تقلبنامه مفاهیم «یادگیری نظارت شده» (Supervised Learning) و انواع الگوریتمهای آن تشریح شده است.
در ادامه سرفصلهای ارائه شده در این تقلبنامه بیان شدهاند.
- مبانی یادگیری با نظارت شامل انواع پیشبینی و نوع مدل
- نمادها و مفاهیم کلی شامل فرضیه، «تابع خطا» (Error Function)، تابع هزینه یا تابع زیان (Cost Function یا Loss Function)، «گرادیان کاهشی» (Gradient Descent)، «درست نمایی» (likelihood) و «الگوریتم نیوتن» (Newton's Method)
- مدلهای خطی شامل معادلات نرمال، الگوریتم کمینه میانگین مربعات، «وایازش محلی وزندار» (Locally Weighted Regression | LWR)
- وایازش لجستیک (Logistic Regression | رگرسیون لجستیک) شامل «تابع سیگموئید» (Sigmoid Function) و وایازش Softmax
- مدلهای خطی تعمیمیافته شامل «خانواده نمایی» (Exponential Family) و فرضیههای مدلهای خطی تعمیم یافته (GLM - Generalized Linear Models)
- ماشینهای بردار پشتیبان (Support Vector Machines) شامل دستهبندی حاشیه بهینه، خطای Hinge، هسته، «لاگرانژی» (Lagrangian) و «ضرایب لاگرانژ» (Lagrange Multiplier)
- یادگیری مولد شامل تحلیل متمایزکننده گاوسی و دستهبند بیز ساده
- روشهای مبتنی بر درخت شامل CART، «جنگل تصادفی» (Random Forest) و «روشهای ترقی دادن» (Boosting)
- روش k-نزدیکترین همسایگی (K-Nearest Neighbors | KNN)
- نظریه یادگیری شامل کران اجتماع و «نامساوی هوفدینگ» (Hoeffding's Inequality)، خطای آموزش، یادگیری احتمالاً تقریباً صحیح (Probably Approximately Correct | PAC)، خرد شدن، قضیه کران بالا، بُعد VC و قضیه Vapnik
تقلبنامه یادگیری بدون نظارت (+): در تقلبنامه مذکور به مفاهیم و روشهای یادگیری بدون نظارت (Unsupervised learning | یادگیری نظارت نشده) پرداخته شده است. از جمله موضوعات مورد بررسی در این تقلبنامه میتوان به موارد زیر اشاره کرد.
- مبانی و مفاهیم یادگیری بدون نظارت و «نابرابری ینسن» (Jensen's inequality)
- مفاهیم «بیشینهسازی امید ریاضی» (Expectation–Maximization) و الگوریتم آن
- خوشهبندی k-میانگین (k-means clustering)
- «خوشهبندی سلسهمراتبی» (Hierarchical Clustering) و انواع آن
- معیارهای ارزیابی خوشه شامل ضریب نیمرخ و شاخص Calinski-Harabasz
- کاهش ابعاد شامل «تحلیل مولفههای اساسی» (Principal component analysis | PCA)، «مقدار ویژه، بردار ویژه» (Eigenvalue, eigenvector)، «قضیهی طیفی» (Spectral theorem)
- تحلیل مولفههای مستقل و الگوریتم Bell و Sejnowski
تقلبنامه نکات و ترفندهای یادگیری ماشین (+): در این تقلبنامه برخی نکات و ترفندهای یادگیری ماشین (به ویژه معیارهای دستهبندی به منظور ارزیابی مدل) ارائه شدهاند. از جمله موضوعات مورد بررسی در این تقلبنامه میتوان به موارد زیر اشاره کرد:
- معیارهای دستهبندی شامل «ماتریس درهمریختگی» (Confusion Matrix)، معیارهای اصلی، «منحنی عملیاتی دریافت کننده» (Receiver Operating Characteristic | ROC) و «ناحیه زیر منحنی عملیاتی دریافت کننده» (AUC یا AUROC)
- معیارهای وایازش (رگرسیون | Regression) شامل معیارهای ابتدایی، ضریب تعیین، معیارهای اصلی
- انتخاب مدل شامل واژگان، «اعتبارسنجی متقاطع» (Cross-Validation | CV) و «نظام بخشی» (با قاعدهسازی | Regularization)
- عیبشناسی شامل «پیشقدر» (سوگیری | Bias)، واریانس، «تعادل پیشقدر/واریانس» (Bias–Variance Tradeoff | موازنه سوگیری/واریانس)، تحلیل خطا و تحلیل تقطیعی
تقلبنامه یادگیری عمیق (+): در این تقلبنامه مفهوم «شبکههای عصبی» (Neural Networks) و انواع آن بیان شده و سپس مباحث زیر تشریح شدهاند:
- تابع فعالسازی
- خطای آنتروپی متقاطع
- نرخ یادگیری
- انتشار معکوس
- نحوه به روز رسانی وزنها در شبکه عصبی
- مفاهیم و محاسبات «شبکههای عصبی پیچشی» (کانولوشنی | Convolutional Neural Network) شامل الزامات لایه کانولوشنی و «نرمالسازی دستهای» (Batch normalization)
- مفاهیم «شبکههای عصبی بازگشتی» (Recursive Neural Network) شامل انواع دروازهها و شبکه حافظه طولانی کوتاه مدت (LSTM)
- تعاریف یادگیری تقویتی و کنترل شامل «فرآیندهای تصمیمگیری مارکوف» (Markov Decision Process)، خط مشی، تابع ارزش، «معادله بلمن» (Bellman Equation)، الگوریتم تکرار ارزش و یادگیری Q
تقلبنامه جبر خطی و حسابان (+): در این تقلبنامه مفاهیم و محاسبات جبر خطی و حسابان مورد نیاز در زمینه یادگیری ماشین بیان شدهاند. سرفصل مطالب ارائه شده به شرح زیر است:
- «بردار» (Vector)
- ماتریس و مباحث مرتبط با آن شامل «ماتریس همانی» (Identity Matrix) و «ماتریس قطری» (Diagonal Matrix)
- عملیات ماتریس شامل ضرب بردار با بردار از جمله «ضرب داخلی» (Inner Product) و «ضرب خارجی» (Exterior Product)، ضرب ماتریس در بردار، ضرب ماتریس با ماتریس، محاسبه «ترانهاده» (Transpose)، «ماتریس معکوس» (Invertible Matrix | ماتریس وارون)، «اثر» (Trace) و «دترمینان» (Determinant)
- ویژگیهای ماتریس شامل تجزیه متقارن، «نُرم ماتریس» (Matrix Norm)، وابستگی خطی، رتبه ماتریس، «ماتریس مثبت نیمه معین» (Positive semi-definite)، «مقدار ویژه و بردار ویژه» (Eigenvalues and Eigenvectors)، «قضیه طیفی» (Spectral Theorem) و «تجزیه مقدار منفرد» (Singular-Value Decomposition)
- حسابان ماتریسی شامل «گرادیان» (Gradient)، «ماتریس هسین» (Hessian Matrix) و عملیات گرادیانی
تقلبنامه آمار و احتمال (+): تمرکز این تقلبنامه بر مباحث آمار و احتمالات مورد نیاز در زمینه یادگیری ماشین است. از جمله مباحث مطرح شده در این نوشتار میتوان به موارد زیر اشاره کرد:
- مقدمهای بر احتمالات و ترکیبات شامل فضای نمونه، رخداد، اصول موضوعه احتمال، جایگشت و ترکیب
- احتمال شرطی شامل قضیه بیز، افراز، تعمیم قضیه بیز و استقلال
- متغیرهای تصادفی شامل مفاهیم، «تابع توزیع تجمعی» (Cumulative Distribution Function| CDF)، «تابع چگالی احتمال» (Probability Density Function | PDF)
- ارتباط بین تابع چگالی احتمال و تابع توزیع تجمعی، امید ریاضی و گشتاورهای یک توزیع، واریانس، انحراف معیار، تبدیلات متغیرهای تصادفی و قضیه انتگرال لایبنیتس
- توزیعهای احتمالی شامل «نابرابری چبیشف» (Chebyshev's Inequality) و توزیعهای احتمالی اصلی
- متغیرهای تصادفی با توزیع مشترک شامل چگالی حاشیهای و توزیع تجمعی، چگالی شرطی، استقلال، «کواریانس» (Covariance) و همبستگی
- تخمین پارامتر شامل تعاریف نمونه تصادفی، تخمینگر، پیشقدر
- تخمین میانگین شامل میانگین نمونه و قضه حد مرکزی
- تخمین واریانس شامل واریانس نمونه و رابطه X2 با واریانس نمونه
اگر مطلب بالا برای شما مفید بوده، آموزشهای زیر نیز به شما پیشنهاد میشوند:
- مجموعه آموزشهای آمار، احتمالات و دادهکاوی
- مجموعه آموزشهای یادگیری ماشین و بازشناسی الگو
- مجموعه آموزشهای هوش محاسباتی
- مجموعه آموزشهای شبکههای عصبی مصنوعی
- گنجینه آموزشهای برنامه نویسی پایتون (Python)
- آموزش برنامهنویسی R و نرمافزار R Studio
- مجموعه آموزشهای برنامه نویسی متلب (MATLAB)
- علم داده، تحلیل داده، دادهکاوی و یادگیری ماشین ــ تفاوتها و شباهتها
- دوره آموزش یادگیری ماشین وبلاگ فرادرس با مثالهای کاربردی
^^
سلام فایل pdf کجاست؟! برای دانلود
سلام، وقت شما بخیر؛
این تقلبنامهها همانطور که در متن مطلب نیز شرح داده شده است توسط مجله فرادرس تهیه نشدهاند و برای همین فاقد فایل PDF هستند. در اصل، مجله فرادرس تنها اقدام به معرفی آنها برای علاقهمندان کرده است. برای مشاهده چیتشیتهای معرفی شده میتوانید از این لینک یا لینکهای قرار شده در خود نوشتار استفاده کنید.
از همراهی شما با مجله فرادرس بسیار سپاسگزاریم.
Dear Staff, thank you for your interest in our work.
Could you please clearly indicate at the beginning of each cheatsheet the source of the original content (https://stanford.edu/~shervine/teaching/cs-229.html)?
Also, we ask that you please do not monetize our cheatsheets in any way — we created them so that they could be freely accessible to everyone.
Thank you in advance,
Shervine
That sounds great, thank you Elham!
All the best,
Shervine
Dear Shervine Amidi,
First of all, I would like to thank you for developing these efficient and comprehensive cheatsheets. To respect endeavors of professional content creators, we always cite the source of foreign language contents which translated to persian by our bloggers. In this way, the main source of this cheatsheet also cited twice, once in the blog post (source part) and another time at the end of the cheatsheet’s PDF file (This is the template of our cheatsheets and even in the ones we create, the source cited at the end). Of course we are not going to monetize these cheetsheets and they are freely accessible through our weblog.
Thanks a lot for the feedback and your attention,
Your Sincerely,
Elham Hesaraki
Head of data science and AI content team