«رگرسیون خطی» (Linear Regression) اولین الگوریتم «یادگیری ماشین» (Machine Learning) برای «علم داده» (Data Science) به حساب می‌آید. رگرسیون خطی در یادگیری ماشین، یک مدل «یادگیری نظارتی» (Supervised Learning) محسوب می‌شود که در آن، هدفِ مدل پیدا کردن «بهترین خط برازش» (‌Best Fit Line) بین متغیرهای مستقل و وابسته است. به عبارت دیگر، این مدل بین متغیرهای مستقل و وابسته رابطه‌ای خطی به وجود می‌آورد. در این مطلب به رگرسیون خطی در یادگیری ماشین طور جامع توضیح داده شده است و موارد مرتبط با آن نیز مورد بررسی قرار گرفته‌اند.

فهرست مطالب این نوشته

رگرسیون خطی در یادگیری ماشین چیست ؟

رگرسیون خطی یکی از ساده‌ترین و محبوب‌ترین الگوریتم‌های یادگیری ماشین به حساب می‌آید. این مدل، روشی آماری است و برای تجزیه و تحلیل پیش‌بینی استفاده می‌شود. رگرسیون خطی برای متغیرهای پیوسته، واقعی و عددی از جمله میزان فروش، حقوق، سن افراد، قیمت محصولات و سایر موارد مورد استفاده قرار می‌گیرد.

رگرسیون خطی در یادگیری ماشین رابطه خطی بین متغیری وابسته مانند Y و یک یا چند متغیر مستقل مثل X را نشان می‌دهد، از این رو به آن رگرسیون خطی گفته می‌شود. به عبارت دیگر، از آن‌جایی که رگرسیون خطی نشان دهنده رابطه خطی است، چگونگی تغییر مقدار متغیر وابسته را با توجه به مقدار متغیر مستقل پیدا می‌کند. مدل رگرسیون خطی، یک خط مستقیم شیب‌دار و رابطه بین متغیرها را نشان می‌دهد. نمودار زیر برای نشان دادن مدل رگرسیون خطی ارائه شده است.

منحنی رگرسیون خطی در یادگیری ماشین

معادله ریاضی رگرسیون خطی به صورت زیر نوشته می‌شود:

$$y = a_0 + a_1 + ε$$

وظیفه هر کدام از متغیرهای معادله فوق در ادامه شرح داده شده است:

  • Y: متغیر وابسته یا همان متغیر هدف را نشان می‌دهد.
  • X: متغیر مستقل یا همان متغیر پیش‌بینی را مشخص می‌کند.
  • $$a_0 $$: نقطه‌ای که تابع محور Y را قطع می‌کند (به واسطه آن درجه بیشتری از آزادی عمل ارائه می‌شود).
  • $$a_1 $$: ضریب رگرسیون خطی (ضریب مقیاس برای هر مقدار ورودی را نشان می‌دهد).
  • ε: خطای تصادفی را مشخص می‌کند.

مقدار متغیرهای X و Y مجموعه داده‌های «آموزشی» (Train) را برای مدل رگرسیون خطی در یادگیری ماشین نشان می‌دهند.

انواع رگرسیون خطی در یادگیری ماشین

دو نوع الگوریتم رگرسیون خطی در ماشین لرنینگ وجود دارد که در ادامه فهرست شده‌اند:

در ادامه این نوشتار هر کدام از انواع الگوریتم‌های رگرسیون خطی در یادگیری ماشین شرح داده شده‌اند.

رگرسیون خطی ساده در یادگیری ماشین چیست ؟

خطی که رابطه بین متغیرهای وابسته و مستقل را نشان می‌دهد، «خط رگرسیون» (Regression Line) نامیده می‌شود.

به طور کلی خط رگرسیون می‌تواند دو نوع ارتباط زیر را نشان دهد:

  • «ارتباط خطی مثبت» (Positive Linear Relationship): اگر متغیر وابسته محور Y افزایش پیدا کند و متغیر مستقل روی محور X افزایش داشته باشد، به این ارتباط خطی به اصطلاح ارتباط رگرسیون خطی مثبت گفته می‌شود. در ادامه نموداری با این نوع از ارتباط نمایش داده شده است.
رگرسیون ارتباط خطی مثبت در یادگیری ماشین
  • «ارتباط خطی منفی» (Negative Linear Relationship): اگر متغیرهای وابسته روی محور Y کاهش پیدا کنند و متغیرهای مستقل روی محور X افزایش داشته باشند، رابطه رگرسیون خطی منفی در مدل به وجود می‌آید.
رگرسیون ارتباط خطی منفی در یادگیری ماشین

رگرسیون خطی چندگانه در یادگیری ماشین چیست ؟

در روش رگرسیون خطی چندگانه، بیش از یک متغیر مستقل برای مدل جهت پیدا کردن ارتباط وجود دارد. در معادله رگرسیون خطی چندگانه که در آن $$b_0 $$ نقطه قطع کردن است، $$b_1, b_2, b_3, b_4, ... , b_n $$ ضرایب یا دامنه‌های متغیرهای مستقل $$x_1, x_2, x_3, x_4, ... , x_n $$ هستند و $$y$$ یک متغیر وابسته به حساب می‌آید.

$$y = b_0 + b_1 x_1 + b_2 x_2 + b_3 x_3 + ... + b_n x_n $$

اصطلاحات پیش بینی با استفاده از رگرسیون خطی در یادگیری ماشین

در این بخش با استفاده از مثال چند اصطلاح رایج در الگوریتم‌های یادگیری ماشین و همچنین رگرسیون خطی آموزش داده شده‌اند. در این مثال، تابع پیش‌بینی با استفاده از رگرسیون خطی، می‌تواند تخمینی از فروش را با توجه به هزینه‌های تبلیغات رادیویی شرکت و مقادیر فعلی برای «وزن» (Weight) و «بایاس» (Bias) به دست بیاورد. در ادامه رابطه ریاضی این مثال نشان داده شده است:

$$ Sales = Weight ⋅ Radio + Bias $$

در ادامه هر یک از مؤلفه‌های رابطه فوق بررسی و شرح داده شده‌اند:

  • وزن یا همان Weight: ضرایبی برای متغیر مستقل رادیو هستند. در یادگیری ماشین این ضرایب، وزن نامیده می‌شوند.
  • رادیو یا همان Radio در فرمول فوق: ضرایب مستقلی هستند که در یادگیری ماشین به آن‌ها ویژگی گفته می‌شود.
  • بایاس یا همان Bias: به نقطه‌ای که خط جدا کننده محور Yها را قطع می‌کند، در یادگیری ماشین بایاس گفته می‌شود. بایاس همه پیش‌بینی‌های انجام شده را خنثی می‌کند.

کدهای رابطه فوق در ادامه نمایش داده شده‌اند:

def predict_sales(radio, weight, bias):
    return weight*radio + bias

الگوریتم این مثال تلاش می‌کند تا مقدارهای صحیحی را برای وزن و بایاس یاد بگیرد. در انتهای یادگیری این الگوریتم، معادله خط مورد نظر بهترین برازش را به صورت تقریبی نشان می‌دهد. در ادامه بهترین خط برازش رگرسیون آموزش داده شده مشاهده می‌شود.

بهترین خط رگرسیون آموزش داده شده

هدف الگوریتم رگرسیون خطی در یادگیری ماشین چیست ؟

هدف اصلی الگوریتم‌های رگرسیون خطی، پیدا کردن بهترین خط برازش و مقدارهای بهینه برای جدا کننده‌ها و ضرایب از جمله به حداقل رساندن خطاها است. خطا در الگوریتم‌های رگرسیون خطی، تفاوت بین مقدار واقعی و مقدار پیش‌بینی شده به حساب می‌آید و هدف الگوریتم کاهش این تفاوت است. در ادامه نموداری ارائه شده است که خطا را در یک الگوریتم رگرسیون خطی نشان می‌دهد.

خطا در رگرسیون خطی در یادگیری ماشین

توضیحاتی در رابطه با نمودار فوق در ادامه فهرست شده‌اند:

  • x در نمودار فوق نشان‌دهنده متغیر وابسته است که روی محور Xها و y متغیر مستقل را نشان می‌دهد که روی محور Y‌ها ترسیم شده است.
  • نقطه‌های سیاه نشان‌دهنده نقاط داده یعنی همان مقدارهای واقعی هستند.
  • $$ b_0 $$ فاصله جدا شده بین صفر تا ۱۰ و $$ b_1 $$ شیب متغیر x را نشان می‌دهد.
  • خط آبی بهترین خط برازش پیش‌بینی توسط مدل رگرسیون خطی به حساب می‌آید. به عبارت دیگر، مقادیر پیش‌بینی شده روی خط آبی قرار دارند.

فاصله عمودی بین نقاط داده و خط رگرسیون به عنوان خطا یا باقی‌مانده شناخته می‌شود. هر نقطه داده دارای یک باقی‌مانده و مجموعه همه این تفاوت‌ها به عنوان مجموع خطا‌ها یا باقی‌مانده‌ها در نظر گرفته شده‌اند. رابطه ریاضی خطا برای الگوریتم رگرسیون خطی در ادامه نمایش داده شده است:

$$ Residual / Error = Actual values\ -\ Predicted Values $$

در فرمول فوق، خطا یا همان باقی مانده با استفاده از کم کردن مقدار واقعی از مقدار پیش‌بینی شده محاسبه شده است.

 $$ Sum \ of \ Residuals / Errors = Sum ( Actual \ -\ Predicted Values)$$

مجموع مقادیر باقی‌مانده یا خطاها با استفاده از فرمول فوق به این صورت محاسبه شده است که مجموع مقادیر واقعی منهای مقادیر پیش‌بینی شده حساب می‌شود.

$$Square \ of \ Sum \ of \ Residuals / Errors = ( Sum ( Actual \ -\ Predicted Values) )^2$$

با استفاده از فرمول فوق، مربع مجموع خطا یا باقی مانده محاسبه می‌شود. در این رابطع، نتیجه‌ای که از رابطه قبلی به دست آمده بود به توان دوم می‌رسد. رابطه زیر نشان‌دهنده فرمول ریاضی خطای کلی در الگوریتم رگرسیون خطی است:

$$\sum e_i^2 = \sum (Y _i - \hat {Y_ i})$$

در بخش بعدی از مطلب «رگرسیون خطی در یادگیری ماشین»، پس از معرفی مجموعه دوره‌های آموزش «داده کاوی» (Data Mining) و یادگیری ماشین، به بررسی برخی از فرضیه‌های رگرسیون خطی پرداخته شده است.

معرفی فیلم های آموزش داده کاوی و یادگیری ماشین فرادرس

مجموعه آموزش های یادگیری ماشین فرادرس

دوره‌های آموزشی ویدیویی پلتفرم فرادرس بر اساس موضوع به صورت مجموعه‌های آموزشی متفاوتی دسته‌بندی شده‌اند. یکی از این مجموعه‌های جامع مربوط به دوره‌های آموزش داده کاوی و یادگیری ماشین است. علاقه‌مندان می‌توانند از این مجموعه آموزشی برای مطالعه بیشتر استفاده کنند. در زمان تدوین این مطلب، مجموعه دوره‌های داده کاوی و یادگیری ماشین فرادرس حاوی بیش از ۳۲۶ ساعت محتوای ویدیویی و حدود ۴۱ عنوان آموزشی مختلف بوده است. در ادامه این بخش، برخی از دوره‌های این مجموعه به طور خلاصه معرفی شده‌اند:

  • فیلم آموزش یادگیری ماشین Machine Learning با پایتون Python (طول مدت: ۱۰ ساعت، مدرس: مهندس سعید مظلومی راد): در این دوره آموزشی فرادرس ابتدا سعی شده است، بسته‌های شناخته شده پایتون معرفی و سپس کار با توابع آن‌ها آموزش داده شوند. در انتها نیز مباحث یادگیری ماشین همراه با مثال‌های متعدد در پایتون مورد بررسی قرار گرفته‌اند. برای مشاهده فیلم آموزش یادگیری ماشین Machine Learning با پایتون Python + کلیک کنید.
  • فیلم آموزش یادگیری عمیق با پایتون - تنسورفلو و کراس TensorFlow و Keras (طول مدت: ۲ ساعت و ۵۷ دقیقه، مدرس: دکتر سعید محققی): در این دوره آموزشی، تمرکز بر روی آموزش محبوب‌ترین ابزارهای نرم افزاری، پرکاربردترین کتابخانه‌های کدنویسی از جمله تنسورفلو و کراس و رایج‌ترین مدل‌ها و داده‌ها در زمینه یادگیری عمیق است. برای مشاهده فیلم آموزش یادگیری عمیق با پایتون - تنسورفلو و کراس TensorFlow و Keras + کلیک کنید.
  • فیلم آموزش یادگیری عمیق - شبکه های GAN با پایتون (طول مدت: ۵ ساعت و ۶ دقیقه، مدرس: دکتر عادل قاضی خانی): در فرادرس شبکه‌های GAN معمولی، شبکه‌های Deep Convolutional GAN ،Semi-Supervised GAN ،Conditional GAN و CycleGAN بررسی می‌شوند. علاوه بر این، قبل از ورود به حوزه شبکه‌های GAN، مفاهیم مقدماتی مورد نیاز یادگیری ماشین و شبکه‌های عصبی بیان شده است. در این آموزش از زبان پایتون برای برنامه نویسی شبکه‌های GAN استفاده می‌شود. برای مشاهده فیلم آموزش یادگیری عمیق - شبکه های GAN با پایتون + کلیک کنید.
  • فیلم آموزش پردازش زبان های طبیعی NLP در پایتون Python با پلتفرم NLTK (طول مدت: ۷ ساعت و ۱۲ دقیقه، مدرس: مهندس احسان یزدانی): در این دوره آموزشی، زبان برنامه نویسی پایتون برای پردازش زبان طبیعی و مهم‌ترین ابزار آن، یعنی NLTK آموزش داده شده است. برای مشاهده فیلم آموزش پردازش زبان های طبیعی NLP در پایتون Python با پلتفرم NLTK + کلیک کنید.
  • فیلم آموزش‌ کتابخانه scikit-learn در پایتون - الگوریتم های یادگیری ماشین (طول مدت: ۳ ساعت و ۵۷ دقیقه، مدرس: سید علی کلامی هریس): هدف این دوره آموزشی ویدویی، آموزش بخشی از الگوریتم‌های یادگیری ماشین موجود در کتابخانه scikit-learn پایتون است. برای مشاهده فیلم آموزش‌ کتابخانه scikit-learn در پایتون - الگوریتم های یادگیری ماشین + کلیک کنید.
  • آموزش شبکه های عصبی پیچشی CNN - مقدماتی (طول مدت: ۲ ساعت و ۱۲ دقیقه، مدرس: سایه کارگری): از آن‌جا که شبکه‌های عصبی پیچشی یکی از نیازهای اصلی علاقه‌مندان به پردازش تصویر و بینایی ماشین به حساب می‌آیند، فراگیری مفاهیم این شبکه‌ها از اهمیت بالایی برخوردار است و در این فرادرس به آموزش آن‌ها پرداخته می‌شود. برای مشاهده آموزش شبکه‌های عصبی پیچشی CNN - مقدماتی + کلیک کنید.

حال پس از معرفی مجموعه دوره‌های آموزش داده کاوی و یادگیری ماشین فرادرس، بخش بعدی مطلب «رگرسیون خطی در یادگیری ماشین» به بررسی برخی از مفروضات این الگوریتم، اختصاص دارد.

فرضیه های رگرسیون خطی در یادگیری ماشین

الگوریتم رگرسیون خطی دارای برخی از فرضیه‌ها و باورهایی است که مفاهیم بسیار ساده‌ای هستند و در ادامه این بخش مورد بررسی قرار می‌گیرند.

خطی بودن در الگوریتم رگرسیون خطی چیست ؟

این خصوصیت الگوریتم رگرسیون خطی، بیان می‌کند که متغیر وابسته Y باید به صورت خطی با متغیرهای مستقل ارتباط داشته باشند. این فرض با رسم نمودار پراکندگی بین متغیرها بررسی و نمایش داده می‌شود.

خطی و غیر خطی بودن نمودار پراکندگی در رگرسیون خطی در یادگیری ماشین

نرمال بودن در الگوریتم رگرسیون خطی چیست ؟

متغیرهای X و Y در الگوریتم رگرسیون خطی باید توزیع نرمالی داشته باشند. برای بررسی نرمال بودن داده‌ها و متغیرهای الگوریتم رگرسیون خطی می‌توان از روش‌های ترسیم هیستوگرام، KDE و Q-Q استفاده کرد. در ادامه نمودار هیستوگرام باقی‌مانده و «چندک» (Quantile) باقی‌مانده ارائه شده است.

هیستوگرام رگرسیون خطی و باقی مانده

هم واریانسی در الگوریتم رگرسیون خطی چیست ؟

در الگوریتم رگرسیون خطی، واریانس عبارت‌های دارای خطا باید ثابت باشد، به عبارت دیگر، نیاز است که گسترش باقی‌مانده برای همه متغیرهای X ثابت در نظر گرفته شود. این فرضیه را می‌توان با رسم نمودار باقی‌مانده بررسی کرد. اگر این فرضیه انجام نشود و رد شود، نقاط داده به صورت قیف در نمودار جمع می‌شوند و اگر فرضیه به درستی انجام گیرد، نقاط داده ثابت خواهند بود. در ادامه نمودارهای باقی‌مانده‌ها در شرایط مختلف برای الگوریتم رگرسیون خطی نمایش داده شده‌اند:

نمودار طیف باقی مانده در رگرسیون خطی

استقلال و غیر هم خطی چندگانه در الگوریتم رگرسیون خطی چیست ؟

فرضیه استقلال و غیر هم خطی چندگانه در الگوریتم رگرسیون خطی بیان می‌کند که متغیرها باید نسبت به یکدیگر مستقل باشند؛ به عبارت دیگر نباید بین متغیرهای مستقل «همبستگی» (Correlation) وجود داشته باشد. برای بررسی این موضوع می‌توان از «ماتریس همبستگی» (Correlation Matrix) یا معیار VIF استفاده کرد. اگر معیار VIF بزرگتر از ۵ باشد، متغیرها همبستگی بالایی دارند. در تصویر زیر همبستگی بالایی بین متغیرهای سطر x5 و x6 وجود دارد.

همبستگی متغیرها در الگوریتم رگرسیون خطی در یادگیری ماشین
مطلب پیشنهادی:
رگرسیون خطی چندگانه (Multiple Linear Regression) — به زبان ساده
شروع مطالعه

نداشتن خود همبستگی در الگوریتم رگرسیون خطی چیست ؟

عبارت‌های خطا باید مستقل از یکدیگر باشند. خود همبستگی را می‌توان با استفاده از «آزمون دوربین واتسون» (Durbin Watson Test) بررسی کرد. فرضیه «تهی» (Null) فرض می‌کند که هیچ خود همبستگی در الگوریتم وجود ندارد. به طور کلی مقدار این آزمون ۰ تا ۴ است و اگر مقدار ۴ باشد، هیچ خود همبستگی وجود ندارد.

چگونه می توان بهترین خط برازش را در رگرسیون خطی پیدا کرد؟

زمانی که فرد با رگرسیون خطی در حال کار کردن است، مهم‌ترین هدف پیدا کردن بهترین خط برازش به حساب می‌آید. به عبارت دیگر، هدف یافتن خطی است که کمترین خطا را بین مقدارهای پیش‌بینی شده و مقدارهای واقعی داشته باشد. بنابراین بهترین خط برازش، خطی است که کمترین خطا را دارد. مقدارهای مختلف موجود برای وزن‌ها و ضرایب خط‌های $$ (a_0 , \ a_1)$$ باعث ایجاد خط‌های رگرسیون مختلفی می‌شود. بنابراین، نیاز است که بهترین مقدار برای $$ a_0 $$ و $$ a_1 $$ به منظور پیدا کردن مناسب‌ترین خط برازش محاسبه شود. از این رو، برای محاسبه این مقدار از «تابع هزینه» (Cost Function) استفاده می‌شود که در ادامه به آن پرداخته‌ایم.

تابع زیان یا تابع هزینه چیست؟

تابع هزینه یا همان تابع زیان به توسعه دهندگان این امکان را می‌دهد تا با استفاده از آن بهترین مقدار ممکن را برای $$ a_0 $$ و $$ a_1 $$ پیدا کنند و بهترین و مناسب‌ترین خط برازش را برای نقاط داده فراهم می‌کند. از آن‌جایی که مدل نیازمند بهترین مقدار برای $$ a_0 $$ و $$ a_1 $$ است، می‌توان این مسئله را به عنوان یک مسئله کمینه‌سازی در نظر گرفت و خطای بین مقدار واقعی و مقدار پیش‌بینی شده را به حداقل رساند.

مطلب پیشنهادی:
توابع زیان (Loss Function) در یادگیری ماشین - به همراه کدهای پایتون
شروع مطالعه

در تصویر زیر معادله ریاضی تابع هزینه نمایش داده شده است:

$$minimize = \frac 1n \sum_ {i=1} ^ {n} {(pred _i - y _i)}^2$$

$$J = \frac 1n \sum_ {i=1} ^ {n} {(pred _i - y _i)}^2$$

تابع فوق برای کمینه‌سازی خطا انتخاب می‌شود. برای محاسبه این مقدار میبینیم، اختلاف خطای بین مقدارهای واقعی و پیش‌بینی شده به توان ۲ رسانده شده‌اند، این مقدار برای تمام نقاط داده، محاسبه و باهم جمع می‌شوند و در نهایت مقدار به دست آمده، بر تعداد کل نقاط داده تقسیم خواهند شد. به عبارت دیگر، رابطه تابع هزینه میانگین مربع مقدار خطا برای همه نقاط داده را فراهم می‌کند. بنابراین، این تابع هزینه به عنوان تابع «میانگین مربع‌های خطا» (Mean Squared Error | MSE) نیز شناخته می‌شود. حال، با استفاده از این تابع MSE، مقادیر $$ a_0 $$ و $$ a_1 $$ طوری تغییر داده می‌شوند که مقدار MSE در حالت مینیمم قرار بگیرد.

مطلب پیشنهادی:
بررسی معیارهای ارزیابی رگرسیون در پایتون — پیاده سازی + کدها
شروع مطالعه

می‌توان کدهای زبان برنامه نویسی «پایتون» (Python) تابع هزینه را به صورت زیر نوشت:

def cost_function(radio, sales, weight, bias):
    companies = len(radio)
    total_error = 0.0
    for i in range(companies):
        total_error += (sales[i] - (weight*radio[i] + bias))**2
    return total_error / companies

گرادیان کاهشی چیست؟

مفهوم دیگری که باید در رگرسیون خطی آن را درک کرد، «گرادیان کاهشی» (Gradient Descent) است. گرادیان کاهشی روشی برای به‌روزرسانی $$ a_0 $$ و $$ a_1 $$ برای کاهش مقدار تابع هزینه یا همان MSE به حساب می‌آید. ایده این روش به این صورت است که در ابتدا کار با مقادیری برای $$ a_0 $$ و $$ a_1 $$ شروع می‌شود و سپس کم کم این مقدار را باید تغییر داد تا مقدار تابع هزینه کاهش پیدا کند. به طور کلی گرادیان کاهشی امکان تغییر مقادیر را به توسعه دهندگان می‌دهد. در تصویر زیر تاًثیر انواع «نرخ یادگیری» (Learning Rate) روی دو نمودار مشابه نمایش داده شده است.

گرادیان کاهشی در رگرسیون خطی چیست

برای درک بهتر نرخ یادگیری، می‌توان گودالی شبیه به U تصور کرد و در بالاترین نقطه گودال ایستاد و هدف را رسیدن به انتهای گودال در نظر گرفت. برای رسیدن به انتهای گودال فقط باید تعداد معینی قدم برداشت. اگر فرد تصمیم بگیرید در هر بار فقط یک قدم بردارد، زمان زیادی برای رسیدن به انتهای گودال صرف می‌شود. اما اگر هر بار قدم بزرگ‌تری برداشت، احتمال این وجود دارد که زودتر به انتهای گودال رسید، اما احتمال دیگری نیز وجود دارد و آن هم این است که با برداشتن گام‌های بزرگ ممکن است نتوان در محل مورد نظر یعنی نقطه مینیمم توقف کرد و عبور از آن نقطه اتفاق بیوفتد.

در الگوریتم گرادیان کاهشی، تعداد قدم‌هایی که برداشته می‌شود، همان نرخ یادگیری هستند و این نرخ یادگیری مشخص می‌کند که الگوریتم باید با چه سرعتی به سمت مینیمم همگرا شود. گاهی اوقات تابع هزینه می‌تواند تابع غیر محدبی باشد که می‌توان در آن، در بخش مینیمم محلی قرار گرفت، اما برای الگوریتم رگرسیون خطی در یادگیری ماشین همیشه این تابع، محدب است. تصویر زیر تابع محدب و غیرمحدب را نشان می‌دهد.

تابع محدب و غیر مجدب در الگوریتم گرادیان کاهشی

حال باید به این موضوع پرداخت که چطور می‌توان با استفاده از گرادیان کاهشی، مقدارهای $$ a_0 $$ و $$ a_1 $$ را به‌روزرسانی کرد. برای به‌روزرسانی $$ a_0 $$ و $$ a_1 $$ مقدار گرادیان‌ها از تابع هزینه گرفته می‌شوند. برای پیدا کردن این مقادیر گرادیان‌ها، مشتق جزئی یا همان نسبی با توجه به $$ a_0 $$ و $$ a_1 $$ از تابع گرفته می‌شود. حال، برای درک این‌که چطور می‌توان این مشتق جزئی را محاسبه کرد، اثبات این موضوع در ادامه ارائه شده است:

$$J = \frac 1n \sum_ {i=1} ^ {n} {(pred _i - y _i)}^2$$

$$J = \frac 1n \sum_ {i=1} ^ {n} {(a _0 + a _1 . x _i - y_ i)}^2$$

$$ \frac {\partial J} {\partial a_0} = \frac 2n \sum_ {i=1} ^ {n} (a_0 + a_1 . x _i - y _i) \Longrightarrow \frac {\partial J} {\partial a_0} = \frac 2n \sum_ {i=1} ^ {n} (pred _i - y _i)$$

$$ \frac {\partial J} {\partial a_0} = \frac 2n \sum_ {i=1} ^ {n} (a_0 + a_1 . x _i - y _i). x_ i \Longrightarrow \frac {\partial J} {\partial a_0} = \frac 2n \sum_ {i=1} ^ {n} (pred _i - y _i). x_ i$$

رابطه نهایی ارائه شده برای مقدار گرادیان‌ها در تصویر زیر نمایش داده شده است:

$$a_0 = a_0 - \alpha. \frac 2n \sum_ {i=1} ^ {n} (pred _i - y _i)$$

$$a_1 = a_1 - \alpha. \frac 2n \sum_ {i=1} ^ {n} (pred _i - y _i). x_ i$$

مشتقات جزئی گرادیان‌ها برای به‌روزرسانی مقدار $$ a_0 $$ و $$ a_1 $$ استفاده می‌شوند. آلفا در معادله‌های بالا نشان‌دهنده نرخ یادگیری یا «فراپارامترهایی» (Hyperparameter) است که باید مشخص شوند. اگر مقدار نرخ یادگیری کم باشد، به مقدار تابع هزینه مینیمم نزدیک‌تر خواهد بود، اما زمان بیشتری برای رسیدن به این مقدار صرف می‌شود. همچنین، اگر مقدار نرخ یادگیری بالا باشد، تابع زودتر همگرا خواهد شد، اما ممکن است مقدار نهایی از مینیمم مورد نظر کمتر شود.

برای حل گرادیان کاهشی با استفاده از کدهای پایتون، نقاط داده الگوریتم با استفاده از وزن جدید و مقادیر بایاس تکرار می‌شوند و میانگین مشتقات جزئی محاسبه خواهند شد. نتایج گرادیان شیب تابع هزینه در موقعیت فعلی (یعنی وزن و بایاس) مسیری را نشان می‌دهد که باید با استفاده از آن تابع هزینه را کاهش داد (یعنی حرکت در جهت مخالف گرادیان). همچنین اندازه به‌روزرسانی با استفاده از نرخ یادگیری کنترل می‌شود. در ادامه کدهای پیاده‌سازی گرادیان کاهشی با پایتون نمایش داده شده‌اند.

def update_weights(radio, sales, weight, bias, learning_rate):
    weight_deriv = 0
    bias_deriv = 0
    companies = len(radio)

    for i in range(companies):
        # Calculate partial derivatives
        # -2x(y - (mx + b))
        weight_deriv += -2*radio[i] * (sales[i] - (weight*radio[i] + bias))

        # -2(y - (mx + b))
        bias_deriv += -2*(sales[i] - (weight*radio[i] + bias))

    # We subtract because the derivatives point in direction of steepest ascent
    weight -= (weight_deriv / companies) * learning_rate
    bias -= (bias_deriv / companies) * learning_rate

    return weight, bias

منظم سازی یا Regularization چیست؟

افزونه‌های گسترده زیادی برای آموزش مدل خطی به نام متدهای «Regularization» یا همان «منظم‌سازی» وجود دارند. این روش‌ها نیز برای به حداقل رساندن مجموعه مربعات خطاهای مدل در داده‌های آموزشی استفاده می‌شوند و معمولاً از روش «حداقل مربعات عادی» (Ordinary Least Squares) استفاده می‌کنند. وقتی بیش از یک ورودی وجود داشته باشد، می‌توان از روش حداقل مربعات عادی برای پیش‌بینی مقادیر ضرایب استفاده کرد. به عبارت دیگر، با استفاده از یک خط رگرسیون به دست آمده از طریق داده‌ها، فاصله هر نقطه داده تا خط رگرسیون محاسبه می‌شود، سپس توان ۲ یا همان مربع این فاصله محاسبه خواهد شد و پس از آن، تمام مربعات خطاها با یکدیگر جمع می‌شوند.

این کمیتی است که روش حداقل مربعات عادی قصد دارد آن را به حداقل برساند. یعنی این روش به دنبال به حداقل رساندن مجموع مربع باقیمانده است. همچنین این روش‌ها به دنبال کاهش پیچیدگی مدل با استفاده از تعداد یا اندازه مطلق مجموعه همه ضرایب در مدل هستند. دو مثال رایج و محبوب از روش‌های Regularization برای رگرسیون خطی در یادگیری ماشین در ادامه ارائه شده‌اند:

  • «رگرسیون لاسو» (Lasso Regression): در این روش از متد حداقل مربعات عادی برای به حداقل رساندن مجموع ضرایب مطلق استفاده می‌شود و این روش با نام «L1 regularization» شناخته شده است.
  • «رگرسیون ستیغی» (Ridge Regression): در این روش از متد حداقل مربعات عادی برای به حداقل رساندن مجموع مربعات ضرایب مطلق استفاده شده است و این روش به عنوان «L2 regularization» شناخته می‌شود.

این روش‌ها برای استفاده در زمانی مناسب هستند که «هم‌خطی» (Collinearity) در مقادیر ورودی وجود داشته باشد و حداقل مربعات عادی با داده‌های آموزشی دارای «بیش‌برازش» یا همان «Overfit» باشند.

مطلب پیشنهادی:
هم خطی در مدل رگرسیونی — به زبان ساده
شروع مطالعه

آماده سازی داده ها برای رگرسیون خطی در یادگیری ماشین چگونه است؟

تحقیقات زیادی در رابطه با رگرسیون خطی در یادگیری ماشین انجام شده است و روش‌های بسیاری درباره نحوه ساختار استفاده از داده‌ها برای رسیدن به مدلی بهینه وجود دارند. به طور کلی رایج‌ترین روش پیاده‌سازی رگرسیون خطی، «حداقل مربعات عادی» به حساب می‌آید و می‌توان از قوانین آن استفاده بسیاری کرد. برخی از روش‌های آماده‌سازی داده‌ها در الگوریتم رگرسیون خطی در ادامه ارائه شده‌اند که می‌توان بر اساس نوع مسئله خود مناسب‌ترین روش را برای آماده‌سازی داده‌ها انتخاب کرد:

  • «فرضیه خطی» (Linear Assumption): در الگوریتم رگرسیون خطی فرض می‌شود که رابطه بین ورودی‌ها و خروجی‌ها به صورت خطی است. چیز دیگری نیز در این الگوریتم پشتیبانی نمی‌شود. زمانی که ویژگی‌های مدل زیاد هستند باید به این موضوع توجه شود و ممکن است نیاز باشد که داده‌های مدل را تبدیل کرد. برای مثال می‌توان تبدیل لگاریتم به تابع نمایی را در نظر گرفت.
  • «حذف نویز» (Remove Noise): در رگرسیون خطی فرض می‌شود که متغیرهای وروردی و خروجی نویزدار نیستند. روش‌های پاک‌سازی داده‌ها برای داشتن داده‌هایی بهتر و واضح مورد استفاده قرار می‌گیرند. این روش برای متغیرهای خروجی دارای اهمیت بالایی است و می‌توان در صورت امکان «مقادیر پرت» (Outlier) متغیر خروجی (y) را حذف کرد.
  • «حذف هم‌خطی» (Remove Collinearity): زمانی که در داده‌های ورودی همبستگی بالایی وجود داشته باشد، الگوریتم رگرسیون خطی دچار بیش‌برازش در داده‌ها می‌شود. برای رفع این مسئله می‌توان محاسبه همبستگی‌های دو به دو در داده‌های ورودی و حذف بیشترین همبستگی‌ها را در نظر گرفت.
  • «توزیع گوسی» (Gaussian Distribution): اگر ورودی و خروجی‌های مدل دارای توزیع گوسی باشند، رگرسیون خطی می‌تواند پیش‌بینی‌های قابل اعتمادتری را ارائه دهد. ممکن است بتوان با تبدیل‌هایی از جمله تبدیل لگاریتمی و BoxCox روی متغیرهای مدل خود، مزایایی را به دست آورد تا توزیع متغیرها بیشتر به شکل توزیع گوسی شوند.
  • «تغییر مقیاس ورودی‌ها» (Rescale Input): اگر متغیرهای ورودی مدل با استفاده از روش‌های «استانداردسازی» (Standardization) و «نرمال‌سازی» (Normalization) تغییر مقیاس داده شوند، الگوریتم رگرسیون خطی می‌تواند پیش‌بینی‌های قابل اعتمادتری را ارائه دهد.

در بخش بعدی از مقاله «رگرسیون خطی در یادگیری ماشین» به بررسی کدهایی از این الگوریتم پرداخته شده است.

کدهای رگرسیون خطی در یادگیری ماشین

برای ایجاد کدهای الگوریتم رگرسیون خطی در یادگیری ماشین دو روش وجود دارد. روش اول این است که از کتابخانه «Scikit Learn» پایتون استفاده شود و مدل رگرسیون خطی از این کتابخانه «Import» یا همان وارد برنامه شود و به صورت مستقیم مورد استفاده قرار گیرد. روش دوم این است که الگوریتم رگرسیون خطی در یادگیری ماشین خود را با استفاده از معادله‌های بالا به صورت دستی بنویسیم. در این بخش هر دوی این روش‌ها شرح داده شده‌اند. مجموعه داده‌های زیادی به صورت آنلاین برای رگرسوین خطی در دسترس هستند. در کدهای زیر از مجموعه داده وب سایت «Kaggle» [+] استفاده شده است. داده‌های بخش «آموزش» به صورت زیر مصورسازی شده‌اند:

داده های مجموعه آموزش رگرسیون خطی در یادگیری ماشین

همچنین، داده‌های بخش «تست» الگوریتم رگرسیون خطی در یادگیری ماشین نیز به صورت زیر نشان داده می‌شوند:

داده های بخش تست الگوریتم رگرسیون خطی در یادگیری ماشین

پیاده سازی رگرسیون خطی در یادگیری ماشین با کتابخانه Scikit Learn پایتون

در این بخش ابتدا ساده‌ترین راه حل برای ایجاد الگوریتم رگرسیون خطی در یادگیری ماشین شرح داده می‌شود. این راه حل استفاده از کتابخانه «Scikit Learn» پایتون برای ساخت یک مدل رگرسیون خطی است که کدهای آن در ادامه نمایش داده شده‌اند:

import pandas as pd
import numpy as np

df_train = pd.read_csv('/Users/FaraDars/Documents/Datasets/Linear_Regression/train.csv')
df_test = pd.read_csv('/Users/FaraDars/Documents/Datasets/Linear_Regression/test.csv')

x_train = df_train['x']
y_train = df_train['y']
x_test = df_test['x']
y_test = df_test['y']

x_train = np.array(x_train)
y_train = np.array(y_train)
x_test = np.array(x_test)
y_test = np.array(y_test)

x_train = x_train.reshape(-1,1)
x_test = x_test.reshape(-1,1)

ابتدا در کدهای فوق، از کتابخانه «Pandas» پایتون برای خواندن مجموعه داده‌های آموزش و تست استفاده شده است. متغیرهای مستقل (x) و وابسته (y) بازیابی می‌شوند و از آن‌جایی که فقط یک ویژگی (x) وجود دارد، تغییر شکل یا همان «Reshape» متغیرها به گونه‌ای انجام می‌شود که بتوان از آن‌ها به عنوان وروردی الگوریتم رگرسیون خطی استفاده کرد. ادامه کدهای این پیاده‌سازی در ادامه ارائه شده‌اند:

from sklearn.linear_model import LinearRegression 
from sklearn.metrics import r2_score

clf = LinearRegression(normalize=True)
clf.fit(x_train,y_train)
y_pred = clf.predict(x_test)
print(r2_score(y_test,y_pred))

در کدهای فوق از کتابخانه «Scikit Learn» برای وارد کردن مدل رگرسیون خطی در یادگیری ماشین استفاده شده است. سپس، مدل داده‌های آموزشی را به عنوان وروردی دریافت می‌کند و مقادیر داده‌های تست را پیش‌بینی خواهد کرد. در این روش، برای اندازه‌گیری دقت پیش‌بینی مدل، از معیار «R2 score» استفاده شده است و دقتی که این مدل ارائه می‌دهد روی داده‌های تست به صورت نیز نمایش داده می‌شود:

R2 Score: 0.98880231503

پیاده سازی رگرسیون خطی در یادگیری ماشین با برنامه نویسی معادله اصلی آن

حال، در ادامه این بخش از مطلب «رگرسیون خطی در یادگیری ماشین» مدل رگرسیون خطی با معادله‌های ارائه شده در توضیحات مفاهیم این مطلب برای رگرسیون خطی ایجاد و نوشته می‌شود. در این کدها فقط نیاز است که از کتابخانه «Numpy» پایتون برای محاسبات و «R2 score» برای نشان دادن معیار دقت استفاده شود. کدهای این برنامه در ادامه ارائه شده‌اند:

## Linear Regression 
import numpy as np

n = 700
alpha = 0.0001

a_0 = np.zeros((n,1))
a_1 = np.zeros((n,1))

epochs = 0
while(epochs < 1000):
    y = a_0 + a_1 * x_train
    error = y - y_train
    mean_sq_er = np.sum(error**2)
    mean_sq_er = mean_sq_er/n
    a_0 = a_0 - alpha * 2 * np.sum(error)/n 
    a_1 = a_1 - alpha * 2 * np.sum(error * x_train)/n
    epochs += 1
    if(epochs%10 == 0):
        print(mean_sq_er)

در کدهای فوق مقدار 0.0 در متغیرهای a_0 و a_1 مقداردهی اولیه شده است. تعداد «ایپاک» (Epoch) یا هر دوره در مدل برابر با ۱۰۰۰ در نظر گرفته می‌شود و برای ۱۰۰۰ ایپاک هزینه محاسبه شده است و این هزینه محاسبه شده در گرادیان‌ها مورد استفاده قرار می‌گیرد. سپس از این مقدارهای گرادیان‌ها برای به‌روزرسانی مقدارهای a_0 و a_1 استفاده می‌شود. در این مدل رگرسیون خطی پس از ۱۰۰۰ ایپاک، بهترین مقدار برای متغیرهای a_0 و a_1 به دست می‌آید و با استفاده از آن‌ها می‌توان بهترین خط صاف برازش را ایجاد کرد. در ادامه کدهای بخش تست این مدل ارائه شده است:

import matplotlib.pyplot as plt 

y_prediction = a_0 + a_1 * x_test
print('R2 Score:',r2_score(y_test,y_prediction))

y_plot = []
for i in range(100):
    y_plot.append(a_0 + a_1 * i)
plt.figure(figsize=(10,10))
plt.scatter(x_test,y_test,color='red',label='GT')
plt.plot(range(len(y_plot)),y_plot,color='black',label = 'pred')
plt.legend()
plt.show()

مجموعه داده تست برای این مدل رگرسیون خطی شامل ۳۰۰ نمونه است. بنابراین، باید متغیرهای $$ a_0 $$ و $$ a_1 $$ از اندازه 700x1  به 300x1  تغییر شکل بدهند. حال، فقط از معادله رگرسیون خطی برای پیش‌بینی مقدار در مجموعه داده تست استفاده می‌شود و این دقت پیش‌بینی دقیقاً مانند روش قبلی با استفاده از R2 score نمایش داده شده و نتیجه آن به صورت زیر ارائه شده است.

R2 Score: 0.98880231503
مشاهده می‌شود که برای این مجموعه داده و روش برنامه نویسی رگرسیون خطی در یادگیری ماشین، دقت پیش‌بینی دقیقاً مانند روش اول است. همچنین، خط رگرسیون روی نقاط داده مجموعه تست برای درک تصویری بهتر از روش عملکرد این الگوریتم در تصویر زیر نمایش داده می‌شود:
ترسیم بخش تست و خط رگرسیون برای آن

معیارهای ارزیابی برای تجزیه و تحلیل رگرسیون

برای درک و فهمیدن سطح کارایی یک مدل رگرسیون خطی نیاز است آن را با معیاری ارزیابی کرد. در این بخش از مطلب «رگرسیون خطی در یادگیری ماشین» انواع معیارهای ارزیابی برای تجزیه و تحلیل رگرسیون مورد بررسی قرار می‌گیرند. ابتدا به بررسی مربع R یا «ضریب تعیین» (Coefficient of Determination) پرداخته می‌شود.

معیار مربع R یا ضریب تعیین برای ارزیابی رگرسیون خطی در یادگیری ماشین

رایج‌ترین معیار ارزیابی مدل‌های رگرسیون خطی در یادگیری ماشین، مربع R یا ضریب تعیین به حساب می‌آید. می‌توان این معیار را به عنوان نسبت تغییرات به کل تغییرات تعریف کرد. مقدار «مربع R» یا همان «R squared» بین صفر تا یک است و هر چه مقدار دقت مدل با این معیار به یک نزدیک‌تر باشد، مدل دقت بالاتری دارد و مدل بهتری در نظر گرفته می‌شود. در ادامه معادله این معیار ارزیابی ارائه شده است.

$$R^2 = 1 - \frac {SS_ {RES}} {SS_ {TOT}} = \frac { \sum _i (y_ i - \hat {y _i})^2} {\sum _i (y _i - \overline{y})^2}$$

در معادله فوق، $$SS _ {RES}$$ نشان‌دهنده مجموعه باقی‌مانده مربع‌ها و $$SS _ {TOT}$$ مجموعه همه مربع‌ها به حساب می‌آیند.

معیار مربع R تنظیم شده برای ارزیابی رگرسیون خطی در یادگیری ماشین

معیار ارزیابی «مربع R تنظیم شده» ( Adjusted R squared) نوع بهبود یافته معیار ارزیابی مربع R به حساب می‌آید. مشکلی که روش R۲ دارد این است که با افزایش ویژگی‌های مدل، مقدار R2 نیز افزایش می‌یابد که البته باعث به وجود آمدن مدل خوبی نیز می‌شود. اما مربع R تنظیم شده برای حل این مشکل ارائه شده است. این روش فقط ویژگی‌هایی را در نظر می‌گیرد که برای مدل مهم هستند و بر این اساس می‌تواند بهبود واقعی مدل را نشان دهد. همچنین، معیار R تنظیم شده همیشه از معیار R2 کمتر است. در تصویر زیر معادله این معیار نمایش داده می‌شود.

$$R^2 \ adjusted \ = 1- \frac {(1 - R^2)(N -1)} {N - P- 1}$$

در رابطه فوق، $$R^2$$ نشان‌دهنده تعداد نمونه‌های مربع R، آرگومان p نشان‌دهنده تعداد پیش‌بینی‌ها و N اندازه نمونه‌های کل هستند.

معیار میانگین مربع های خطا برای ارزیابی رگرسیون خطی در یادگیری ماشین

یکی دیگر از معیارهای رایج برای ارزیابی رگرسیون خطی در یادگیری ماشین، «میانگین مربع‌های خطا» (Mean Squared Error | MSE) است که میانگین اختلاف مربع مقادیر واقعی و پیش‌بینی شده را نشان می‌دهد. رابطه این معیار در ادامه نمایش داده می‌شود:

$$MSE = \frac 1n \sum (y - \hat {y})^2 $$

بخش داخل پرانتز رابطه فوق، نشان‌دهنده مربع تفاوت بین مقدارهای واقعی و مقدارهای پیش‌بینی شده است.

معیار ریشه میانگین مربعات خطا برای ارزیابی رگرسیون خطی در یادگیری ماشین

این معیار «ریشه معیار میانگین مربعات خطا» (Root Mean Squared Error | RMSE) به حساب می‌آید. به عبارت دیگر، می‌توان گفت که ریشه میانگین تفاوت مقدارهای واقعی و پیش‌بینی شده است. RMSE در بررسی خطاهای بزرگ مورد استفاده قرار می‌گیرد، با این‌که MSE به این صورت نیست. رابطه این معیار در ادامه نمایش داده شده است:

$$RMSE = \sqrt {{ \frac 1n \sum_ {i=1} ^ {n}} (y _i - \hat {y _i})^2} $$

جمع‌بندی

رگرسیون خطی نوعی الگورتیم‌ در یادگیری ماشین به حساب می‌آید که هر متخصصی در این حوزه باید با آن آشنا باشد. همچنین می‌توان از این الگوریتم به عنوان نقطه شروع خوبی برای یادگیری ماشین لرنینگ استفاده کرد. الگوریتم رگرسیون خطی در یادگیری ماشین بسیار ساده و سودمند است. در این مطلب سعی شد به طور جامع به این سوال پاسخ داده شود که رگرسیون خطی در یادگیری ماشین چیست.

همچنین، بیشتر مسائل مورد نیاز و مرتبط با این الگوریتم از جمله روش‌های استفاده، آماده‌سازی داده‌ها و بررسی انواع معیارها همراه با کدهای پایتون مورد بررسی قرار گرفتند. در نهایت برخی از آموزش‌های ویدیویی فرادرس در زمینه یادگیری ماشین در این مطلب به علاقه‌مندان و دانشجویان معرفی شدند.

اگر این مطلب برای شما مفید بوده است، آموزش‌ها و مطالب زیر نیز به شما پیشنهاد می‌شوند:

بر اساس رای ۱۰ نفر
آیا این مطلب برای شما مفید بود؟
شما قبلا رای داده‌اید!
اگر بازخوردی درباره این مطلب دارید یا پرسشی دارید که بدون پاسخ مانده است، آن را از طریق بخش نظرات مطرح کنید.

سیده مریم سیدخلیل‌الهی دانش‌آموخته کارشناسی ارشد رشته مهندسی کامپیوتر، گرایش هوش مصنوعی از دانشگاه خوارزمی تهران است؛ به حوزه هوش مصنوعی و شبکه‌های عصبی علاقه دارد و در مجله فرادرس به عنوان تولیدکننده محتوا در زمینه‌های علوم کامپیوتر، برنامه‌نویسی و هوش مصنوعی فعالیت می‌کند.

نظر شما چیست؟

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *