بررسی معیارهای ارزیابی رگرسیون در پایتون — پیاده سازی + کدها

۵۳۰۲ بازدید
آخرین به‌روزرسانی: ۱ مرداد ۱۴۰۲
زمان مطالعه: ۵ دقیقه
دانلود PDF مقاله
بررسی معیارهای ارزیابی رگرسیون در پایتون — پیاده سازی + کدهابررسی معیارهای ارزیابی رگرسیون در پایتون — پیاده سازی + کدها

در مسائل رگرسیون، به دنبال پیش‌بینی یک یا چند ویژگی هدف براساس ویژگی‌های ورودی به مدل هستیم. ویژگی هدف برخلاف مسائل طبقه‌بندی، پیوسته است. در این آموزش، با معیارهای ارزیابی رگرسیون آشنا می‌شویم و روش پیاده‌سازی آن‌ها در پایتون را بیان می‌کنیم.

997696

معیارهای ارزیابی از سه جهت کاربرد داشته و حائز اهمیت است:

  1. برای آموزش مدل‌ها می‌توانند به عنوان تابع هزینه استفاده شوند.
  2. برای مقایسه مدل‌ها با یکدیگر می‌توانند استفاده شوند.
  3. برای پیش‌بینی خطای مدل در مواجه با داده‌های جدید استفاده شوند.

به این ترتیب، اهمیت معیارهای ارزیابی رگرسیون در پایتون آشکار می‌شود. در این مطلب 6 معیار مهم ارزیابی رگرسیون در پایتون به همراه کدهای پایتون را بررسی خواهیم کرد.

وارد محیط برنامه‌نویسی می‌شویم و کتابخانه‌های مورد نیاز را فراخوانی می‌کنیم:

1import numpy as np
2import sklearn.metrics as met

از کتابخانه Numpy برای پیاده‌سازی معیارها و از کتابخانه Scikit-Learn برای استفاده از توابع آماده استفاده خواهیم کرد.

برای یادگیری برنامه‌نویسی با زبان پایتون، پیشنهاد می‌کنیم به مجموعه آموزش‌های مقدماتی تا پیشرفته پایتون فرادرس مراجعه کنید که لینک آن در ادامه آورده شده است.

میانگین مربعات خطا یا MSE

«میانگین مربعات خطا» (Mean Squared Error | MSE) یکی از پرکاربردترین معیارها است که هم در آموزش مدل‌ها و هم در مقایسه مدل‌ها استفاده می‌شود. این معیار دارای بُعد است، به همین دلیل به عنوان گزارش نهایی در مسائل رگرسیون مناسب نیست.

برای محاسبه میانگین مربعات خطا، به شکل زیر عمل می‌کنیم:

MSE(Y,Y^)=1ni=1n(YiY^i)2=1ni=1nei2\large \operatorname{MSE}(Y, \hat{Y})=\frac{1}{n} \sum_{i=1}^{n}\left(Y_{i}-\hat{Y}_{i}\right)^{2}=\frac{1}{n} \sum_{i=1}^{n} e_{i}{ }^{2}

رفتار این معیار نسبت به خطای هر داده به‌صورت سهمی است.

میانگین مربعات خطا در پایتون

نکته مهم دیگری که در مورد این معیار وجود دارد، وزن‌دهی بیشتر به خطاهای بزرگ‌تر است، به طوری که اگر دو داده با خطاهای 1 و 3 وجود داشته باشد، اثرگذاری داده دوم بیشتر خواهد بود. با توجه به این موضوع، خطا در حالتی که e=[2,2]e=[2,2] باشد، کمتر از حالتی است که e=[1,3]e=[1,3] باشد.

این معیار مشتق‌پذیر بوده و با فرض یک مدل خطی، به شکل زیر می‌توان از آن مشتق گرفت:

Y^i=aXi+bMSE(Y,Y^)=1ni=1n(YiaXib)2MSEa=1ni=1n2(Xi)(YiaXib)=2ni=1nXi(YiaXib)MSEb=1ni=1n2(1)(YiaXib)=2ni=1n(YiaXib)\large \begin{aligned} &\hat{Y}_{i}=a X_{i}+b \\ &M S E(Y, \hat{Y})=\frac{1}{n} \sum_{i=1}^{n}\left(Y_{i}-a X_{i}-b\right)^{2} \\ &\Rightarrow \frac{\partial M S E}{\partial a}=\frac{1}{n} \sum_{i=1}^{n} 2\left(-X_{i}\right)\left(Y_{i}-a X_{i}-b\right)=-\frac{2}{n} \sum_{i=1}^{n} X_{i}\left(Y_{i}-a X_{i}-b\right) \\ &\Rightarrow \frac{\partial M S E}{\partial b}=\frac{1}{n} \sum_{i=1}^{n} 2(-1)\left(Y_{i}-a X_{i}-b\right)=-\frac{2}{n} \sum_{i=1}^{n}\left(Y_{i}-a X_{i}-b\right) \end{aligned}

علاوه بر اینکه می‌توان از این روابط در آموزش مدل‌ها استفاده کرد، برابر قرار دادن این دو عبارت با صفر و حل کردن دستگاه معادلات حاصل نیز فرمول‌های رگرسیون خطی را اثبات می‌کند.

برای پیاده‌سازی میانگین مربعات خطا می‌توان به شکل زیر عمل کرد:

1def MSE(Y:np.ndarray, Yh:np.ndarray):
2    e = np.subtract(Y, Yh)
3    se = np.power(e, 2)
4    mse = np.mean(se)
5    return mse

از توابع آماده نیز می‌توان به شکل زیر استفاده کرد:

1mse = met.mean_squared_error(Y, Yh)

جذر میانگین مربعات خطا RMSE

«معیار جذر میانگین مربعات خطا» (Root Mean Squared Error | RMSE) با استفاده از رابطه زیر از میانگین مربعات خطا محاسبه می‌شود:

RMSE(Y,Y^)=MSE(Y,Y^)\large R M S E(Y, \hat{Y})=\sqrt{M S E(Y, \hat{Y})}

دلیل استفاده از جذر میانگین مربعات خطا، یکسان بودن بُعد و مقیاس آن با ویژگی هدف است. برای مثال، اگر یک مدل برای پیش‌بینی وزن افراد برحسب Kg ایجاد کرده باشیم، واحد میانگین مربعات خطا kg2 خواهد بود، درحالی که که واحد جذر مربعات خطا Kg است. این معیار اغلب در گزارش نتایج استفاده می‌شود و به عنوان تابع هزینه استفاده نمی‌شود.

برای پیاده‌سازی جذر میانگین مربعات خطا می‌توان نوشت:

1def RMSE(Y:np.ndarray, Yh:np.ndarray):
2    e = np.subtract(Y, Yh)
3    se = np.power(e, 2)
4    mse = np.mean(se)
5    rmse = mse**0.5
6    return rmse

یا با استفاده از توابع آماده این کار انجام می‌گیرد:

1rmse = met.mean_squared_error(Y, Yh)**0.5

جذر مربعات خطای نرمال‌شده NRMSE

«جذر مربعات خطای نرمال‌شده» (Normalized Root Mean Squared Error | NRMSE) با استفاده از رابطه زیر محاسبه می‌شود:

NRMSE(Y,Y^)=RMSE(Y,Y^)Max(Y)Min(Y)\large \operatorname{NRMSE}(Y, \hat{Y})=\frac{\operatorname{RMSE}(Y, \hat{Y})}{\operatorname{Max}(Y)-\operatorname{Min}(Y)}

این معیار، حاصل تقسیم جذر میانگین مربعات خطا بر بازه ویژگی هدف است، به همین دلیل عددی بدون بُعد و واحد بوده و برای گزارش بسیار مناسب است.

می‌توان این معیار را به صورت درصدی نیز بیان کرد. برای پیاده‌سازی خواهیم داشت:

1def NRMSE(Y:np.ndarray, Yh:np.ndarray):
2    e = np.subtract(Y, Yh)
3    se = np.power(e, 2)
4    mse = np.mean(se)
5    rmse = mse**0.5
6    nrmse = rmse / (np.max(Y) - np.min(Y))
7    return nrmse

یا با استفاده از توابع آماده این کار انجام می‌گیرد:

1nrmse = met.mean_squared_error(Y, Yh)**0.5 / (np.max(Y) - np.min(Y))

میانگین قدرمطلق خطا MAE

«میانگین قدرمطلق خطا» (Mean Absolute Error | MAE)  به جای به توان 2 رساندن خطاها، از تابع قدرمطلق استفاده می‌کند و به صورت زیر محاسبه می‌شود:

MAE(Y,Y^)=1ni=1nYiY^i=1ni=1nei\large \operatorname{MAE}(Y, \hat{Y})=\frac{1}{n} \sum_{i=1}^{n}\left|Y_{i}-\hat{Y}_{i}\right|=\frac{1}{n} \sum_{i=1}^{n}\left|e_{i}\right|

با توجه به اینکه مقادیر به توان نرسیده‌اند، واحد میانگین قدرمطلق خطا با ویژگی هدف یکسان خواهد بود.

این معیار با توجه به اینکه از تابع قدرمطلق استفاده می‌کند، در شرایطی مشتق‌پذیر نبوده و می‌تواند در بهینه‌سازی‌های وابسته به گرادیان مشکل‌ساز باشد.

مشکل دیگر این معیار، ضعیف نشدن گرادیان با نزدیک شدن به e=0e=0 است که باعث مشکلاتی در بهینه‌سازی و بعضا واگرایی می‌شود.

در صورتی که در مجموعه داده مقادیر پرت وجود داشته باشد که از صحت آن‌ها اطمینان داریم میانگین مربعات خطا مناسب است، اما در شرایطی که بخواهیم مدل ما نسبت به داده‌های پرت پایدارتر باشد، میانگین قدرمطلق خطا گزینه مناسبی است. رفتار این معیار نسبت به خطای هر داده، به صورت قدرمطلقی است:

ارزیابی رگرسیون در پایتون

به این ترتیب مشتق‌ناپذیری در e=0e=0 و شیب ثابت کاملاً مشهود است. از این معیار می‌توان برای مقایسه مدل‌ها و همچین گزارش نتایج استفاده کرد. برای پیاده‌سازی میانگین قدرمطلق خطا می‌نویسیم:

1def MAE(Y:np.ndarray, Yh:np.ndarray):
2    e = np.subtract(Y, Yh)
3    ae = np.abs(e)
4    mae = np.mean(ae)
5    return mae

یا با استفاده از توابع آماده این کار انجام می‌گیرد:

1mae = met.mean_absolute_error(Y, Yh)

میانگین درصد قدرمطلق خطا MAPE

«میانگین درصد قدرمطلق خطا» (Mean Absolute Percentage Error | MAPE) مشابه میانگین قدرمطلق خطا است، اما به جای خطا، از خطای نسبی استفاده شده است:

MAPE(Y,Y^)=100ni=1nYiY^iYi=100ni=1neiYi\large \operatorname{MAPE}(Y, \widehat{Y})=\frac{100}{n} \sum_{i=1}^{n}\left|\frac{Y_{i}-\hat{Y}_{i}}{Y_{i}}\right|=\frac{100}{n} \sum_{i=1}^{n}\left|\frac{e_{i}}{Y_{i}}\right|

به این ترتیب، معیاری بدون واحد به دست خواهد آمد که برای گزارش نتایج مناسب است.

این معیار نیز مشکلات میانگین مربعات خطا را دارد. مشکل دیگری که در رابطه با میانگین درصد قدرمطلق خطا وجود دارد، احتمال وجود مقادیر بسیار نزدیک به 0 در داده است. در این شرایط، کسر عبارت بسیار کوچک شده و تاثیر شدیدی بر معیار خواهد گزاشت. برای مثال، اگر برای 4 داده داشته باشیم:

ey\left|\frac{e}{y}\right|eey^\widehat{y}yy
0.20.20.10.10.40.40.50.5
990.09-0.090.10.10.10.1
00001.51.51.51.5
0.160.160.2-0.21.41.41.21.2

به این ترتیب مشاهده می‌کنیم که برای داده دوم قدرمطلق خطای نسبی عدد بسیار بزرگی نسبت به سایر داده‌ها است که باعث اثرگذاری شدید آن روی معیار می‌شود. به همین دلیل، در صورت وجود مقادیر نزدیک به 00 در مجموعه داده، معیار میانگین درصد قدرمطلق خطا ترجیح داده نمی‌شود.

این معیار با خطای نسبی هر داده رابطه قدرمطلقی دارد.

میانگین درصد قدرمطلق خطا در پایتون

برای پیاده‌سازی این معیار، می‌نویسیم:

1def MAPE(Y:np.ndarray, Yh:np.ndarray):
2    e = np.subtract(Y, Yh)
3    pe = 100 * e / Y
4    ape = np.abs(pe)
5    mape = np.mean(ape)
6    return mape

یا با استفاده از توابع آماده این کار انجام می‌گیرد:

1mape = 100*met.mean_absolute_percentage_error(Y, Yh)

تابع آماده استفاده شده در کد بالا عددی از 0 تا 1 در خروجی تولید می‌کند و برای تبدیل آن به درصد با ضرب در 100 شود.

ضریب تعیین یا امتیاز R2R^2

«ضریب تعیین امتیاز» (Coefficient of Determination) برخلاف 5 معیار قبلی، با افزایش، دقت بالای مدل را نشان می‌دهد. برای محاسبه آن به شکل زیر عمل می‌کنیم:

R2(Y,Y^)=1i=1n(YiY^i)2i=1n(YiYˉ)2=1MSE(Y,Y^)σ2(Y)\large R^{2}(Y, \widehat{Y})=1-\frac{\sum_{i=1}^{n}\left(Y_{i}-\widehat{Y}_{i}\right)^{2}}{\sum_{i=1}^{n}\left(Y_{i}-\bar{Y}\right)^{2}}=1-\frac{M S E(Y, \widehat{Y})}{\sigma^{2}(Y)}

این معیار همواره عددی کوچک‌تر از 1 است. اگر مدلی همواره میانگین ویژگی هدف را در خروجی تولید کند، مقدار این معیار برابر 0 خواهد بود. ضریب تعیین معمولاً به صورت درصد بیان می‌شود. از ضریب تعیین تنها برای مقایسه مدل‌ها و گزارش نتایج استفاده می‌شود. با توجه به اینکه واریانس مجموعه داده عددی ثابت است، با افزایش میانگین مربعات خطا، ضریب تعیین همواره کاهش می‌یابد.

برای پیاده‌سازی ضریب تعیین می‌نویسیم:

1def R2(Y:np.ndarray, Yh:np.ndarray):
2    e = np.subtract(Y, Yh)
3    se = np.power(e, 2)
4    mse = np.mean(se)
5    var = np.var(Y)
6    r2 = 1 - mse / var
7    return r2

یا با استفاده از توابع آماده خواهیم داشت:

1r2 = met.r2_score(Y, Yh)

جمع‌بندی ارزیابی رگرسیون در پایتون

در این آموزش، معیارهای پرکاربرد در مسائل رگرسیون بررسی و پیاده‌سازی شدند.

برای مطالعه بیشتر می‌توان معیارهای جدید‌تر مانند AIC، معیارهای اصلاح‌شده مانند Adjusted R2، معیارهای ترکیبی، معیارهای دارای Threshold و همبستگی بین معیارها را مورد بررسی قرار داد.

بر اساس رای ۱۴ نفر
آیا این مطلب برای شما مفید بود؟
اگر بازخوردی درباره این مطلب دارید یا پرسشی دارید که بدون پاسخ مانده است، آن را از طریق بخش نظرات مطرح کنید.
منابع:
مجله فرادرس
نظر شما چیست؟

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *