مدل خودهمبسته (Autoregressive) در پایتون — راهنمای گام به گام

۹۱۷ بازدید
آخرین به‌روزرسانی: ۰۸ خرداد ۱۴۰۲
زمان مطالعه: ۷ دقیقه
مدل خودهمبسته (Autoregressive) در پایتون — راهنمای گام به گام

در آموزش‌های پیشین مجله فرادرس، با پیاده‌سازی الگوریتم گرادیان کاهشی و روش نیوتون رافسون در پایتون آشنا شدیم. در این آموزش، مطالبی را درباره پیاده‌سازی مدل خودهمبسته در پایتون بیان می‌کنیم.

997696

مدل خودهمبسته چیست؟

مدل‌های خودهمبسته، از ساده‌ترین و پرکاربردترین مدل‌ها در پردازش سیگنال و تحلیل سری‌های زمانی هستند. در این مدل، مقدار سیگنال در هر نقطه، به صورت ترکیبی خطی از pp نقطه قبل در نظر گرفته می‌شود.

برای مثال، اگر سری XX را به‌صورت زیر داشته باشیم:

x1,x2,,xn1,xn \large x _ 1 , x _ 2 , \dots , x _{n-1} , x _ n

یک مدل خودهمبسته از مرتبه pp به‌صورت زیر تعریف می‌شود:

xt=c+φ1xt1+φ2xt2++φpxtp+εt=c+i=1pφixti+εt \large x_{t}=c+\varphi_{1} x_{t-1}+\varphi_{2} x_{t-2} +\ldots+\varphi_{p} x_{t-p}+\varepsilon_{t}=c+\sum_{i=1}^{p} \varphi_{i} x_{t-i}+\varepsilon_{t}

در این رابطه، بردار φ\varphi ضرایب مربوط به نقاط قبلی بوده و cc عددی ثابت است. مقدار εt\varepsilon_{t} نیز نشان‌دهنده اندک خطای مدل از مقادیر مشاهده‌شده است که توزیع نرمال با میانگین صفر دارد.

برای یادگیری برنامه‌نویسی با زبان پایتون، پیشنهاد می‌کنیم به مجموعه آموزش‌های مقدماتی تا پیشرفته پایتون فرادرس مراجعه کنید که لینک آن در ادامه آورده شده است.

پیاده سازی مدل خودهمبسته در پایتون

حال که با مدل خودهمبسته آشنا شدیم، وارد محیط برنامه‌نویسی شده و کتابخانه‌های مورد نیاز را برای پیاده‌سازی مدل خودهمبسته در پایتون فراخوانی می‌کنیم:

1import numpy as np
2import scipy.stats as stt
3import sklearn.metrics as met
4import matplotlib.pyplot as plt
5import sklearn.linear_model as lm
6import sklearn.model_selection as ms

این کتابخانه‌ها به‌ترتیب برای موارد زیر کاربرد دارند:

  1. کار با آرایه‌ها و محاسبات برداری
  2. محاسبه معیارهای آماری
  3. محاسبه معیارهای ارزیابی مدل
  4. رسم نمودار
  5. ایجاد و آموزش مدل‌های خطی
  6. انتخاب مدل

حال می‌توانیم Random State و Style را نیز تعیین کنیم:

1np.random.seed(0)
2plt.style.use('ggplot')

برای بررسی مدل، نیاز به یک مجموعه داده داریم. از یک دوره تناوب تابع سینوسی به‌عنوان داده استفاده می‌کنیم:

1T = np.linspace(0, 2*np.pi, num=100)
2X = np.sin(T)

برای رسم نمودار می‌نویسیم:

1plt.plot(T, X, marker='o', ms=3, label='Data')
2plt.xlabel('t')
3plt.ylabel('X(t)')
4plt.legend()
5plt.show()

که نمودار زیر حاصل می‌شود.

رسم نمودار

با افزودن اندکی نویز به مقادیر XX و کاهش ضخامت خط نمودار، نتیجه بهتر خواهد بود. بنابراین تولید داده را به شکل زیر تغییر می‌دهیم:

1X = np.sin(T) + np.random.normal(0, 0.05, 100)

سه ورودی آورده‌شده برای تابع np.random.normal به‌ترتیب شامل میانگین توزیع، واریانس توزیع و تعداد نمونه است.

رسم نمودار را نیز به شکل زیر تغییر می‌دهیم:

1plt.plot(T, X, marker='o', ms=3, lw=0.8, label='Data')

که به نتیجه زیر می‌رسیم.

رسم نمودار سیگنال

حال داده مورد نیاز آماده است.

برای ایجاد مدل خودهمبسته، نیاز است تا از خودهمبستگی (Autocorrelation) سیگنال مطمئن شویم. اولین و ساده‌ترین راه، رسم Scatter Plot سیگنال نسبت به Lagهای متفاوت است.

اولین نمودار را نسبت به Lag=1 رسم می‌کنیم:

1plt.scatter(X[:-1], X[1:], s=12)
2plt.xlabel('X(t-1)')
3plt.ylabel('X(t)')
4plt.show()

که نمودار زیر حاصل می‌شود.

مدل خودهمبسته در پایتون

به این ترتیب، وجود ارتباطی خطی با Lag=1 تایید می‌شود.

با تکرار مراحل برای Lag=2 شکل زیر را خواهیم داشت.

مدل خودهمبسته در پایتون

به این ترتیب، پخش‌شدگی بیشتر می‌شود، ولی همچنان رابطه خطی با Lag=2 مشهود است.

حال اگر Lag=50 را بررسی کنیم، شکل زیر را خواهیم داشت.

مدل خودهمبسته در پایتون

در این تصویر دو نکته به چشم می‌خورد:

  1. ضریب همبستگی عکس حالات قبلی است.
  2. تعداد نقاط کمتر است.

علت اتفاق اول، در ویژگی تابع سینوسی نهفته است. در یک تابع سینوسی، اگر دو نقطه به‌صورت زیر داشته باشیم:

θ1=αθ2=α+(2k+1)π \large \begin{aligned} &\theta_{1}=\alpha \\ &\theta_{2}=\alpha+(2 k+1) \pi \end{aligned}

در این شرایط، این دو نقطه غیرهم‌فاز خواهند بود. در مجموعه داده ایجاد شده نیز فاصله یک دوره تناوب تقریباً به 100 بخش تقسیم شد که هر 50 نقطه معادل π\pi خواهد بود، بنابراین، ارتباط با Lag=50 عکس خواهد بود.

علت اتفاق دوم نیز، از دست رفتن برخی داده‌ها به‌دلیل نبودن Lag متناظر است. برای مثال، داده‌های با شرایط t<50t<50 در نمودار اخیر مشاهده نخواهد شد.

حال می‌توانیم مشاهدات نمودارها را به شکل آماری بررسی کرد و در یک نمودار نمایش داد.

برای این کار ضریب همبستگی پیرسون (Pearson Correlation Coefficient) را نسبت به Lagهای مختلف محاسبه می‌کنیم.

ابتدا Lagهای مورد نیاز را انتخاب و یک آرایه خالی برای ذخیره‌سازی مقادیر خودهمبستگی ایجاد می‌کنیم:

1Lags = np.arange(1 ,52, 1)
2ACs = np.zeros(Lags.size)

حال یک حلقه ایجاد می‌کنیم و تک‌تک خودهمبستگی‌ها را محاسبه و به آرایه ACs اضافه می‌کنیم:

1for i, l in enumerate(Lags):
2    ACs[i] = stt.pearsonr(X[:-l], X[+l:])

توجه داشته باشید که تابع Scipy.stats.pearsonr دو خروجی ایجاد می‌کند که اولی مربوط به ضریب همبستگی است.

حال می‌توانیم با یک Bar Plot خودهمبستگی سیگنال را نشان دهیم:

1plt.bar(Lags, ACs, width=0.4)
2plt.xlabel('Lag')
3plt.ylabel('AC(Lag)')
4plt.show()

که نمودار زیر حاصل خواهد شد.

خودهمبستگی سیگنال

بنابراین، می‌توان به‌راحتی Lagهای مناسب را برای پیش‌بینی مشاهده کرد. توجه داشته باشید که مقدار همبستگی در Lag=0 برابر با 1 خواهد بود.

روش دیگر برای رسم نمودار خودهمبستگی، استفاده از تابع «plot_acf» موجود در کتابخانه «statsmodels» است.

حال که خودهمبستگی سیگنال اثبات شد، می‌توان به تولید داده‌های سری زمانی پرداخت. اگر یک مدل p=1 را در نظر بگیریم (پیش‌بینی تنها با توجه به یک نقطه قبلی)، مقدار سیگنال در Lag=1 به‌عنوان ویژگی ورودی می‌تواند انتخاب شود و Lag=0 به‌عنوان ویژگی هدف. برای مثال اگر سری به‌صورت زیر باشد:

s1,s2,,sn1,sn \large s_1,s_2, \ldots ,s_{n-1},s_n

می‌توان مجموعه داده را به‌شکل زیر ایجاد کرد:

YYXX
s2s_2s1s_1
s3s_3s2s_2
......
sns_nsn1s_{n-1}

به این ترتیب، اگر یک سیگنال با اندازه nn داشته باشیم، به تعداد npn-p داده خواهیم داشت.

برای پیاده‌سازی این بخش، یک تابع پیاده‌سازی می‌کنیم که در ورودی سری و pp را دریافت کرده و در خروجی مجموعه داده را برمی‌گرداند:

1def CreateDataset(S:np.ndarray, nLag:int):
2    
3    return X, Y

حال در مرحله اول باید تعداد داده‌های نهایی را تعیین کنیم. برای این کار ابتدا تعداد داده‌های سیگنال را محاسبه می‌کنیم:

1def CreateDataset(S:np.ndarray, nLag:int):
2    nD0 = S.size
3    nD = nD0 - nLag
4    
5    return X, Y

حال آرایه‌هایی خالی برای ذخیره‌سازی مقادیر XX و YY ایجاد می‌کنیم:

1def CreateDataset(S:np.ndarray, nLag:int):
2    nD0 = S.size
3    nD = nD0 - nLag
4    X = np.zeros((nD, nLag))
5    Y = np.zeros((nD, 1))
6    
7    return X, Y

توجه داشته باشید که با افزایش تعداد Lag، تعداد ستون‌های XX افزایش می‌یابد، ولی تعداد ستون‌های YY مستقل از Lag است.

حال یک حلقه ایجاد می‌کنیم و مقادیر را جایگذاری می‌کنیم:

1def CreateDataset(S:np.ndarray, nLag:int):
2    nD0 = S.size
3    nD = nD0 - nLag
4    X = np.zeros((nD, nLag))
5    Y = np.zeros((nD, 1))
6    for i in range(nD):
7        X[i, :] = S[i:i + nLag]
8        Y[i, 0] = S[i + nLag]
9    return X, Y

به این ترتیب، تابع مورد نظر آماده است. برای تست کردن عملکرد صحیح تابع، یک سری ساده را به عنوان به آن وارد می‌کنیم تا نتایج را مشاهده کنیم:

1S = np.arange(0, 7, 1)
2X, Y = CreateDataset(S, 2)
3print(X)
4print(Y)

که خواهیم داشت:

[[0. 1.]
[1. 2.]
[2. 3.]
[3. 4.]
[4. 5.]]
[[2.]
[3.]
[4.]
[5.]
[6.]]

به این ترتیب، مشاهده می‌کنیم که تابع، عملکرد مورد نظر را از خود نشان می‌دهد.

حال می‌توانیم سیگنال سینوسی ایجاد شده را وارد تابع کنیم:

1x, y = CreateDataset(X, 2)

حال مجموعه داده آماده شده است.

نیاز است تا مجموعه داده را به دو دسته آموزش و آزمایش تقسیم کنیم. برای این منظور، از بخش model_selection موجود در sklearn استفاده می‌کنیم:

1Xtr, Xte, Ytr, Yte = ms.train_test_split(x, y, train_size=0.8, random_state=0)

به این ترتیب مجموعه داده تقسیم می‌شود.

حال می‌توانیم مدل خطی را ایجاد و بر روی داده‌گان آموزش دهیم:

1Model = lm.LinearRegression()
2Model.fit(Xtr, Ytr)

پس از اتمام آموزش، دقت مدل روی هر دو مجموعه داده را محاسبه و نمایش می‌دهیم:

1R2tr = Model.score(Xtr, Ytr)
2R2te = Model.score(Xte, Yte)
3
4print(f'{R2tr = }')
5print(f'{R2te = }')

و خواهیم داشت:

R2tr = 0.9864373354377615
R2te = 0.9878940446792921

توجه داشته باشید که در کتابخانه statsmodels امکاناتی برای ایجاد مدل‌های خودهمبسته نیز تعبیه شده است.

با توجه به بالا بودن دقت‌ها و همچین نزدیک بودن آن‌ها به هم، می‌توان گفت مدل از دقت خوبی برخودار است و دچار بیش‌برازش (Overfitting) نیز نشده است.

اگر واریانس نویز اضافه شده را از 0٫05 به 0٫15 تغییر دهیم، سیگنال و دقت‌های زیر حاصل خواهد شد.

سیگنال‌ها
R2tr = 0.932242795568308
R2te = 0.9464468166093286

بنابراین، با افزایش نسبت نویز به سیگنال، دقت مدل در پیش‌بینی نیز کاهش می‌یابد.

افزایش nLag برای افزایش دقت در شرایطی که سیگنال رفتار پیچیده‌ای دارد کارآمد است، ولی در شرایطی که کم بودن دقت مدل ناشی از شدید بودن نویز باشد، افزایش nLag باعث Overfitting خواهد شد.

حال واریانس را به حالت قبلی برمی‌گردانیم و پارامترهای مدل را نمایش می‌دهیم:

1Phi = Model.coef_
2C = Model.intercept_
3
4print(f'{Phi = }')
5print(f'{C = }')

که پارامترهای زیر ظاهر می‌شود:

Phi = [0.02306642, 0.9567478]
C = -0.00382345

در بین ضرایب، عدد بزرگ‌تر مربوط به Lag=1 است که منطقی است. ولی در مورد φ2\varphi _2 این نکته قابل بیان نیست. براساس نمودار خودهمبستگی، باید هر دو ضریب اعداد بزرگ و نزدیکی به 1 باشند. علت این اختلاف، در Partial Autocorrelation نهفته است. خودهمبستگی به دست آمده برای Lag=2، اندکی نیز از Lag=1 اثر پذیرفته است، بنابراین با کم کردن این مقدار از دوره‌های قبلی، مقدار خالص خودهمبستگی به دست می‌آید. با توجه به این اعداد، می‌توان حدس زد که تغییر nLag از 2 به 1، کاهش چندانی در دقت مدل ایجاد نخواهد کرد.

عدد ثابت به دست آمده نیز مقداری بسیار کوچک نبست به دامنه سیگنال است و می‌توان آن را نیز در نظر نگرفت. برای این مورد می‌توان به شکل زیر عمل کرد:

1Model = lm.LinearRegression(fit_intercept=False)

حال پس از ساده‌سازی‌های انجام شده، به دقت و پارامترهای زیر می‌رسیم:

R2tr = 0.9861532913089581
R2te = 0.9897503482050113
Phi = [0.99970675]
C = 0.0

به این ترتیب مشاهده می‌کنیم که با تعداد پارامترهای کمتر، با دقت‌های مشابهی رسیدیم. پس، انتخاب دقیق nLag یا همان p می‌تواند بسیار کمک‌کننده باشد.

برای بررسی‌های دقیق‌تر دقت مدل، سایر معیارهای پرکاربرد را نیز محاسبه و نمایش می‌دهیم:

MSE = 0.007608
RMSE = 0.087229
NRMSE = 0.040180
MAE = 0.072924
MAPE = 0.101543

از بین معیارهای محاسبه شده، NRMSE و MAPE و R2 بدون واحد (بُعد) هستند و به همین دلیل برای ارزیابی مدل مناسب‌تر هستند. برای مثال MAPE به سادگی بیان می‌کند که میانگین خطای نسبی 10% است.

برای داده‌های آزمایش می‌توان نمودار رگرسیون را نیز رسم کرد:

1plt.scatter(Yte, Pte, s=12)
2plt.plot([-1.2, +1.2], [-1.2, +1.2], ls='-', lw=1.2, c='k', label='y=x')
3plt.plot([-1.2, +1.2], [-1.2*1.2, +1.2*1.2], ls='--', lw=0.8, c='b', label='y=1.2*x')
4plt.plot([-1.2, +1.2], [-0.8*1.2, +0.8*1.2], ls='--', lw=0.8, c='b', label='y=0.8*x')
5plt.title('Regression Plot')
6plt.xlabel('Target Values')
7plt.ylabel('Predicted Values')
8plt.legend()
9plt.show()

که نمودار زیر حاصل می‌شود.

نمودار رگرسیون

به این ترتیب نمودار رگرسیون نیز رسم شد.

در انتها برای تحلیل نویز سفید ادعا شده، بردار خطا را محاسبه و نمودار هیستوگرام آن را رسم می‌کنیم:

1Pall = Model.predict(x)
2E = y - Pall
3
4plt.hist(E, bins=9)
5plt.xlabel('y(Actual) - y(Predicted)')
6plt.ylabel('N')
7plt.show()

و در خروجی به نمودار زیر می‌رسیم.

خودهمبستگی در پایتون

نمودار حاصل نسبتاً شبیه توزیع نرمال است. با افزایش داده‌ها از 100 به 500، وسیع‌تر کردن بازه زمانی از یک دوره به دو دوره و افزایش bins از 9 به 19، نمودار خطا به شکل زیر در می‌آید:

مدل خودهمبسته در پایتون

پیاده‌سازی مدل خودهمبسته در پایتون به این شکل انجام و به اتمام می‌رسد.

جمع‌بندی

در این آموزش، پیاده‌سازی مدل خودهمبسته در پایتون را بررسی کردیم. برای مطالعه بیشتر، می‌توان موارد زیر را بررسی کرد:

  • با کوچک کردن گام نمونه‌برداری، پارامترها و دقت مدل چه تغییری می‌کند؟
  • با افزایش تعداد دوره از یک به دو و دو به سه، پارامترها و دقت مدل چه تغییری می‌کند؟
  • واریانس نمودار خطا چه ارتباطی با نویز اضافه شده به مجموعه داده دارد؟
  • با پیچیده کردن داده‌ها (برای مثال استفاده از مجموع دو تابع سینوسی)، چه تغیراتی باید در پارامترهای مدل‌سازی ایجاد کنیم؟
  • آیا نویز سفید موجود در سیگنال، قابل پیش‌بینی است؟ چه مقداری از این فرآیند تصادفی قابل پیش‌بینی است؟
بر اساس رای ۱۲ نفر
آیا این مطلب برای شما مفید بود؟
اگر بازخوردی درباره این مطلب دارید یا پرسشی دارید که بدون پاسخ مانده است، آن را از طریق بخش نظرات مطرح کنید.
منابع:
مجله فرادرس
نظر شما چیست؟

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *