برآوردگر سازگار در آمار — به زبان ساده

۲۲۸۰ بازدید
آخرین به‌روزرسانی: ۱۶ خرداد ۱۴۰۲
زمان مطالعه: ۱۰ دقیقه
دانلود PDF مقاله
برآوردگر سازگار در آمار — به زبان ساده

«برآوردگر» (Estimator) و موضوع «برآوردیابی» (Estimation) در حوزه استنباط آماری، از مباحث مهم و البته کاربردی محسوب می‌شود. واضح و مشخص است که این بخش از آمار، با موضوعات برآمده از «آمار ریاضی» (Mathematical Statistics) مرتبط است. در این نوشتار به معرفی یکی از خصوصیات مفید برای هر برآوردگر می‌پردازیم که می‌تواند کلاسی از برآوردگرهای مفید ایجاد کند. برآوردگر سازگار در آمار، نوعی از برآوردگرهای دنباله‌ای است که با افزایش حجم نمونه به پارامتر جامعه نزدیک و نزدیک‌تر شده و اصطلاحاً به آن همگرا خواهد بود.

997696

به عنوان مقدمه و آشنایی بیشتر با مباحث مربوط به این نوشتار، پیشنهاد می‌شود ابتدا مطالب برآوردگر اریب و نااریب — به زبان ساده و تابع درست نمایی (Likelihood Function) و کاربردهای آن — به زبان ساده را مطالعه کنید. همچنین خواندن استنباط و آزمون فرض آماری — مفاهیم و اصطلاحات و متغیر تصادفی، تابع احتمال و تابع توزیع احتمال نیز خالی از لطف نیست.

برآوردگر سازگار در آمار

نوع خاصی از برآوردگرها آماری، «برآوردگر سازگار» (Consistent Estimator) یا «برآوردگر مجانبی سازگار» (Asymptotically Consistent Estimator)، است که براساس یک قاعده خاص،‌ مقدار پارامتر جامعه (θ\theta) را تخمین می‌زند.

در این بین هر چه تعداد مشاهدات یا نمونه تصادفی افزایش پیدا کند، میزان نزدیکی برآوردگر به مقدار پارامتر بیشتر خواهد شد و به اصطلاح برآوردگر سازگار به مقدار پارامتر «همگرا در احتمال» (Converges in Probability) خواهد بود.

در عمل، برآوردگر سازگار، به عنوان تابعی از نمونه تصادفی و البته تعداد آن‌ها (مثلا nn) مشخص می‌شود. به همین علت معمولا برآوردگرهای سازگار را با اندیس n n و به صورت دنباله‌ای از برآوردگرها مانند Tn T_n در نظر می‌گیرند، بطوری که حد تابع Tn T_n زمانی که تعداد نمونه‌ها افزایش یابد، برابر با پارامتر θ \theta ‌ خواهد بود.

البته موضوع همگرایی و نوع آن برای نشان دادن نزدیکی برآوردگر به پارامتر باید به شکل دقیق‌تری بیان شود که البته در ادامه متن به آن خواهیم پرداخت. به نظر می‌رسد این تعریف،‌ ارتباطی با مفهوم اریبی و نااریبی برآوردگرها نیز دارد. در حقیقت برآوردگر سازگار، برآوردگری است که در حد و با افزایش تعداد نمونه‌ها، نااریب (Unbiased) بوده و میزان اریبی آن صفر می‌شود.

نکته: اگر دنباله برآورگرهای TnT_n همگرا به پارامتر θ \theta ‌ نباشد، به آن «برآوردگر ناسازگار» (Inconsistent) می‌گویند.

تعریف برآوردگر سازگار در آمار

به طور رسمی، برآوردگر Tn T_n برای پارامتر θ \theta را سازگار می‌گویند، اگر Tn T_n در احتمال (In Probablity) به پارامتر θ \theta همگرا باشد.

این امر به این معنی است که توزیع دنباله برآوردگرها، به مقدار پارامتر نزدیک و نزدیک‌تر خواهد شد. بنابراین احتمال اینکه فاصله برآوردگر از پارامتر کمتر از هر مقدار دلخواهی باشد، برابر است با ۱. اگر TnT_n یک برآوردگر سازگار برای θ\theta باشد، آنگاه این موضوع را به بیان ریاضی به صورت زیر می‌نویسیم:

limnPr(Tnθ<ϵ)= 1,    ϵ>0 \large \lim_{n \to \infty} \Pr \left( |T_n - \theta | < \epsilon \right ) =  1 , \;\; \forall \epsilon > 0

رابطه ۱

نکته: گاهی همگرایی در احتمال را برای برآورد سازگار به صورت‌های دیگری نیز نشان می‌دهند که بعضی از آن‌ها را در ادامه مشاهده می‌کنید. این نمادها، همگی به معنی برقراری و صادق بودن برآوردگر TnT_n در رابطه ۱ هستند.

TnPθ,            plim Tn=θ \large T_n \xrightarrow {P} \theta , \;\;\;\;\; \; \text{plim } T_n = \theta

از آنجایی که پارامتر θ \theta ، نامعلوم است، احتمال مربوط به رابطه ۱، باید برای همه اعضای فضای پارامتر نیز برقرار باشد. در نتیجه باید بوسیله یک تعریف دقیق‌تر، برآوردگر سازگار را معرفی کنیم.

-Consistency_of_estimator

تعریف برآوردگر سازگار برای همه اعضای فضای پارامتری

فرض کنید {pθ  :  θΘ  } \{p_{ \theta} \; : \; \theta \in \Theta\; \} خانواده‌ای از توزیع‌های (مدل پارامتری) بوده و Xθ={X1,X2,:  Xipθ} X^{\theta} = \{ X_1, X_2, \ldots : \; X_i \sim p_{\theta}\} نیز یک دنباله نامتناهی از نمونه تصادفی از توزیع pθp_{\theta} باشد.

از طرفی دنباله برآوردگرهای {Tn(Xθ)} \{T_n ( X^{\theta })\} را برای پارامتر g(θ) g( \theta) در نظر بگیرید. آنگاه دنباله Tn T_n را «سازگار ضعیف» (Weakly Consistent) برای g(θ) g(\theta) گوییم اگر رابطه زیر برقرار باشد.

plimn  Tn(Xθ)=g(θ),   θΘ \large {\underset {n\to \infty }{ \operatorname {plim}}}\; T_{n} (X^{ {\theta } }) = g( \theta ) , \ \ \forall\ \theta \in \Theta

رابطه ۲

همانطور که در رابطه ۲ مشاهده می‌کنید، برآوردگر Tn T_n برای g(θ) g ( \theta) به کار رفته است، چون در بعضی از مواقع لازم است تابعی از پارامتر را برآورد کنیم. به این ترتیب تعریف را برای هر تابعی از پارامتر، تعمیم داده‌ایم. اگر قرار باشد که فقط پارامتر توسط Tn T_n برآورد شود، کافی است g(θ)=θ g(\theta) = \theta را در نظر بگیریم.

نکته: اگر همگرایی برآوردگر Tn T_n به پارامتر θ\theta به صورت «تقریبا مطمئن» (Almost Surely) باشد، برآوردگر TnT_n را «سازگاری قوی» (Strong Consistent) گویند. در این حالت رابطه ۱ به صورت زیر در خواهد آمد.

Pr(limn Tn=θ)= 1 \large \Pr \left( \lim_{ n \to \infty }  T_n = \theta \right) =  1

رابطه ۳

در این حالت معمولا از نماد زیر برای نشان دادن سازگاری قوی استفاده می‌کنند. عبارت a.s مخفف Almost Surely یا «تقریبا مطمئن» است.

Tna.s.θ \large T_n \xrightarrow {a.s.} \theta

پیدا کردن برآوردگر سازگار در آمار

در این قسمت با استفاده از تعریفی که برای سازگاری طبق رابطه ۱، معرفی کردیم، نشان خواهیم داد که میانگین نمونه‌ای، یک برآوردگر سازگار برای میانگین توزیع نرمال (μ \mu ) است.

دنباله نمونه تصادفی {X1,X2,,}\{ X_1, X_2 , \ldots, \}‌ از توزیع نرمال N(μ,σ2) N(\mu,\sigma^2) را در نظر بگیرید که در آن واریانس (σ2\sigma^2) معلوم و میانگین ( μ \mu ) نامعلوم است. به منظور برآورد پارامتر μ  \mu  از nn مشاهده اول X X ها استفاده کرده و برآوردگر Tn T_n را براساس رابطه زیر ایجاد می‌کنیم.

Tn=X1+X2++Xnn \large T_n = \dfrac{ X_1 + X_2 + \ldots + X_n }{n}

واضح است که Tn T_n ، تابع از نمونه تصادفی و تعداد آن‌ها است، به این معنی که nn ثابت نیست. با توجه به خصوصیات توزیع نرمال، می‌دانیم که توزیع نمونه‌ای آماره Tn T_n نیز نرمال خواهد بود.

TnN(μσ2n) \large T_n \sim N ( \mu \frac{ \sigma^2 }{n} )

پس باید مقدار احتمال زیر را برای سازگاری برآوردگر Tn T_n محاسبه کنیم.

Pr ⁣[Tnμ<ϵ] \large \Pr \! \left[\,| T_{n} - \mu |< \epsilon \,\right]

با استفاده از استاندارد سازی (Standardize)، توزیع متغیر تصادفی (برآوردگر) TnT_n را با یک تبدیل به توزیع نرمال استاندارد تغییر می‌دهیم.

(Tnμ)/(σ/n)N(0,1) \large {\displaystyle (T_{n} - \mu )/(\sigma /{ \sqrt {n} })} \sim N(0,1)

در نتیجه داریم:

Pr[Tnμ<ϵ]=Pr ⁣[nTnμσ<nϵ/σ] \large \Pr \left[\,|T_{n} - \mu | < \epsilon \,\right] = \Pr \! \left[{ \frac {{ \sqrt {n}} \,{\big |}T_{n} - \mu {\big |}}{\sigma } }< {\sqrt {n}} \epsilon /\sigma \right]

با توجه به نماد Φ()\Phi( ) برای تابع توزیع تجمعی نرمال استاندارد، مقدار احتمال رابطه بالا برابر است با:

=Pr ⁣[nTnμσ<nϵ/σ]=2Φ(nϵσ) \large =\Pr \! \left[ {\frac {{\sqrt {n}} \,{\big |} T_{n} - \mu {\big | }}{\sigma }} < {\sqrt {n}}\epsilon /\sigma \right] = 2 \Phi \left({\frac {{\sqrt {n}} \, \epsilon }{\sigma } } \right)

اگر از این احتمال برحسب nn حد بگیریم به رابطه زیر خواهیم رسید.

limnPr[Tnμ<ϵ]=limnΦ(nϵσ)=1 \large \lim_{n \to \infty} \Pr[ |T_n - \mu < \epsilon ] = \lim_{n \to \infty} \Phi(\frac{ \sqrt{n} \epsilon}{ \sigma}) = 1

که همان رابطه ۱ را برای هر ϵ\epsilon ثابت و مثبت، نشان می‌دهد. پس میانگین نمونه‌ای TnT_n برآوردگر سازگار برای میانگین جامعه توزیع نرمال (μ\mu) است.

ایجاد برآوردگر سازگار در آمار

سازگاری برآوردگر هم از نظر نمادگذاری و هم از نظر تعریف، با مفهوم همگرایی در احتمال (براساس رابطه ۱) نزدیک است. در نتیجه همه ابزارهایی که برای همگرایی در احتمال وجود دارد، برای برآوردگر سازگار نیز به کار خواهد رفت. به این ترتیب قضیه‌ها و نامساوی‌هایی که برمبنای احتمال وجود دارند، برای نشان دادن سازگاری برآوردگرها مورد استفاده قرار خواهند گرفت. در ادامه به بعضی از آن‌ها خواهیم پرداخت.

استفاده از نامساوی مارکف و چبیشف

در نوشتارهای دیگر مجله فرادرس با نامساوی مارکف (Markov Inequality) و نامساوی چبیشف (Chebyshev Inequality) آشنا شده‌اید و می‌دانیم که این نامساوی‌ها برای مقدار احتمال تجمعی یک متغیر تصادفی، کران بالا ارائه می‌دهند. در اینجا قصد داریم به کمک آن‌ها، سازگاری یک برآوردگر را نشان دهیم.

نامساوی زیر را در نظر بگیرید.

Pr ⁣[h(Tnθ)ϵ]E[h(Tnθ)]h(ϵ) \large {\displaystyle \Pr \! {\big [} h(T_{n} - \theta ) \geq \epsilon {\big ]}\leq {\frac {\operatorname {E} {\big [} h(T_{n} - \theta ) {\big ]}} {h (\epsilon )} }}

رابطه ۴

اگر در اینجا تابع h h را قدر مطلق (Absolute Function) در نظر بگیریم، نامساوی مارکف و در صورتی که h h را تابع درجه دوم (Quadratic Function) انتخاب کنیم، نامساوی چبیشف حاصل می‌شود. بنابراین کافی است، طرف راست رابطه ۴ را براساس هر یک از این توابع، محاسبه کرده و نشان دهیم که این مقدار برابر با صفر است.

نکته: توجه داشته باشید که رابطه ۴، متمم مقدار احتمال مربوط به رابطه ۱ را محاسبه کرده است. پس باید طرف راست به جای ۱ با صفر برابر باشد.

قضیه نگاشت پیوسته

فرض کنید دنباله‌ای از متغیرهای تصادفی {Xn} \{X_n\} در اختیارمان هست. «قضیه نگاشت پیوسته» (Continuous Mapping Theorem)، بیان می‌کند که اگر دنباله {Xn}\{X_n\} به مثلا X X همگرا باشند، آنگاه تحت شرایطی، تابعی از این دنباله‌ها مثل g(Xn) g(X_n) ها هم به همان تابع از همگرایی XX ها یعنی g(X) g(X) همگرا خواهد بود.

حال با نگاه برآوردگر سازگار به قضیه نگاشت پیوسته، توجه می‌کنیم. اگر TnT_n یک برآوردگر سازگار برای θ\theta بوده و g() g( \cdot) نیز تابعی حقیقی و پیوسته در θ \theta باشد، آنگاه g(Tn) g(T_n) نیز برای g(θ) g( \theta) سازگار است. این موضوع به بیان ریاضی به صورت زیر نوشته می‌شود.

Tn p θ g(Tn) p g(θ) \large T_{n}\ {\xrightarrow {p}} \ \theta \ \quad \Rightarrow \quad g(T_{n})\ {\xrightarrow {p}}\ g(\theta )

نکته: شرط پیوستگی تابع gg در اینجا از اهمیت زیادی برخودار است و ممکن است بدون وجود این شرط، قضیه نگاشت پیوسته، برقرار نباشد.

قضیه اسلاتسکی

به کمک «قضیه اسلاتسکی» (Slutsky’s theorem)، بعضی از خواص جبری دنباله‌های عددی به دنباله‌ای از متغیرهای تصادفی نیز نسبت داده می‌شود. به این ترتیب می‌توان نشان داد که اگر دنباله متغیرهای تصادفی {Xn}\{X_n\} به XX و دنباله {Yn}\{Y_n\} به مقدار ثابت cc در توزیع همگرا باشند، آنگاه روابط زیر براساس همگرایی در توزیع (In Distribution) نیز برقرار خواهند بود.

Xn+Yn d X+c;XnYn  d cX;Xn/Yn d X/c,    c0 \large X_{n} + Y_{n}\ { \xrightarrow {d}}\ X + c ;\\ \large { \displaystyle X_{n} Y_{n}\ { \xrightarrow  d}}\ c X ;\\ \large { \displaystyle X_{n} / Y_{n}\ { \xrightarrow {d}}\ X/c , \;\; c \neq 0 }

حال از این قضیه برای برآوردگر سازگار برای پارامتر θ\theta استفاده می‌کنیم. {Tn} \{ T_n \} و {Sn} \{ S_n \} را دو دنباله از متغیرهای تصادفی در نظر بگیرید که برایشان داریم:

TnαSnβ \large T_n \to \alpha \\ \large S_n \to \beta

آنگاه روابط زیر نیز برقرار است.

 Tn+Sn d α+β \large { \displaystyle T_{n} + S_{n}\ { \xrightarrow {d}}\ \alpha + \beta }

TnSn d αβ \large { \displaystyle T_{n} S_{n}\ { \xrightarrow {d}}\ \alpha \beta }

Tn/Sndα/β,  β0  \large { \displaystyle T_{n} / S_{n} { \xrightarrow {d}} \alpha /\beta ,\; \beta \neq 0 } 

نکته: نماد d\xrightarrow{d} نشانگر «همگرایی در توزیع» (Convergence in Distribution) است به این معنی که حد تابع توزیع دنباله متغیرهای تصادفی به یک توزیع خاص میل می‌کند. توجه داشته باشید که اگر همگرایی در احتمال وجود داشته باشد، همگرایی در توزیع نیز بدست خواهد آمد ولی عکس آن همیشه درست نیست. در نتیجه هنگام استفاده از قضیه اسلاتسکی باید با دقت بیشتر و توجه به شرایط برقراری همگرایی در احتمال، عمل کنید.

قانون اعداد بزرگ

اغلب فرم صریح برای برآوردگر Tn T_n به صورت جمع یا تابعی از مجموع نمونه‌های تصادفی است. به این ترتیب استفاده از «قانون اعداد بزرگ» (Law of Large Numbers) که آن را به اختصار LLN می‌گویند نیز برای نشان دادن سازگاری برآوردگرها به کار می‌رود.

طبق قانون اعداد بزرگ برای یک دنباله از متغیرهای تصادفی {Xn}\{X_n\} تحت هم‌توزیعی و مستقل (iid) بودن، به شرط وجود امید ریاضی آن‌ها (μ \mu )، می‌توان رابطه زیر را در نظر گرفت.

1ni=1nXipE(X)=μ \large \frac{1}{n} \sum_{ i = 1 }^n X_i \xrightarrow {p} \operatorname{E} (X) = \mu

به این ترتیب برای دنباله برآوردگرهای {Tn} \{T_n\} هم که برآوردگر g(θ) g(\theta) هستند، خواهیم داشت:

1ni=1ng(Xi) p E[g(X)] \large { \frac {1}{n}} \sum _{ {i = 1} }^{n} g(X_{i}) \ { \xrightarrow {p}} \ \operatorname {E} [\, g(X) \,]

اریبی و ارتباط آن با برآوردگر سازگار در آمار

وجود «اُریبی» (‌Biased) برای یک برآوردگر در اکثر مواقع، عیب در نظر گرفته می‌شود و اغلب به دنبال یک برآوردگر نااُریب برای پارامتر مجهول جامعه هستیم. از طرفی سازگاری نیز به عنوان یک مزیت برای برآوردگر محسوب شده و علاقمند هستیم که برآوردگر نااریب، سازگار هم باشد.

در ادامه به این موضوع پرداخته و با استفاده از مثال‌هایی نشان می‌دهیم که ممکن است یک برآوردگر نااریب بوده ولی سازگار نباشد و برعکس برآوردگر اریبی پیدا کنیم که سازگار هم باشد. به همین دلیل، باید سازگاری و نااریبی را برای یک برآوردگر مورد تحقیق قرار دهیم.

برآوردگر نااریب ولی ناسازگار

در این قسمت، برآوردگری را معرفی می‌کنیم که در عین حال که نااریب است، ناسازگار هم است. مشاهدات مستقل و هم توزیع (iid) نمونه تصادفی {X1,X2,,Xn}\{X_1,X_2,\ldots,X_n\} را در نظر بگیرید. فرض کنید که برآوردگر E(X)=θ\operatorname{E}(X)=\theta همان Tn(X)=XnT_n(X)=X_n باشد.

از آنجایی که XXها، هم‌توزیع هستند پس توزیع Tn(X) T_n(X) نیز با آن‌ها یکی است و برای امید ریاضی (Mathematical Expectation) آن هم داریم:

 E(Tn)=E(Xn)=θ \large  \operatorname{E} (T_n) = \operatorname{E} (X_n ) = \theta

پس برآوردگر Tn(X) T_n(X) ، یک برآوردگر نااریب است. ولی این برآوردگر، سازگار نیست، زیرا Xn X_n به یک مقدار ثابت میل نمی‌کند. در نتیجه Tn T_n برآوردگر سازگار برای θ \theta نخواهد بود.

البته در بیشتر موارد، برآوردگرهای نااریب، سازگار هم خواهند بود به شرطی که این برآوردگر به nn بستگی نداشته باشند.

Unbiased-and-Consistent
برآوردگر سازگار؛ با افزایش حجم نمونه، برآوردگر به مقدار واقعی پارامتر نزدیک خواهد شد.

برآوردگر اریب ولی سازگار

فرض کنید میانگین یک توزیع از طریق برآوردگر زیر حاصل شود. البته در نظر داشته باشد که Xˉ\bar{X} یک برآوردگر نااریب برای E(X)=μ \operatorname{E}(X) = \mu است.

 Tn(X)=1nXi+1n=Xˉ+1n \large  T_n(X) = \frac{1}{n} \sum X_i + \frac{1}{n} = \bar{X} + \frac{1}{n}

واضح است که Tn(X) T_n (X) یک برآوردگر اریب با مقدار اریبی 1n \frac{1}{n} است. از آنجایی که میزان ارایبی Tn(X) T_n(X) در صورتی که اگر n n ‌ به سمت بی‌نهایت میل کند (n n \to \infty ) برابر با صفر خواهد شد، پس Tn(X) T_n(X) نیز به Xˉ \bar{X} میل کرده، در نتیجه سازگار است.

به عنوان یک مثال دیگر، به برآورد واریانس جامعه توسط واریانس نمونه‌ای و انحراف معیار نمونه‌ای می‌پردازیم. اگر واریانس نمونه‌ای را به صورت زیر (بدون در نظر گرفتن ضریب اصلاح بسل - Bessel's Correction) در نظر بگیریم، خواهیم داشت:

Sn2(X)=1ni=1n(XiXˉ)2 \large S^2_n(X) = \frac{1}{n} \sum_{i=1}^{n} (X_i - \bar{X})^2

قبلا نشان دادیم که این برآوردگر و جذر آن (انحراف معیار نمونه‌ای) هر دو برآوردگرهای اریب (با اریبی منفی) هستند، زیرا:

E(Sn2(X))=(11n)σ2<σ2 \large \operatorname{E} \left( S^2_n(X) \right) = (1 - \frac{1}{n}) \sigma^2 < \sigma^2

ولی باید توجه داشت که این برآوردگر، سازگار هستند. مشخص است که با حد گرفتن از سمت چپ نامساوی بالا، زمانی که nn به سمت بی‌نهایت میل کند، امید ریاضی Sn2(X)S^2_n(X) برابر با σ2\sigma^2 خواهد بود. به این ترتیب هم برآوردگر نااریب و هم برآوردگر اریب برای واریانس جامعه، سازگار هستند.

این موضوع را با یک مثال دیگر به پایان می‌بریم. فرض کنید TnT_n یک دنباله از برآوردگرهای θ\theta با تابع احتمالی به فرم زیر باشد.

$$ \large {\displaystyle \Pr ( T_{n}) = { \begin{cases}1 - 1/n, &{\mbox{if }}\,T_{n} = \theta \\ \large 1/n,& {\mbox{if }}\,T_{n} = n \delta + \theta \end{cases}}} $$

واضح است که این برآوردگر دارای اریبی است.

 E(Tn)= θ×(11/n)+1/n×(nδ+θ)=θθ/n+δ+θ/n=θ+δ  \large  E(T_n) =  \theta \times (1-1/n) +1/n \times( n\delta + \theta) = \theta - \theta/n + \delta +\theta/n = \theta + \delta 

رابطه بالا به nn بستگی نداشته و در صورتی که nn \to \infty، اریبی به سمت صفر میل نخواهد کرد. ولی از طرفی این برآوردگر سازگار است و داریم:

Tn pθ \large T_n  \xrightarrow {p} \theta

Biased-But-Consistent
برآوردگر ناسازگار و اریب

خلاصه و جمع‌بندی

در این نوشتار، با برآوردگر سازگار (Consistent Estimator) در آمار آشنا شدیم و با استفاده از چند مثال، کارایی چنین برآوردگرهایی را مشخص کردیم. در انتها نیز ارتباط نااریبی با سازگاری را مورد بررسی قرار دادیم. در این بین سازگاری ضعیف و سازگاری قوی را هم براساس همگرایی براساس احتمال (Convergence in Probability) یا تقریبا مطمئن (Almost Surely Convergence) مشخص کردیم.

اگر این مطلب برای شما مفید بوده است، مشاهده آموزش‌ها و خواندن مطالب مرتبط با این موضوع که در ادامه آمده‌اند، نیز به شما پیشنهاد می‌شوند:

^^

بر اساس رای ۶ نفر
آیا این مطلب برای شما مفید بود؟
اگر بازخوردی درباره این مطلب دارید یا پرسشی دارید که بدون پاسخ مانده است، آن را از طریق بخش نظرات مطرح کنید.
منابع:
مجله فرادرسWikipedia
نظر شما چیست؟

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *