همگرایی دنباله متغیرهای تصادفی — آشنایی با انواع آن

۱۹۰۵ بازدید
آخرین به‌روزرسانی: ۱۶ خرداد ۱۴۰۲
زمان مطالعه: ۱۷ دقیقه
همگرایی دنباله متغیرهای تصادفی — آشنایی با انواع آن

اگر با دنباله‌ای از متغیرهای تصادفی سروکار داشته باشیم، همگرایی آن‌ها به یک نقطه یا مقدار خاص اهمیت پیدا می‌کند در غیر این صورت نمی‌توانیم برایش رفتار مشخصی برای مقادیر بعدی یا مثلا در آینده تصور کنیم. به همین جهت، همگرایی دنباله متغیرهای تصادفی و انواع آن، موضوع این نوشتار مجله فرادرس قرار گرفته است.

997696

برای آشنایی بیشتر با متغیر تصادفی و ویژگی‌های آن بهتر است مطلب متغیر تصادفی، تابع احتمال و تابع توزیع احتمال و توزیع تجمعی — به زبان ساده را مطالعه کنید. همچنین خواندن نوشتارهای توزیع‌های آماری — مجموعه مقالات جامع وبلاگ فرادرس و قضیه حد مرکزی و تعمیم آن — به زبان ساده برای درک بهتر اصطلاحات مربوط به همگرایی دنباله متغیرهای تصادفی نیز خالی از لطف نیست.

همگرایی دنباله‌ متغیرهای تصادفی

در «نظریه احتمال» (Probability Theory)، نمادها و اشکال مختلفی برای همگرایی دنباله متغیرهای تصادفی وجود دارد که در ادامه با آن‌ها آشنا خواهیم شد. البته توجه دارید که در اینجا منظور از همگرایی دنباله متغیرهای تصادفی تمایل آن‌ها در نهایت به سمت یک متغیر تصادفی دیگر است که رفتار یا توزیع مشخصی دارد و البته این احتمال نیز هست که این دنباله به یک «متغیر تصادفی تباهیده» (Identical Random Variable) میل کند که در حقیقت آن را مقدار ثابت در نظر می‌گیریم.

کاربردهای زیادی از همگرایی دنباله متغیرهای تصادفی وجود دارد از جمله می‌توان به بحث فرآیندهای تصادفی و رفتار نهایی آن‌ها اشاره کرد که موضوع مهمی در نظریه احتمال بخصوص نظریه بازی‌ها محسوب می‌شود. به این ترتیب برای شناخت موقعیت یک فرآیند تصادفی در نهایت، باید موفق به شناخت رفتار متغیری شویم که دنباله به آن همگرا است. همگرایی دنباله متغیرهای تصادفی بخصوص در بحث مربوط به مارتینگل‌ها (Martingales)  نیز مورد تجزیه و تحلیل قرار می‌گیرد.

همانطور که اشاره شد،‌ ممکن است وضعیت همگرایی دنباله متغیرهای تصادفی در یک مقدار یا نقطه خلاصه شده یا به یک متغیر تصادفی دیگر همگرا شود. به این ترتیب اگر تابع توزیع احتمال متغیری که دنباله به آن همگرا است را بدانیم، می‌توانیم رفتار دنباله را در آینده پیش‌بینی کنیم. در هر حالت نحوه نمایش و شیوه همگرایی دنباله متغیرهای تصادفی برایمان مهم است.

نکته: اگر دنباله متغیرهای تصادفی،‌ به مقدار یا متغیر تصادفی دیگری همگرا نباشند، رفتار آن در آینده قابل پیش‌بینی نخواهد بود. در این حالت دنباله را «واگرا» (Divergence) می‌گویند.

مقدمه‌ای بر همگرایی دنباله‌ متغیرهای تصادفی

در «همگرایی تصادفی» (Stochastic Convergence)، ایده مربوط به تمایل دنباله‌ای از متغیرهای تصادفی یا در حقیقت دنباله‌ای از پیشامدهای تصادفی، فرمول‌بندی شده است. الگوهای مربوط به همگرایی یا تمایل دنباله‌ها ممکن است به صورت زیر باشد.

  • همگرایی دنباله (به مفهوم کلاسیک)، تمایل به رسیدن به یک نقطه ثابت است که آن نقطه؛ ممکن است حاصل از پیشامد تصادفی باشد.
  • تمایل دنباله متغیرهای تصادفی به سمت یک تابع که به طور کامل قابل شناسایی است، همگرایی نامیده می‌شود.
  • همگرایی به یک پیشامد تصادفی مشخص ممکن است در یک دنباله از متغیرهای تصادفی رخ دهد.
  • دوری (Aversion) یا واگرایی از یک پیشامد مشخص نیز به عنوان یکی از مباحث مربوط به همگرایی تصادفی مطرح است.
  • در همگرایی تصادفی، ممکن است توزیع احتمالی برای دنباله‌ای از پیشامدها به یک توزیع خاص تمایل داشته باشند که در ادامه در مورد آن صحبت خواهیم کرد.

همچنین می‌توان الگوهای نظری زیر را هم در این زمینه در نظر گرفت که بخصوص بحث آمار ریاضی نیز مورد توجه هستند.

  • ممکن است در بحث همگرایی، «مقدار مورد انتظار» (Expected Value) یا همان «امید ریاضی» (Mathematical Expectation) دنباله متغیرهای تصادفی به یک مقدار مشخص و ثابت، تمایل داشته باشد.
  • در صورت وجود همگرایی در دنباله متغیرهای تصادفی ، واریانس یا پراکندگی دنباله متغیرهای تصادفی حول مرکزشان (امید ریاضی) با افزایش جملات دنباله، کمتر و کمتر شود.

برای مثال متغیرهای تصادفی YiY_i را در نظر بگیرید (i=1,2,,n i = 1, 2, \ldots,n ). اگر امید ریاضی (μ \mu ) و واریانس (σ2 \sigma^2 ) همه این متغیرهای تصادفی برابر و یکسان باشد، می‌توان مجموع آن‌ها را که به n n ‌ بستگی دارد،‌ دنباله‌ای از متغیرهای تصادفی در نظر گرفت.

Xn=1ni=1nYi \large { \displaystyle X_{n} = { \frac {1}{n}}\sum _{i=1}^{n} Y_{i} \, }

در رابطه بالا، اگر مقدار n n ‌ به سمت بی‌نهایت میل کند، Xn X_n در احتمال به سمت میانگین  Yi  Y_i ها یا همان μ \mu میل خواهد کرد. معنی عبارت «در احتمال» در ادامه بیشتر روشن خواهد شد. این موضوع به «قانون ضعیف اعداد بزرگ» (Weak Law of Large Numbers) معروف است. البته همگرایی دنباله متغیرهای تصادفی موضوع قضیه یا قوانین دیگری مانند «قضیه حد مرکزی» (Central Limit Theorem) و «قانون قوی اعداد بزرگ»‌ نیز هست.

در ادامه بحث دنباله متغیرهای تصادفی را با نماد {Xn} \{X_n\} و مقداری که به آن همگرا است را به صورت یک متغیر تصادفی X X در نظر می‌گیریم. فضای احتمال نیز برای پیشامدها به صورت (Ω,F,Pr) (\Omega, \cal{F},\Pr) خواهد بود.

نکته: همانطور که در قسمت‌های بالایی خواندید، همگرایی دنباله متغیرهای تصادفی مورد بحث قرار گرفت. ولی این موضوع می‌تواند برای همگرایی دو دنباله نیز در نظر گرفته شود. ولی اغلب ساده‌تر است که به جای بررسی دو دنباله، دنباله‌ای از تفاضل یا نسبت آن‌ها را مد نظر قرار داده و بررسی همگرایی و پیدا کردن نقطه همگرایی را برای آن‌ها انجام داد.

شیوه و نوع نزدیک شدن دنباله متغیرهای تصادفی به سه شکل یا صورت در تئوری احتمال در نظر گرفته می‌شود. «همگرایی در توزیع» (Convergence in Distribution)، «همگرایی در احتمال» (Convergence in Probability) و «همگرایی تقریبا مطمئن» (Convergence Almost Surely) که هر یک از آن‌ها در این نوشتار مورد توجه و بحث قرار می‌گیرند.

همگرایی دنباله متغیرهای تصادفی در توزیع

یک دنباله از متغیرهای تصادفی، در توزیع، همگرا است اگر میزان انتظارمان برای مشاهده پیشامد بعدی از آن دنباله از نتایج آزمایش تصادفی، بر اساس «توزیع احتمالی» (Probability Distribution) مورد نظر، بیشتر و بیشتر شود.

این گزاره را به صورت رسمی به صورت زیر ارائه یا تعریف می‌کنیم.

همگرایی دنباله متغیرهای تصادفی در توزیع: دنباله متغیرهای تصادفی با مقادیر حقیقی X1,X2, X_1, X_2, \ldots را «همگرا در توزیع» (Convergence in Distribution) یا «همگرایی ضعیف» (Weak Convergence) یا «همگرایی در قانون» (Convergence in Law) به سمت متغیر تصادفی X X گوییم اگر رابطه زیر برقرار باشد.

limnFn(x)=F(x),  \large { \displaystyle \lim_{n \to \infty } F_{n}(x) = F(x),}\

که در آن x x یک عدد حقیقی و F F نیز یک تابع پیوسته است. البته در نظر داشته باشید که هم Fn F_n و هم F F توابع توزیع تجمعی متغیرهای تصادفی به ترتیب Xn X_n و X X محسوب شده‌اند.

در اصل تنها شرطی که باید در این نوع همگرایی لحاظ شود، پیوستگی تابع F F است. برای مثال اگر هر یک از Xn X_n ها دارای «توزیع یکنواخت» (Continuous Uniform Distribution) در بازه (0,1n) (0,\frac{1}{n}) باشند، آنگاه همگرایی به نقطه یا متغیر تصادفی X=0 X = 0 براساس همگرایی در توزیع حاصل می‌شود. در حقیقت f به ازای n>0 n > 0 مشخص است که Fn(x)=0 F_n (x) = 0 برای همه x<0 x < 0 بوده و برای xn x \geq n مقدار تابع توزیع احتمال برابر با ۱ است.

Fn(x)={0x<01x0 \large F_n(x) = \begin{cases} 0 & x < 0\\ 1 & x \geq 0 \end{cases}

نکته: البته اگر x=0 x=0 آنگاه F(0)=1 F(0) = 1 حتی زمانی که Fn(0)=0 F_n(0) = 0 است. در نتیجه همگرایی تابع توزیع احتمال در نقطه x=0 x=0 در صورت پیوسته نبودن تابع F F ، نقض می‌شود.

همگرایی در توزیع برای یک دنباله متغیرهای تصادفی Xn X_n به شیوه‌های مختلفی نماش داده می‌شود. در ادامه به بعضی از نمادهای همگرایی در توزیع اشاره کرده‌ایم.

$$ \large { \displaystyle { \begin{aligned}{} \\ & X_{n} \ { \xrightarrow {d}}\ X,\ \ X_{n} \ { \xrightarrow { \mathcal {D}}}\ X,\ \  X_{n}\ { \xrightarrow { \mathcal {L}}}\ X,\ \ X_{n}\ { \xrightarrow {d}} \ { \mathcal {L}}_{X},\\ & X_{n} \rightsquigarrow X,\ \ X_{n} \Rightarrow X,\ \ { \mathcal {L}}(X_{n}) \to { \mathcal {L}}(X) \end{aligned} } } $$

برای مثال اگر بخواهیم نشان دهیم که دنباله Xn X_n به توزیع نرمال با میانگین صفر و واریانس ۱ همگرا در توزیع است، از نماد زیر استفاده خواهیم کرد.

XndN(0,1) \large { \displaystyle X_{n} \, { \xrightarrow {d}}\,{ \mathcal {N}}(0,\,1)}

نکته: برای بردارهای تصادفی X1,X2, X_1 , X_2 , \ldots با مقادیری که زیر مجموعه‌ای از Rk R^k ‌ باشند نیز همگرایی در توزیع تعریف می‌شود. طبق تعریف بالا، دنباله‌ای از بردارهای تصادفی در توزیع به بردار X X همگرا است، اگر تساوی زیر برقرار باشد.

limnPr(XnA)=Pr(XA) \large { \displaystyle \lim _{n\to \infty } \operatorname {Pr} (X_{n}\in A)= \operatorname {Pr} (X \in A)}

که A A زیر مجموعه از فضای k k بٰعدی است و مجموعه‌ای از نقاط پیوستگی X X است.

تعمیم همگرایی دنباله متغیرهای تصادفی در توزیع

تعریف همگرایی در توزیع را می‌توان از بردارهای تصادفی به «عناصر تصادفی» (Random Elements) در یک «فضای متریک» (Metric Space) دلخواه، گسترش داد و حتی یک گام جلوتر برداشته و برای متغیرهایی تصادفی که «اندازه‌پذیر» (Measurable) نبوده و فقط به صورت مجانبی (Asymptotically) اندازه‌پذیر هستند تعریف کرد. این موضوع برای مثال در زمینه‌هایی که مربوط به «فرآیندهای تجربی» (Empirical Processes) است نیز به کار برد. معمولا در این حالت به جای همگرایی در توزیع از عبارت «قانون همگرایی ضعیف در توزیع - بدون آگاهی از توزیع دقیق» (Weak Convergence of Laws without Laws being defines) استفاده می‌کنند.

در چنین مواردی به کارگیری واژه همگرایی ضعیف ترجیح دارد و می‌گوییم که دنباله «عناصر تصادفی» (Random Elements) مانند {Xn} \{X_n\} همگرای ضعیف به X X است اگر رابطه زیر برقرار باشد.

Eh(Xn)Eh(X) \large { \displaystyle \operatorname{E} ^{*}h(X_{n})\to \operatorname {E} \, h(X) }

توجه داشته باشید که h h یک تابع پیوسته کراندار بوده و در اینجا E \operatorname{E} همان امید ریاضی است و E \operatorname{E}^* نیز امید «ریاضی خارجی» (Outer Expectation) است.

همانطور که می‌دانید، منظور از امید ریاضی خارجی کوچکترین تابع اندازه‌پذیر g g ‌ است که تابع h(Xn) h(X_n) را تحت پوشش (Dominate) قرار می‌دهد.

convergence in distribution

خصوصیات همگرایی دنباله متغیرهای تصادفی در توزیع

از آنجایی که برای نقطه a a ‌ تابع توزیع تجمعی (CDF)‌ به صورت F(a)=Pr(Xa) F(a) = \Pr (X \leq a) تعریف می‌شود، همگرایی در توزیع به معنی آن است که برای n n ‌ به اندازه کافی بزرگ، احتمال اینکه Xn X_n که در یک بازه کراندار به a a قرار گیرد،‌ تقریباٰ برابر با احتمال آن است که متغیر تصادفی X X ‌ در همان بازه قرار گرفته باشد.

اگر یک دنباله از متغیرهای تصادفی در توزیع همگرا به متغیر تصادفی X X ‌ باشند،‌ دلیلی ندارد که تابع چگالی (PDF) آن‌ها هم به تابع چگالی احتمال متغیر تصادفی X X همگرا باشد. برای مثال متغیر تصادفی Xn X_n   با تابع چگالی زیر را در نظر بگیرید.

fn(x)=(1cos(2πnx))1(0,1) \large f_n(x) = (1 − \cos (2 \pi n x))\mathcal{1}_{(0,1)}

این دنباله از متغیرهای تصادفی همگرا به توزیع یکنواخت در بازه (0,1) (0,1) ‌ است در حالیکه تابع چگالی آن‌ها اصلا همگرا نیست.

نکته: بنا بر قضیه شفه (Scheffe Theorem)، همگرایی در چگالی،‌ همگرایی در توزیع را نتیجه می‌دهد ولی عکس آن صحیح نیست.

اگر دنباله متغیرهای تصادفی {Xn} \{ X_n \} ‌ به X X ‌ همگرا باشند آنگاه گزاره‌های زیر معادل هستند.

  • برای هر یک از عناصر دنباله {Xn} \{X_n\} یعنی مثلا Xn X_n در هر نقطه از پیوستگی تابع احتمال مثل x x ، داریم:

Pr( Xnx)Pr(Xx ) \large \Pr(  X_n \leq x ) \rightarrow \Pr( X \leq x  )

  • امید ریاضی هر تابع کراندار و پیوسته مثل f f ‌ از دنباله متغیرهای تصادفی نیز به امید ریاضی تابع f f در نقطه X X همگرا است. به بیان ریاضی می‌توان نوشت:

E[ f(Xn)]E[f(X)] \large \operatorname{E}[  f( X_n ) ] \rightarrow \operatorname{E} [ f( X ) ]

  • حد بزرگترین کران پایین (Infimum) امید ریاضی تابعی از دنباله تصادفی Xn X_n ‌ برای هر تابع نامنفی و پیوسته f f در رابطه زیر صدق می‌کند.

liminfE[f(Xn)]E[f(X)] \large \lim \inf \operatorname{E}[f(X_n)] \geq \operatorname{E}[f(X)]

  • برای هر مجموعه باز (Open Set) مثل G G رابطه زیر برقرار است. به این معنی که حد کران پایین مقدار احتمال تعلق هر عضو دنباله مثلا Xn X_n به یک مجموعه باز، بزرگتر از مقدار احتمال تعلق X X به این مجموعه است.

liminfPr(XnG)Pr(XG) \large \lim \inf \Pr(X_n \in G) \geq \Pr (X \in G)

  • برای هر مجموعه بسته (Closed Set) مثل F F رابطه زیر برقرار است. به این معنی که حد کران بالای مقدار احتمال تعلق هر عضو دنباله مثلا Xn X_n به یک مجموعه باز، بزرگتر از مقدار احتمال تعلق X X به این مجموعه است.

limsupPr(XnF)Pr(XF) \large \lim \sup \Pr(X_n \in F) \leq \Pr (X \in F)

  • «قضیه نگاشت پیوسته» (Continuous Mapping Theorem) بیان می‌دارد که برای هر تابع پیوسته مثل g g ، اگر دنباله {Xn} \{X_n\} ‌ همگرا به X X در توزیع باشد، آنگاه دنباله {g(Xn)} \{g(X_n)\} ‌ نیز به g(X) g(X) در توزیع همگرا است.

نکته: با توجه به موضوع بالا نمی‌توان نتیجه گرفت که برای دو دنباله همگرای {Xn} \{X_n\} و {Yn} \{Y_n\} که به ترتیب به X X و Y Y در توزیع همگرا هستند، آنگاه {Xn+Yn} \{ X_n + Y_n \} نیز به X+Y X + Y ‌ همگرا است. این موضوع برای تفاضل و ضرب دنباله‌ها نیز نتیجه نمی‌شود.

«قضیه پیوستگی لوی» (Levy's Continuity Theorem) بیان می‌کند که در صورت همگرا بودن «تابع مشخصه» (Characteristic Function) هر یک از متغیر تصادفی Xn X_n به تابع مشخصه X X ، می‌توان گفت که دنباله {Xn} \{X_n\} نیز به X X در توزیع همگرا است و برعکس. یعنی همگرایی در توزیع،‌ همگرایی در تابع مشخصه را هم نتیجه می‌دهد. به این ترتیب اگر تابع مشخصه را با ϕ(X) \phi(X) نشان دهیم، خواهیم داشت:

Xndx{ϕn(Xn)} ϕ(X) \large X_n \xrightarrow {d} x \Leftrightarrow \{\phi_n(X_n)\} \rightarrow  \phi(X)

به یاد دارید که تابع مشخصه متغیر تصادفی می‌تواند به صورت منحصر به فردی، توزیع آن را مشخص کند.

مثال ۱. کارخانه تولید تاس

فرض کنید یک کارخانه جدید تولید تاس افتتاح شده است. اولین گروه محصول تولیدی این کارخانه، تاس‌هایی کاملا اریب (Biased) هستند زیرا هنوز دستگاه‌ها و تجهیزات کالیبره و تنظیم نشده‌اند. به همین دلیل هیچ یک از این تاس‌ها دارای توزیع دلخواه یکنواخت گسسته (Discrete Uniform Distribution) نیستند.

تجهیزات و ماشین‌آلات کالیبره شده و تاس‌های تولیدی نیز هر روز دارای اریبی کمتری می‌شوند، بطوری که تاس‌های جدید تولیدی تقریبا نااریب (Unbiased) بوده و به توزیع یکنواخت نزدیک و نزدیک‌تر می‌شوند.

مثال ۲. پرتاب سکه

فرض کنید Xn X_n نسبت تعداد شیرها به خط‌ها بعد از n n بار پرتاب یک سکه باشد. واضح است که X1 X_1 ‌ دارای توزیع برنولی با پارامتر احتمال یا میانگین تعداد موفقیت p=μ=0.5 p = \mu = 0.5 و واریانس p(1p)=σ2=0.25 p(1-p) = \sigma^2 = 0.25 است. آنگاه زیردنباله (Sub sequence) متغیرهای تصادفی X2,X3, X_2 , X_3 , \ldots دارای توزیع دوجمله‌ای (Binomial Distribution) خواهد بود.

هر چه تعداد پرتاب‌ها (n n ) بیشتر شود، توزیع جملات این دنباله به توزیع زنگی شکل نرمال (Bell Curve) نزدیک و نزدیک‌تر خواهد شد. اگر با تغییر مکان و مقیاس متغیر تصادفی Xn X_n را به Zn Z_n تبدیل کنیم، توزیع دنباله حاصل به توزیع نرمال استاندارد همگرا می‌شود. البته این موضوع را نیز به وسیله «قضیه حد مرکزی» (Central Limit Theorem) می‌توانستیم نتیجه بگیریم.

مثال ۳. همگرایی دنباله متغیرهای تصادفی با توزیع یکنواخت به متغیر تصادفی نرمال

دنباله {Xi} \{X_i\} ‌ از متغیرهای تصادفی مستقل و هم‌توزیع با «توزیع یکنواخت پیوسته» (Continuous Uniform Distribution) در بازه (1,1) (-1 , 1) در نظر بگیرید.

XiU(1,1) \large X_i \sim U (-1,1)

طبق قضیه حد مرکزی، توزیع حدی Zn Z_n ها که بوسیله نرمال‌سازی روی جمع Xi X_i ساخته می‌شود، با افزایش n n ‌ و میل کردن آن به سمت بی‌نهایت، به توزیع نرمال با میانگین صفر و واریانس 13 \frac{1}{3} همگرا است.

Zn=1ni=1nN(0,13) \large Z_n = \frac{1}{\sqrt{n}}\sum_{i=1}^n \sim N(0,\frac{1}{3})

نکته: به یاد دارید که میانگین و واریانس توزیع یکنواخت به صورت زیر محاسبه می‌شود.

E(X)=abx1ba  dx=1ba(12)x2ab=b2a22(ba)=a+b2 \large E(X) = \int_a^b x\frac{1}{b-a}\;dx = \frac{1}{ b - a }( \frac{1}{2}) x^2 \mid_a^b = \frac {b^2 - a^2 }{2(b - a)} = \frac{a+b}{2}

و

Var(X)=E(X2)E(X)2=abx21b1  dx(a+b)24=  \large Var(X) = E(X^2) - E(X)^2 = \int_a^b x^2\frac{1}{b-1}\;dx-\frac{(a+b)^2}{4} = 

13x3ab(a+b)24=13(b3 a3)14(a+b)2=112(ba)2\large \frac{1}{3} x^3 \mid_a^b - \frac{(a + b)^2}{4} = \frac{1}{3}(b^3  - a^3) - \frac{1}{4}(a + b)^2 = \frac{1}{12}(b - a)^2

در تصویر زیر این همگرایی را تا n=9 n=9 مشاهده می‌کنید. البته به نظر می رسد، زمانی که تعداد تکرارها تقریبا برابر با 5 است، همگرایی رخ داده است.

Convergence
تصویر ۱: همگرایی دنباله‌ای از مجموع متغیرهای تصادفی یکنواخت به توزیع نرمال

همگرایی دنباله متغیرهای تصادفی در احتمال

منظور از همگرایی در احتمال، کوچک بودن jاحتمال رخداد پیشامدهای نامعمول (Unusual) است. به این معنی که احتمال آنکه فاصله نقاط دنباله از مقدار مربوط به همگرایی آن‌ها بزرگتر از هر مقدار مثبتی باشد، لحظه به لحظه با رشد مقدار n n ، کوچکتر و کوچکتر می‌شود به طوری که در نهایت می‌توان آن را صفر در نظر گرفت. بنابراین تعریف رسمی برای همگرایی را به صورت زیر ارائه می‌کنیم.

نکته: در بحث مربوط به برآوردگرهای سازگار، همگرایی در احتمال مورد نظر است. برای آشنایی بیشتر با این نوع برآوردگرها بهتر است نوشتار برآوردگر سازگار در آمار — به زبان ساده را از مجله فرادرس مطالعه کنید.

همگرایی دنباله متغیرهای تصادفی در احتمال: برای دنباله متغیرهای تصادفی {Xn} \{X_n\} ، همگرایی در احتمال به متغیر تصادفی X X وجود دارد، اگر رابطه زیر برای هر مقدار مثبتی مثل ε \varepsilon برقرار باشد.

limnPr(XnX>ε)=0 \large { \displaystyle \lim _{ n \to \infty }\Pr { \big (} | X_{n} - X | > \varepsilon { \big ) } = 0 }

به تعبیر دیگر فرض کنید که Pn P_n احتمال آن باشد که متغیر تصادفی Xn X_n خارج کره‌ای با شعاع ϵ \epsilon و مرکز X X قرار گیرد. در این صورت Xn X_n به ازاء هر ϵ>0 \epsilon >0 و δ>0 \delta>0 همگرا در احتمال به X X است، اگر مقداری مثل N N (که شاید به ϵ \epsilon یا δ \delta بستگی داشته باشد) موجود باشد که در رابطه زیر صدق کند.

nN,Pn<δ \large n \geq N , P_n < \delta

چنین رابطه‌ای درست به مانند تعریفی است که از حد (Limit) در نهایت برای یک تابع در نظر می‌گیریم.

از طرفی همانطور که در این تعریف مشخص است، برای دنباله {Xn} \{X_n\} ، یک دنباله از احتمالات نیز معرفی می‌شود که حد آن برابر با صفر است. پس در همگرایی در احتمال با یک دنباله از احتمالات هم مواجه هستیم که برای همگرایی باید نشان دهیم که این دنباله، همگرا است.

نکته: توجه داشته باشید که با توجه به شرایط، برای هر n n ، متغیرهای تصادفی Xn X_n ‌ و X X ممکن است مستقل از یکدیگر نباشند. در نتیجه همگرایی در احتمال، به معنی همگرایی در تابع توزیع توام (Joint CDF) نیز خواهد بود که در مقابل همگرایی در توزیع است که به توزیع توام توجهی ندارد.

همگرایی در احتمال را به شیوه‌ها و نمادهای مختلفی نشان می‌دهند که در ادامه به بعضی از آن‌ها اشاره می‌کنیم.

Xn p X,  Xn P X,  plimnXn=X \large { \displaystyle X_{n}\ { \xrightarrow {p}}\ X,\ \ X_{n}\ { \xrightarrow {P}}\ X,\ \ { \underset {n \to \infty }{ \operatorname {plim} } }\, X_{n} = X}

تا به حال براساس فضای احتمال (Ω,F,Pr)(\Omega , \cal{F} , \Pr)‌ عمل کردیم ولی اگر فضای متریک جداپذیر (Separable Metric Space) مثل (S,d)(S , d) را در نظر بگیریم،‌ دنباله عناصر تصادفی {Xn} \{X_n\} ‌ را هم به X X همگرا گوییم اگر رابطه زیر براساس تعریف حد، برقرار باشد.

ε>0,      Pr(d(Xn,X)ε)0 \large \forall \varepsilon > 0,\;\;\; \Pr { \big (} d( X_{n},X) \geq \varepsilon { \big )} \to 0

مثال 4

یک آزمایش تصادفی را در نظر بگیرید که در گام اول آن یک نفر از بین جمعیتی به طور تصادفی انتخاب می‌شود. قد او را به عنوان یک متغیر تصادفی مثل X X اندازه‌گیری کرده و ثبت می‌کنیم. در گام دوم از افراد دیگر می‌خواهیم بدون ابزار اندازه‌گیری و فقط با چشم، قد او را حدس بزنند. به این ترتیب حدس نفر اول برای قد او به صورت Y1 Y_1 و همینطور تا نفر n n ام به شکل Yn Y_n ثبت می‌شود.

میانگین حدس n n نفر اول، یک متغیر تصادفی است که آن را به صورت Xn X_n نشان می‌دهیم.

Xn=1ni=1nYi \large X_n = \frac{1}{n} \sum_{i=1}^n Y_i

با فرض اینکه چشم همه سالم بوده و «خطای سیستماتیک» (Systematic Error) در اندازه‌گیری چشمی حضور ندارد، طبق قانون اعداد بزرگ، و براساس همگرایی در احتمال، دنباله متغیرهای تصادفی {Xn} \{ X_n \} به سمت X X در احتمال میل خواهد کرد.

خصوصیات همگرایی دنباله متغیرهای تصادفی در احتمال

در این قسمت با بعضی از خصوصیات همگرایی در احتمال و دنباله‌هایی که در احتمال همگرا هستند، خواهیم پرداخت.

  • می‌توان نشان داد که همگرایی در احتمال، همگرایی در توزیع را نتیجه خواهد داد.
  • همگرایی در توزیع، فقط زمانی که متغیر تصادفی X X تباهیده (یا ثابت) باشد، همگرایی در احتمال را نتیجه می‌دهد. قبلا در مورد همگرایی احتمال و توزیع توام صحبت کردیم. با توجه به اینکه متغیر تصادفی X X ، مقداری ثابت است، توزیع توام Xn X_n   و X X با توزیع حاشیه‌ای Xn X_n یکسان است در نتیجه می‌توان همگرایی در توزیع را با همگرایی در احتمال در اینجا یکسان دانست.
  • همگرایی در احتمال نمی‌تواند همگرایی تقریبا مطمئن را نتیجه بدهد. در مورد این نوع همگرایی در ادامه متن بحث خواهیم کرد.
  • به کمک «قضیه نگاشت پیوسته» (Continuous Mapping Theorem) می‌توان همگرایی یک دنباله از متغیرهای تصادفی را به تابعی پیوسته از آن‌ها نیز نسبت داد. در نتیجه رابطه زیر برای هر تابع پیوسته g g برقرار است.

XnPXg(Xn)Pg(X) \large X_n \xrightarrow {P} X \Leftrightarrow g(X_n) \xrightarrow {P} g(X)

  • همگرایی در احتمال، یک توپولوژی (Topology) روی فضای متغیرهای تصادفی در یک فضای احتمال ثابت ایجاد می‌کند. فاصله در این فضای توپولوژی به صورت زیر تعریف می‌شود.

d(X,Y)=inf ⁣{ε>0: Pr(XY>ε)ε} \large {\displaystyle d(X,Y) = \inf \!{ \big \{}\varepsilon > 0 : \ \Pr {\big (}| X - Y |> \varepsilon { \big )} \leq \varepsilon {\big \} }}

convergence in probability

همگرایی دنباله متغیرهای تصادفی تقریبا مطمئن

این نوع همگرایی بسیار شبیه به «همگرایی نقطه به نقطه» (Point-wise Convergence) در آنالیز حقیقی (Real Analysis) است و به صورت زیر تعریف می‌شود.

همگرایی دنباله متغیرهای تصادفی تقریبا مطمئن: دنباله {Xn} \{X_n\} همگرای «تقریبا مطمئن» (Almost Surely) یا «تقریبا همه ‌جا» (Almost Everywhere) یا «با احتمال یک» (With Probability One) یا «همگرایی قوی» (Strongly) به X X ‌ دارد، اگر رابطه زیر برقرار باشد.

Pr(limnXn=X)=1 \large \Pr ( \lim_{ n \to \infty } X_n = X ) = 1

رابطه بالا نشان می‌دهد که همه نقاطی Xn X_n که در حد به X X میل می‌کنند با احتمال یک رخ می‌دهند و نقاطی که این تساوی بینشان برقرار نیست، مجموعه نقاطی با احتمال رخداد صفر است.

این موضوع را به کمک تابع احتمال و فضای پیشامد به شکل زیر نشان می‌دهیم.

Pr(ωΩ:limnXn(ω)=X(ω))=1 \large \Pr \left( \omega \in \Omega : \lim_{ n \to \infty } X_n ( \omega ) = X ( \omega) \right) = 1

اگر بخواهیم با نماد حد و سوپریمیم دنباله مجموعه‌ها، همگرایی تقریبا مطمئن را نشان دهیم، از رابطه زیر استفاده خواهیم کرد.

Pr(lim supn{ωΩ:Xn(ω)X(ω)>ε})=0 for all ε>0 \large { \displaystyle \operatorname {Pr} { \Big (} \limsup _{n \to \infty }{ \big \{}\omega \in \Omega : | X_{n} ( \omega ) - X ( \omega )| > \varepsilon { \big \} } { \Big )} = 0 \quad { \text{ for all } } \quad \varepsilon > 0 }

مثال 5

یک جانور که دارای عمر کوتاهی است (مثلا یک پروانه) را در نظر بگیرید. میزان غذای مصرفی روزانه چنین جانوری را به صورت یک دنباله تصادفی به شکل {Xn} \{ X_n \} n فرض می‌کنیم. با توجه به طول عمر کم این جانور مشخص است که به ازاء مقدار n n مشخصی، مقدار Xn X_n برابر با صفر خواهد بود. در نتیجه می‌توانیم بگوییم که دنباله Xn X_n در احتمال به سمت X=0 X=0 میل می‌کند.

limPr(Xn0>ϵ)=0  ,  ϵ>0 \large \lim \Pr(|X_n -0 | > \epsilon ) = 0 \; , \; \forall \epsilon > 0

مثال ۶

فردی را در نظر بگیرید که هر روز صبح یک سکه را هفت بار پرتاب می‌کند. بعد از ظهر همان روز، به ازاء تعداد شیرهای مشاهده شده، به یک خیره ۱۰۰۰ تومان پرداخت می‌کند. در روز اول، تمامی پرتاب‌ها، خط بوده‌اند. می‌توان نتیجه گرفت که او هرگز به خیره کمک نخواهد کرد.

فرض کنید X1, X2, X_1,  X_2 , \ldots میزان کمک او به خیریه باشد. ما تقریبا مطمئن هستیم که در یکی از روز‌ها، میزان کمک او صفر تومان است. از این موضوع نتیجه می‌گیریم که او همیشه به مقدار صفر تومان به خیریه کمک خواهد کرد.

توجه داشته باشید که پیشامد آنکه در بعضی از روز‌ها (تعداد روزهای متناهی) این قاعده بشکند و میزان پرداخت او به خیریه مثبت باشد، نیز وجود دارد ولی در مجموع و با افزایش تعداد روز‌ها،‌ عملا پرداختی صورت نخواهد گرفت.

معمولا همگرایی تقریبا مطمئن را به صورت نماد Xna.s.XX_n \xrightarrow {a.s.} X نشان می‌دهند.

خصوصیات همگرایی دنباله متغیرهای تصادفی تقریبا مطمئن

با توجه به خصوصیاتی که همگرایی دنباله متغیرهای تصادفی به صورت تقریبا مطمئن دارد، می‌توان به موارد زیر اشاره کرد.

  • اگر XnpX X_n \xrightarrow{p} X و XnpY X_n \xrightarrow{p} Y می‌توان نتیجه گرفت که رابطه X=YX = Y به صورت تقریبا مطمئن، یا با احتمال یک، برقرار است.
  • اگر Xna.s.X X_n \xrightarrow {a.s.} X و Xna.s.Y X_n \xrightarrow{a.s.} Y آنگاه رابطه X=YX = Y به صورت تقریبا مطمئن، یا با احتمال یک، برقرار است.
  • اگر XnpX X_n \xrightarrow {p} X و XnpY X_n \xrightarrow{p} Y آنگاه aXn+bYn aX_n + b Y_n نیز در احتمال به aX+bYaX + bY میل خواهد کرد.
  • اگر Xna.sX X_n \xrightarrow {a.s} X و Xna.sY X_n \xrightarrow{a.s} Y آنگاه aXn+bYn aX_n + b Y_n نیز همگرای تقریبا مطمئن به aX+bYaX + bY دارد.
  • اگر Xna.sX X_n \xrightarrow {a.s} X و Xna.sY X_n \xrightarrow{a.s} Y آنگاه XnYn X_n \cdot Y_n نیز همگرای تقریبا مطمئن به XY X \cdot Y دارد.
  • هیچکدام از رابطه‌های بالا براساس همگرایی در توزیع، نتیجه نخواهد شد.

همگرایی نقطه به نقطه یا مطمئن

برای آنکه نشان دهیم، همگرایی مطمئن (Sure Convergence) یک دنباله از متغیرهای تصادفی مثل {Xn} \{X_n\} به XX برقرار است از رابطه زیر استفاده می‌کنیم.

limnXn(ω)=X(ω),ωΩ \large \lim _{n\to \infty }X_{n}(\omega )=X(\omega ),\,\,\forall \omega \in \Omega

توجه دارید که در این حالت فضای احتمال به صورت (Ω,F ,Pr) (\Omega , \cal{F}  , \Pr ) در نظر گرفته شده است. به این ترتیب ω\omega هر یک از پیشامدهای ساده درون فضای نمونه (Sample Space) هستند.

همگرایی دنباله‌ متغیرهای تصادفی به صورت مطمئن را گاهی «همگرایی نقطه به نقطه» (Point-wise Convergence) نیز می‌نامند. بنابراین از نماد یا رابطه زیر نیز برای نشان دادن همگرایی نقطه به نقطه یا مطمئن استفاده می‌شود.

{ωΩlimnXn(ω)=X(ω)}=Ω \large { \big \{}\omega \in \Omega \,|\, \lim _{ n \to \infty }X_{n}( \omega ) = X ( \omega ){ \big \}} = \Omega

تفاوت اصلی بین همگرایی دنباله‌ متغیرهای تصادفی با احتمال یک و با همگرایی نقطه به نقطه، در مجموعه‌ای از پیشامدها است که احتمال رخداد آن صفر است. به همین علت کمتر از همگرایی مطمئن در احتمال صحبت شده و به کار گرفته می‌شود.

نکته: همگرایی مطمئن برای دنباله متغیرهای تصادفی، همه همگرایی‌های دیگر نظیر همگرایی در توزیع، همگرایی در احتمال و همگرایی تقریبا مطمئن را هم نتیجه می‌دهد.

خلاصه و جمع‌بندی

در این نوشتار با موضوع همگرایی دنباله‌ متغیرهای تصادفی آشنا شدیم. همچنین مشخص شد که این همگرایی از جنبه‌های مختلفی مانند همگرایی در توزیع، همگرایی در احتمال و همگرایی تقریبا مطمئن دسته‌بندی می‌شود. همگرایی دنباله متغیرهای تصادفی بخصوص در نظریه احتمال و آمار ریاضی کاربرد دارد.

اگر این مطلب برای شما مفید بوده است، آموزش‌ها و مطالبی که در ادامه آمده‌اند نیز به شما پیشنهاد می‌شوند:

^^

بر اساس رای ۹ نفر
آیا این مطلب برای شما مفید بود؟
اگر بازخوردی درباره این مطلب دارید یا پرسشی دارید که بدون پاسخ مانده است، آن را از طریق بخش نظرات مطرح کنید.
منابع:
Wikipediaمجله فرادرس
۱ دیدگاه برای «همگرایی دنباله متغیرهای تصادفی — آشنایی با انواع آن»

سلام وقت بخیرببخشیدیک سوال داشتم راجع به توزیع مجانبی،میتونیدکمکم کنید؟

نظر شما چیست؟

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *