نامساوی کانتلی و باتاچاریا — به زبان ساده

۲۹۹ بازدید
آخرین به‌روزرسانی: ۱۶ خرداد ۱۴۰۲
زمان مطالعه: ۶ دقیقه
دانلود PDF مقاله
نامساوی کانتلی و باتاچاریا — به زبان ساده

در نوشتارهای دیگر مجله فرادرس با نامساوی‌های احتمال نظیر نامساوی مارکف (Markov Inequality) و نامساوی چبیشف (Chebyshev Inequality) آشنا شدید. در این نوشتار به بررسی نامساوی کانتلی و باتاچاریا خواهیم پرداخت که با توجه به مقدار پارامتر آن، یک کران بالا یا پایین برای احتمال تجمعی یا تابع بقا متغیر تصادفی ایجاد می‌کند.

997696

برای درک و آشنایی با اصطلاحات به کار رفته در این نوشتار بهتر است مطالب متغیر تصادفی، تابع احتمال و تابع توزیع احتمال و امید ریاضی (Mathematical Expectation) — مفاهیم و کاربردها را مطالعه کنید. همچنین خواندن نوشتار توزیع تجمعی — به زبان ساده نیز خالی از لطف نیست.

نامساوی کانتلی و باتاچاریا

فرض کنید متغیر تصادفی XX با تابع احتمال Pr\Pr مشخص شده است. امید ریاضی و واریانس این متغیر تصادفی نیز متناهی و مشخص بوده و به ترتیب با نمادهای E(X)\operatorname{E}(X) و σ2\sigma^2 نشان داده می‌شود. نامساوی مارکف و چبیشف به منظور پیدا کردن کران بالا برای تابع احتمال (تابع بقاء) متغیر تصادفی به کار می‌روند. البته نامساوی کانتلی و باتاچاریا نسبت به دو نامساوی قبلی بهتر عمل کرده و برای کران بالای احتمال، مقادیر تیزتری دارند.

نامساوی کانتلی (Cantelli's Inequality)، حالت عمومی‌تری برای نامساوی چبیشف را ارائه می‌کند. به همین علت برای یادآوری ابتدا نامساوی چبیشف را در نظر می‌گیریم.

نامساوی چبیشف: متغیر تصادفی XX با شرایط بالا را در نظر بگیرید. در این صورت برای هر k>0k>0 خواهیم داشت:

Pr(Xμkσ)1k2 \large \Pr(|X-\mu | \geq k \sigma ) \leq { \frac {1}{k^{2}}}

همانطور که مشاهده می‌کنید این نامساوی برای قدر مطلق فاصله متغیر تصادفی از میانگین و همچنین مقادیر مثبت kk نوشته شده است. ولی در نامساوی کانتلی این محدودیت‌ها برداشته شده است.

این نامساوی به افتخار «فرانچسکو کانتلی» (Francesco Paolo Cantelli) که در سال ۱۹۲۸ این نامساوی را معرفی کرد، نام‌گذاری شده است. او ایده و محاسبات خود را براساس نامساوی چبیشف بنا نهاد.

نامساوی چبیشف بیان می‌کند که احتمال فاصله متغیر تصادفی از میانگین آن (قدر مطلق فاصله) چه رابطه‌ای با مضارب واریانس آن متغیر تصادفی دارد. در حالیکه در نامساوی کانتلی (که گاهی آن را نامساوی چبیشف-کانتلی هم می‌نامند) احتمال بزرگتر یا کوچکتر بودن متغیر تصادفی از میانگینش محاسبه می‌شود.

نامساوی کانتلی و اثبات آن

صورت نامساوی کانتلی به شکل زیر است:

Pr(XE[X]λ){σ2σ2+λ2if λ>0,1σ2σ2+λ2if λ <0 \large {\displaystyle \Pr(X-\mathbb {E} [X]\geq \lambda )\quad {\begin{cases}\leq {\frac {\sigma ^{2}}{\sigma ^{2} + \lambda^{2}}}&{\text{if }}\lambda >0 ,\\[8pt] \geq 1-{\frac {\sigma ^{2}}{\sigma ^{2} + \lambda ^{2}}} & {\text{if }}\lambda  < 0 \end{cases}}}

رابطه ۱

که در آن XX متغیر تصادفی با اندازه احتمال Pr \Pr و امید ریاضی E[X] \operatorname{E} [X] و واریانس σ2 \sigma^2 است.

البته می‌توان با ترکیب دو حالت λ>0\lambda>0 با λ<0\lambda<0 از رابطه ۱ به رابطه زیر رسید.

Pr(XE[X]δ)2σ2σ2+δ2 \large {\displaystyle \Pr( |X-\mathbb {E} [X] | \geq \delta ) \leq { \frac { 2 \sigma ^{2}}{ \sigma^{2} + \delta^{2}}}}

رابطه ۲

نکته: فرض بر این است که واریانس متغیر تصادفی XX از صفر بزرگتر است. یعنی داریم σ20\sigma^2 \neq 0.

اثبات

دو حالت λ>0\lambda>0 و λ<0\lambda<0 را بطور جداگانه در نظر می‌گیریم. در نتیجه اثبات را به دو بخش تقسیم می‌کنیم. ابتدا متغیر تصادفی Y=XE[X]Y=X-\operatorname{E}[X] را در نظر بگیرید. واضح است که در این حالت داریم:

E[Y]=0,    Var(Y)=σ2 \large {\displaystyle \mathbb {E} [Y] = 0}, \; \; {\displaystyle \operatorname {Var} (Y) = \sigma ^{2}}

حالت λ>0\lambda>0

برای هر u0u\geq 0 می‌توان نوشت:

Pr(XE[X]λ)=Pr(Yλ)=Pr(Y+uλ+u)Pr((Y+u)2\large { \displaystyle \Pr(X - \mathbb {E} [X] \geq \lambda ) = \Pr(Y \geq \lambda ) = \Pr(Y + u \geq \lambda + u ) \leq \Pr((Y + u)^{2}}

بوسیله نامساوی مارکف رابطه بالا را به صورت نامساوی می‌نویسیم.

Pr(Y+uλ+u)Pr((Y+u)2(λ+u)2)E[(Y+u)2](λ+u)2=σ2+u2(λ+u)2 \large {\Pr(Y + u \geq \lambda + u) \leq \Pr((Y + u)^{2} \geq (\lambda + u)^{2})\leq {\frac {\mathbb {E} [(Y + u)^{2}]}{(\lambda + u)^{2}}} = {\frac {\sigma ^{2} + u^{2}}{(\lambda + u)^{2}}}}

رابطه ۳

از آنجایی که نامساوی بالا به ازاء همه مقادیر u0u\geq 0 برقرار است، مقداری از uu را پیدا می‌کنیم که طرف راست نامساوی را کمینه کند.

با مشتق‌گیری از طرف راست نامساوی برحسب uu داریم:

(σ2+u2(λ+u)2)u=0 \large \dfrac{ \partial \left( \frac{ \sigma ^{2} + u^{2}}{(\lambda + u)^{2}}\right)}{ \partial u} = 0

پس

2u(λ+u)22(λ+u)(σ2+u2)(λ+u)4=2u(λ+u)2(σ2+u2)(λ+u)3=0 \large \dfrac{ 2 u (\lambda + u)^2 - 2(\lambda + u)( \sigma^2 + u^2)}{(\lambda + u)^4} = \dfrac{2u( \lambda + u) - 2( \sigma^2 + u^2)}{(\lambda + u)^ 3} = 0

که با صفر قرار دادن صورت خواهیم داشت:

u(λ+u)(σ2+u2)=uλ+u2σ2u2=uλσ2=0u=σ2λ \large u ( \lambda + u) - ( \sigma^2 + u^2) = u \lambda + u^2 - \sigma^2 - u^2 = u \lambda - \sigma^2 = 0 \rightarrow u_{ \ast } = \frac{ \sigma^2}{ \lambda}

پس uu_{\ast } مقداری است که رابطه ۱ را کمینه می‌سازد پس uu_{\ast } را در آن قرار می‌دهیم.

Pr(XE[X]λ)σ2+u2(λ+u)2=σ2λ2+σ2 \large {\displaystyle \Pr( X- \mathbb {E} [X] \geq \lambda ) \leq { \frac { \sigma ^{2} + u_{ \ast }^{2}}{( \lambda + u_{ \ast })^{2}}}={ \frac { \sigma ^{2}}{\lambda ^{2}+ \sigma ^{2}}}}

رابطه ۴

به این ترتیب حکم یعنی نامساوی کانتلی ثابت می‌شود.

حالت λ<0\lambda<0

در این حالت α  =    λ>0 \alpha\; =\; - \;\lambda > 0 در نظر گرفته شده و برای u0 u \geq 0 می‌نویسیم:

Pr(XE[X]<λ)=Pr(Y>α)σ2α2+σ2=σ2λ2+σ2 \large {\displaystyle \Pr(X- \mathbb {E} [X] < \lambda )= \Pr(-Y>\alpha ) \leq { \frac { \sigma ^{2}}{ \alpha ^{2}+\sigma ^{2}}}={ \frac { \sigma ^{2}}{ \lambda ^{2}+ \sigma ^{2}}}}

رابطه ۵

مشخص است که با در نظر گرفتن α>0\alpha>0 به کمک نامساوی مربوط به رابطه ۴، نامساوی رابطه ۵ نوشته شده است. با در نظر گرفتن متمم پیشامد XE[X]<λ X-\operatorname{E}[X] < \lambda (طرف چپ نامساوی رابطه ۵) می‌توان نوشت:

Pr(XE[X]λ)λ2λ2+σ2 \large { \displaystyle \Pr (X- \mathbb {E} [X] \geq \lambda ) \geq { \frac { \lambda ^{2}}{ \lambda ^{2}+ \sigma ^{2}}}}

به این ترتیب نامساوی کانتلی برای هر دو حالت، اثبات شد.

کاربرد نامساوی کانتلی

یکی از نکات جالبی که از نامساوی کانتلی می‌توان نتیجه گرفت فاصله بین میانگین و میانه یک توزیع است. نامساوی کانتلی نشان می‌دهد که فاصله بین میانگین و میانه در هر توزیع، هرگز از یک انحراف معیار بزرگتر نخواهد بود.

برای روشن‌تر شدن موضوع متغیر تصادفی XX با میانگین μ\mu و میانه ν\nu و انحراف معیار σ\sigma را در نظر بگیرید. باید نشان دهیم که رابطه زیر برای این سه پارامتر برای هر متغیر تصادفی، برقرار است.

μνσ \large | \mu - \nu | \leq \sigma

برای اثبات این قضیه، فرض می‌کنیم که در نامساوی کانتلی λ=σ \lambda = \sigma باشد.

نکته: اگر σ\sigma نامتناهی باشد که قضیه به راحتی اثبات می‌شود. پس فرض می‌کنیم که انحراف معیار متناهی است.

برای شروع، نامساوی کانتلی را به صورت زیر بازنویسی می‌کنیم.

Pr(Xμσ)12    Pr(Xμ+σ)12 \large \Pr(X- \mu \geq \sigma ) \leq { \frac {1}{2}} \implies \Pr (X \geq \mu + \sigma ) \leq { \frac {1}{2}}

حال، علامت متغیر تصادفی XX را تغییر می‌دهیم. واضح است که میانگین آن هم تغییر علامت خواهد داد، زیرا E[aX]=aE(X) \operatorname{E} [aX]=a \operatorname{E}(X). پس خواهیم داشت:

Pr(Xμσ)12\large \Pr(X \leq \mu - \sigma )\leq { \frac {1}{2}}

از طرفی با توجه به مفهوم میانه متغیر تصادفی، می‌توانیم نامساوی‌های زیر را برای ν \nu بنویسیم:

P(Xν)12 \large {\displaystyle \operatorname {P} (X\leq \nu) \geq { \frac {1}{2}}}

P(Xν)12 \large \operatorname {P} (X \geq \nu) \geq { \frac {1}{2}}

پس نتیجه خواهیم گرفت، تعداد نقاطی که یک انحراف معیار از میانگین فاصله دارند از تعداد نقطه‌هایی که از میانه کوچکترند، کمتر هستند. در نتیجه:

  μ σ ν    νμσν          μνσ \large  | \mu  -\sigma | \leq  \nu \; \rightarrow \; -\nu \leq \mu - \sigma \leq \nu  \; \; \rightarrow  \; \; |\mu - \nu | \leq \sigma

در نوشتارهای قبلی در مورد نامساوی‌های آماری، مقایسه‌ای بین مقدار واقعی احتمال و کران بالای آن با استفاده از زبان برنامه‌نویسی برای توزیع‌های دوجمله‌ای و نرمال ارائه کردیم. این کار را هم برای نامساوی کانتلی در ادامه تکرار خواهیم کرد.

مقایسه نامساوی کانتلی برای توزیع دو جمله‌ای

فرض کنید متغیر تصادفی دو جمله‌ای (Binomial Distribution) با پارامترهای n=15 و p=۰٫5 داریم. به ازاء مقادیر مختلف λ\lambda نمودار مربوط به احتمال و کران‌های بالای نامساوی‌های کانتلی را رسم می‌کنیم. کد زیر به این منظور نوشته شده است.

1n=15
2lambda =seq(0,n,1)
3p=0.5
4mu=n*p
5sigma2=mu*(1-p)
6px=pbinom(lambda+mu,n,p,lower.tail=TRUE)
7cantellibound=sigma2/(sigma2+lambda^2)
8
9plot(lambda,px,xlab="lambda",ylab="Pr",ylim=c(0,15),col="red",lty=1,type="l")
10lines(lambda,cantellibound,col="blue",lty=2)
11legend(8,15,legend=c("P(X-mu>lambda)","Cantelli"),col=c("red","blue"),lty=1:2,cex=1)

حاصل اجرای این برنامه، نموداری است که در تصویر زیر دیده می‌شود. همانطور که مشخص است نامساوی کانتلی بسیار به مقدار واقعی احتمال نزدیک است.

cantelli inequality plot for binomial distribution

مقایسه نامساوی کانتلی برای توزیع نرمال

متغیر تصادفی با توزیع نرمال با پارامترهای میانگین μ=0\mu = 0 و واریانس sσ2=1s\sigma^2=1 را در نظر بگیرید. به ازاء مقادیر مختلف λ\lambda به کمک برنامه و کدهای زیر، نمودار مربوط به احتمال و کران‌های بالای نامساوی‌های کانتلی را رسم می‌کنیم.

1mu=0
2sigma2 =1
3lambda=seq(0,10,0.01)
4px=1-pnorm(lambda*sigma+mu,mu,sigma)
5cantellibound=sigma2/(sigma2+lambda^2)
6
7plot(lambda,px,xlab="lambda",ylab="P(X-mu>lambda)",ylim=c(0,10),col="red",lty=1,type="l")
8lines(lambda,cantellibound,col="blue",lty=2)
9legend(6,10,legend=c("P(X-mu>lambda)","Cantelli"),col=c("red","blue"),lty=1:2,cex=1)

نتیجه اجرای این برنامه توسط یک نمودار مطابق با تصویر زیر دیده می‌شود. باز هم مشخص است که طرف راست نامساوی کانتلی به مقدار واقعی احتمال بسیار نزدیک است.

نامساوی باتاچاریا (Bhattacharyya Inequality)

یک نامساوی دیگر که به صورت تعمیم یافته نامساوی کانتلی است، نامساوی باتاچاریا (Bhattacharyya Inequality) نام دارد که در سال ۱۹۸۷ طی مقاله‌ای برای تعمیم نامساوی چبیشف و کانتلی توسط دانشمند هندی «برید باران باتاچاریا» (Barid Baran Bhattacharya) معرفی شد.

در این نامساوی از گشتاورهای مرتبه سوم و چهارم متغیر تصادفی XX استفاده می‌شود.

فرض کنید که E[X]=0\text{E}[X]=0 و واریانس σ2\sigma^2 هم مثبت باشد. در این صورت اگر γ=E[X3]σ3 \gamma = \frac{\text{E}[X^3]} { \sigma^3} و κ=E[X4]σ4 \kappa = \frac{\text{E}[X^4]}{ \sigma^4} باشد، آنگاه برای تابع احتمال متغیر تصادفی XX خواهیم داشت:

P(X>kσ)κγ21(κγ21)(1+k2)+(k2kγ1) \large P(X>k \sigma ) \leq { \frac { \kappa - \gamma ^{2}-1}{( \kappa - \gamma ^{2}-1)(1+k^{2})+(k^{2}-k \gamma -1)}}

به شرطی که κ2κγ1>0\kappa^2-\kappa\gamma-1>0 باشد. البته اگر مقدار κ\kappa به حد کافی بزرگ باشد، رابطه قبل محقق خواهد شد.

نکته: گشتاور سوم و چهارم در اینجا به مانند میزان چولگی (Skewness) و کشیدگی (Kurtosis) توزیع متغیر تصادفی XX عمل می‌کنند. در نتیجه زمانی نامساوی باتاچاریا موثر است که میزان کشیدگی متغیر تصادفی زیاد باشد.

خلاصه و جمع‌بندی

در این نوشتار به بررسی و مقایسه نامساوی‌ها کانتلی و باتاچاریا پرداختیم. همچنین اثبات نامساوی کانتلی را در دو حالت مرور کردیم. هر چند این نامساوی‌ها نسبت به نامساوی چبیشف و مارکف، تیز تر هستند ولی به علت سهولت، نامساوی مارکف و چبیشف بیشتر به کار می‌روند.

در صورت علاقه‌مندی به مباحث مرتبط در زمینه ریاضی و آمار، آموزش‌های زیر نیز به شما پیشنهاد می‌شوند:

^^

بر اساس رای ۱ نفر
آیا این مطلب برای شما مفید بود؟
اگر بازخوردی درباره این مطلب دارید یا پرسشی دارید که بدون پاسخ مانده است، آن را از طریق بخش نظرات مطرح کنید.
منابع:
WikipediaWikipediaمجله فرادرس
نظر شما چیست؟

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *