استنباط و آمار بیزی — به زبان ساده

۴۳۸۷ بازدید
آخرین به‌روزرسانی: ۸ خرداد ۱۴۰۲
زمان مطالعه: ۶ دقیقه
دانلود PDF مقاله
استنباط و آمار بیزی — به زبان ساده

معمولا در بین آماردانان دو سبک یا رویکرد برای «استنباط آماری» (Statistical Inference) وجود دارد که البته هر دو روش نیز امکان تجزیه و تحلیل داده‌ها را فراهم می‌آورد. در گروه اول که به گروه «فراوانی‌گراها» (Frequentists) مشهورند، پارامتر توزیع جامعه را مجهول ولی ثابت در نظر می‌گیرند در حالیکه در «رویکرد بیزی» (Bayesian Approach)، پارامتر نیز یک متغیر تصادفی در نظر گرفته شده که دارای توزیع خاص خود در فضای پارامتری است. در نتیجه استنباط آماری به دو دسته تقسیم می‌شود. دسته اول که با توجه به نظر فراوانی‌گراها پارامتر را مجهول ولی ثابت در نظر می‌گیرد. در نتیجه مفاهیمی مانند «تابع درستنمایی» (Likelihood Function)، «برآوردگر حداکثر درستنمایی» (Maximum Likelihood Estimator - MLE) و «آزمون نسبت درستنمایی» (Likelihood Ratio Test) که توسط دانشمند بزرگ آمار «رونالد فیشر» معرفی شد، مبنای استنباط آماری قرار می‌گیرد؛ از طرفی در دسته دوم که به دنبال استنباط و آمار بیزی هستند، مفاهیم توزیع پسین و پیشین با تابع درستنمایی ترکیب شده و برآوردگرها براساس «تابع زیان» (Loss Function) و محاسبه «تابع ریسک» (Risk Function) تعیین می‌شوند.

997696

در این نوشتار به معرفی استنباط و آمار بیزی خواهیم پرداخت که البته بصورت مقدماتی بوده ولی می‌توانید مباحث کامل و مفصل در این مورد را در ویدئو آموزش مقدماتی آمار بیزی مشاهده کنید. مباحث استنباط بیزی بیشتر با اصل یا قضیه بیز در ارتباط است. مطالب مربوط به این موضوع را در نوشتارهای قضیه بیز در احتمال شرطی و کاربردهای آن، احتمال شرطی و قضیه بیز در علم داده — راهنمای کاربردی و احتمال پسین (Posterior Probability) و احتمال پیشین (Prior Probability) — به زبان ساده می‌توانید مطالعه کنید.

استنباط و آمار بیزی (Bayesian Inference)

اگر در مراحل انجام استنباط آماری، به اطلاعاتی که از قبل در مورد پارامتر مجهول جامعه داریم، توجه کرده و استنباط را، هم براساس نمونه تصادفی و هم اطلاعات پیشین پی‌ریزی کنیم، استنباط بیزی انجام داده‌ایم. استنباط و آمار بیزی به کمک «قضیه بیز» (Bayesian Theorem) که روشی برای محاسبه احتمال شرطی است، عمل می‌کند.

به این ترتیب در استنباط بیزی، احتمال برای رخداد یک فرضیه را با توجه به شواهد و اطلاعات قبلی محاسبه کرده و سپس تصمیم‌سازی صورت می‌گیرد. امروزه از استنباط بیزی و قضیه بیز در بسیاری از رشته‌ها مانند علوم پزشکی و مهندسی استفاده می‌شود. برای مثال روش یا الگوریتم «دسته‌بند بیز ساده» (Naive Bayes Classifier) براساس قضیه بیز پایه‌ریزی شده است.

Bayesian inference decision making

استفاده از اطلاعات پیشین در استنباط آماری

همانطور که در قسمت قبل خواندید، مبنای استنباط و آمار بیزی، براساس «اطلاعات پیشین» (Prior Information) است که از پارامتر جامعه در اختیار داریم. به مجموعه این اطلاعات درباره پارامتر مجهول جامعه، «توزیع پیشین» (Prior Distribution) گفته می‌شود. در چنین مواقعی مجموعه مقادیری که پارامتر مجهول می‌تواند داشته باشد، فضای پارامتری می‌گویند و با نماد Θ\Theta نشان می‌دهند. مشخص است که به این ترتیب پارامتر مجهول یکی از مقادیر Θ\Theta خواهد بود.

θΘ\large \theta \in \Theta

از طرفی تصمیم‌هایی که قرار است به واسطه استنباط آماری یا تحلیل بیزی به آن دست بزنیم، «فضای عمل» (Action Space) نامیده می‌شود که آن را با AA نشان می‌دهند. برای اتخاذ تصمیم مناسب و ایجاد یک رابطه ترتیبی بین تصمیم‌ها یا اعضای فضای عمل، برای هر عمل یک «مقدار زیان» (Loss Measure) در نظر می‌گیرند. به این ترتیب براساس میزان زیان، می‌توان عمل‌ها را به ترتیب قرار داد و آن‌ها را رتبه‌بندی کرد. به منظور درک بهتر این مفهوم‌ها و نحوه استفاده از اطلاعات پیشین در استنباط آماری به یک مثال می‌پردازیم.

مثال

فرض کنید سه کار یا عمل از مجموعه عمل‌های AA به صورت زیر موجود است.

A={a1,a2,a3}\large A=\{a_1,a_2,a_3\}

فضای پارامتر یا Θ\Theta نیز دارای دو عضو θ1\theta_1 و θ2\theta_2‌ است. میزان زیان برای هر یک از عمل‌ها با توجه به مقدار مختلف پارامتر، طبق جدول زیر دیده می‌شود.

Θ\ThetaAA
a1a_1a2a_2a3a_3
θ1\theta_1362
θ2\theta_2325

همانطور که در جدول مشخص است براساس حداقل مقدار تابع زیان نمی‌توان به عملی رسید که کمترین زیان را دارد. به نظر می‌رسد که عمل a1a_1 زمانی که پارامتر برابر با θ1\theta_1 باشد بهتر ولی در زمانی که در وضعیت θ2\theta_2 باشیم، عمل a2a_2 بهتر باشد. در نتیجه انتخاب عمل وابسته به مقدار θ\theta است و نمی‌توانیم تصمیم یا عملی را انتخاب کنیم که در همه حالات فضای پارامتری بهترین باشد.

در اینجا یکی از روش‌های انتخاب مناسب‌ترین (و البته نه بهترین) تصمیم می‌تواند تکیه به اطلاعات پیشین در میزان رخداد هر یک از مقدارهای مختلف فضای پارامتر و استفاده از استنباط و آمار بیزی باشد. روش دیگر انتخاب عملی است که از بین بیشترین میزان زیان‌ها، کمترین باشد. به این قاعده تصمیم‌گیری، قاعده کمینه‌بیشینه (MiniMax) گفته می‌شود. بنابراین طبق مثال ما به نظر می‌رسد که عمل a1a_1 مناسب‌ترین عمل با توجه به پارامترها باشد. به این روش تحلیل گاهی، «استنباط بدون داده» می‌گویند.

decision making

اصطلاحات اولیه در آمار و استنباط بیز

همانطور که در قبل اشاره شد، در استنباط و آمار بیزی برعکس استنباط کلاسیک (برمبنای فراوانی)، فضای پارامتر از متغیرهای تصادفی تشکیل شده است که خود دارای توزیع احتمالی هستند. در این میان علامت‌ها و نمادهایی به کار گرفته می‌شوند که در زیر به صورت فهرست‌وار به آن‌ها اشاره می‌کنیم.

  • نقطه یا مشاهده xx که می‌تواند در حالت چند بُعدی به صورت یک بردار در نظر گرفته شود.
  • پارامتر θ\theta از توزیع آماری مورد نظر که یکی از نقاط فضای پارامتری یعنی Θ\Theta است. بر این اساس مشخص است که Xp(xθ)X\sim p(x|\theta) است. ممکن است پارامتر توزیع به صورت برداری از پارامترها باشد. برای مثال در توزیع نرمال ممکن است میانگین و واریانس توزیع به عنوان بردار پارامتر توزیع در نظر گرفته شوند، یعنی θ=(μ,σ2)\theta=(\mu,\sigma^2) باشد.
  • «اَبَر پارامتر» (Hyperparameter) که پارامتر توزیع پارامتر مورد نظر است. در این حالت داریم θq(θα)\theta \sim q(\theta|\alpha). باز هم ممکن است که ابر پارامتر به صورت برداری باشد.
  • مجموعه نمونه تصادفی XX که مقدارهای آن شامل nn مشاهده از x1,x2,,xnx_1,x_2,\cdots, x_n است.

در ادامه به بررسی بعضی از اصطلاحات در زمینه استنباط و آمار بیزی خواهیم پرداخت.

توزیع پیشین

«توزیع پیشین» (Prior Distribution) در حقیقت همان توزیع پارامتر (پارامترهای) قبل از مشاهده نمونه تصادفی است. به این ترتیب می‌توان آن را به صورت q(θα)q(\theta|\alpha)‌ در نظر گرفت. انتخاب توزیع مناسب برای پارامتر توزیع، بستگی به نظر محقق و تجربه او و البته فضای ‌پارامتر دارد.

مثال

فرض کنید که لازم است برای پارامتر واریانس توزیع نرمال σ2\sigma^2، برآوردی توسط استنباط بیزی تعیین شود، توزیع پیشین آن باید به شکلی باشد که تکیه‌گاه متغیر تصادفی توزیع پیشین، شامل مقدارهای منفی نباشد زیرا واریانس هرگز منفی نیست. بنابراین بهتر است مثلا از «توزیع کای ۲» (chi Square Distribution) یا «نرمال بریده شده» (Truncated Normal Distribution) استفاده کرد. حتی استفاده از یک توزیع یکنواخت (با دامنه مثبت) نیز می‌تواند مفید باشد.

مثال

برای یک توزیع دو جمله‌ای با پارامتر معلوم nn و مجهول pp می‌خواهیم استنباط بیزی انجام دهیم. با توجه به فضای پارامتر pp که محدوده تغییرات آن در بازه (0,1)(0,1)‌ است، انتخاب «توزیع بتا» (Beta Distribution) به عنوان توزیع پیشین مناسب به نظر می‌رسد.

نکته: اگر نتوان برای توزیع پیشین یک پارامتر، تابع توزیع خاصی را انتخاب کرد، بهتر است از توزیع بدون اطلاع یا توزیع «پیشین جفریز» (Jeffreys' Prior) که برحسب «اطلاع فیشر» (Fisher Information) محاسبه می‌شود، استفاده کرد.

توزیع نمونه‌ای و تابع درستنمایی

«توزیع نمونه‌ای» (Sampling Distribution) مربوط به توزیع نمونه تصادفی است که البته با شرط پارامتر θ\theta نوشته می‌شود. به این ترتیب آن را به صورت p(Xθ)p(X|\theta) نشان می‌دهیم تا نقش پارامتر مجهول را در محاسبه این تابع نشان دهیم. مشخص است که p(Xθ)p(X\theta)‌ تابعی از پارامتر θ\theta خواهد بود.

از آنجایی که این تابع چگالی برحسب متغیر θ\theta دیده می‌شود،‌ می‌توان آن را همان تابع درستنمایی برای نمونه تصادفی در نظر گرفت. در این صورت می‌توان رابطه زیر را برقرار دانست.

L(θX)=p(Xθ) \large \operatorname {L} (\theta \mid \mathbf {X} )=p(\mathbf {X} \mid \theta )

تابع درستنمایی حاشیه‌ای

اگر نمونه تصادفی را به عنوان شواهد توزیع در نظر بگیریم می‌توان تابع توزیع آن را به عنوان توزیع حاشیه‌ای نسبت به پارامتر θ\theta محاسبه کرد. در این حالت فرض کنید که XX‌ متغیر تصادفی مربوط به نمونه تصادفی از توزیع مورد نظر باشد. در این صورت درستنمایی با توزیع حاشیه‌ای برای XX به شکل زیر نوشته می‌شود.

p(Xα)=p(Xθ)q(θα)d ⁣θ \large{\displaystyle p(\mathbf {X} \mid \alpha )=\int p(\mathbf {X} \mid \theta )q(\theta \mid \alpha )\operatorname {d} \!\theta }

به نظر می‌رسد که این توزیع به صورت امید ریاضی p(Xθ)p(\mathbf {X} \mid \theta ) محاسبه شده است. البته توجه داشته باشید که در این محاسبه اَبَر پارامتر α\alpha نیز حضور دارد.

توزیع پسین

«توزیع پسین» (Posterior Distribution)، توزیع پارامتر بعد از مشاهده نمونه تصادفی است. به این صورت به نظر می‌رسد که با توجه به شواهدی که از مشاهدات جمع‌آوری شده است، توزیع پیشین اصلاح شده و توزیع پسین بوجود خواهد آمد. رابطه بین توزیع پیشین و پسین به واسطه تابع درستنمایی و تابع درستنمایی حاشیه‌ای حاصل می‌شود. طبق قضیه بیز این ارتباط به شکل زیر نوشته می‌شود.

p(θX,α)=p(θ,X,α)p(X,α)=p(Xθ,α)p(θ,α)p(Xα)p(α)=p(Xθ,α)p(θα)p(Xα)p(Xθ,α)p(θα)\large \begin{align} p(\theta \mid \mathbf {X} ,\alpha ) = \large \frac {p(\theta ,\mathbf {X} ,\alpha )}{p(\mathbf {X} ,\alpha )}=&\frac {p(\mathbf {X} \mid \theta ,\alpha )p(\theta ,\alpha )}{p(\mathbf {X} \mid \alpha )p(\alpha )}=\\ \large \frac {p(\mathbf {X} \mid \theta ,\alpha )p(\theta \mid \alpha )}{p(\mathbf {X} \mid \alpha )}& \propto p(\mathbf {X} \mid \theta ,\alpha )p(\theta \mid \alpha )\end{align}

استنباط بیزی - Bayesian Inference

نکته: در انتهای رابطه مشخص است که از مخرج صرف نظر کرده‌ایم، زیرا براساس مشاهده ثابت، مقدار آن تغییر نکرده و برای برآورد پارامتر و بیشینه‌سازی تابع پسین کافی است که صورت را حداکثر کنیم. از طرفی تابع احتمال برای اَبَر پارامتر نیز از صورت و مخرج ساده شده است و تاثیری در نتیجه نهایی ندارد.

خلاصه و جمع‌‌بندی

در بسیاری از شاخه‌های مهندسی و پزشکی، از استنباط و آمار بیزی استفاده می‌شود. برای مثال الگوریتم‌های دسته‌بندی در «یادگیری ماشین نظارت شده» (Supervised Machine Learning) در هوش مصنوعی یا تخمین و محاسبه احتمال «منفی کاذب» (False Negative) در نتایج آزمایش‌های پزشکی از کاربردهای آمار بیز و قضیه بیز محسوب می‌شوند. هر چند حوزه کاری در استنباط بیزی بسیار گسترده است، سعی کردیم در این متن کوتاه،‌ خوانندگان را با مفاهیم اولیه و البته ضرورت استفاده از استنباط و آمار بیزی آشنا کنیم. برای آشنایی بیشتر و عمیق‌تر در این حوزه بهتر است به آموزش ویدئویی فرادرس با نام «آموزش مقدماتی آمار بیزی» مراجعه کنید.

اگر مطلب بالا برای شما مفید بوده، آموزش‌های زیر نیز به شما پیشنهاد می‌شوند:

^^

بر اساس رای ۲۱ نفر
آیا این مطلب برای شما مفید بود؟
اگر بازخوردی درباره این مطلب دارید یا پرسشی دارید که بدون پاسخ مانده است، آن را از طریق بخش نظرات مطرح کنید.
۱ دیدگاه برای «استنباط و آمار بیزی — به زبان ساده»

سلام، متن خلاصه زیبایی بود ومن بعداز 44 سال فارغ التحصیل شدن در رشته آمارشناسی آن را فهمیده .لذت بسیار بردم، حال آنکه کمتر در رشته خود فعالیت داشته و بیشتر شغلم در زمینه مسئولیت شبکه های رایانه ای بوده است
با آرزوی بهروزی جهت همه پویندگان دانش

نظر شما چیست؟

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *