برق، مهندسی ۲۳۵۸ بازدید

در مطالب قبلی از مجله فرادرس به روش‌های مختلف طراحی کنترل‌کننده مانند جبران ساز پیش فاز و پس فاز برای سیستم‌های دینامیکی پرداختیم. متداول‌ترین روش‌های مورد استفاده مانند «روش جایابی قطب» (Pole Placement) در طراحی کنترل کننده و رویت‌گر یا «رگولاتورهای درجه دو خطی» (Linear Quadratic Regulators) همگی به اطلاعاتی راجع به دینامیک سیستم نیاز دارند. با این وجود، امکان ندارد که بتوان دینامیک‌های سیستم را به صورت بسیار دقیق تخمین زد. به عبارت دیگر همواره مقداری عدم قطعیت» (Uncertainity) در سیستم کنترل وجود خواهد داشت. در این مطلب قصد داریم به بررسی عدم قطعیت در سیستم کنترل بپردازیم و سپس از قاعده بیز و فیلتر کالمن برای کنترل و تخمین حالت‌های یک سیستم با عدم قطعیت استفاده کنیم.

عدم قطعیت در سیستم کنترل

همان طور که گفتیم، امکان تخمین کاملا دقیق حالت‌های یک سیستم دینامیکی وجود ندارد. به عنوان مثال، هنگام مدلسازی یک سیستم واقعی مانند ربات، تعداد بسیار زیادی فرض آسان کننده در نظر گرفته می‌شود. اما در واقعیت اکثر این فرض‌ها الزاما صحیح نیستند. جرم «رابط» (Link) تکی، موقعیت مرکز جرم، طول رابط و اینرسی لحظه‌ای همگی توسط فرض‌های ایده آل تخمین زده می‌شوند و در معرض خطای اندازه‌گیری قرار دارند.

یک منبع دیگر برای به وجود آمدن عدم قطعیت در سیستم، خطای مدلسازی است که می‌تواند از پدیده‌های فیزیکی مانند اصطکاک ناشی شود و ممکن است به صورت کامل از آن صرف نظر شده باشد. وجود عدم قطعیت در سیستم کنترل می‌تواند منجر به این امر شود که محاسبات کنترل کننده و تخمین حالت‌ها به صورت غلط انجام گیرد. در نتیجه وجود عدم قطعیت روی عملکرد مطلوب سیستم کنترلی تاثیر منفی می‌گذارد.

انواع عدم قطعیت

در ادامه می‌خواهیم انواع مختلف عدم قطعیت در سیستم کنترل را معرفی کنیم. یک سیستم را در نظر بگیرید که به صورت زیر مدلسازی شده است:

$$ \dot { X } = A X + B u $$

بردار خروجی‌ها در این سیستم بر اساس معادله زیر به دست می‌آید:

$$ Y = C X $$

اما به این نکته توجه کنید که نمایش فوق، مدلی است که ما در حالت ایده‌آل انتظار داریم سیستم بر اساس آن رفتار کند. در حالی که سیستم واقعی بسته به نوع عدم قطعیت آن، ممکن است به طریق متفاوتی نسبت به مدل فوق عمل کند. در حالت کلی می‌توانیم عدم قطعیت را به چهار گروه اصلی تقسیم بندی کنیم:

  • عدم قطعیت پارامتری (Parametric Uncertainity): این نوع از عدم قطعیت به وجود عدم قطعیت در پارامترهایی اشاره دارد که توصیف کننده مدل یک سیستم هستند. به عنوان مثال، در رابطه $$ F = M a $$، مدل توسط پارامتر M توصیف می‌شود. در حالتی که در مقدار یک پارامتر خطایی وجود داشته باشد، می‌توان مدل واقعی سیستم و خروجی آن را به صورت زیر نوشت:

$$ \dot { X } = ( A + \Delta A) X + ( B + \Delta B) u $$

$$ y = ( C+ \Delta C ) X $$

  • عدم قطعیت محرک (Actuator Uncertainity): عدم قطعیت در محرک یک سیستم ناشی از این واقعیت است که فرمان کنترلی صادر شده از کنترل کننده ممکن است به صورت کامل و دقیق اجرا نشود. این نوع از عدم قطعیت را می‌توان به صورت زیر در مدل یک سیستم به حساب آورد:

$$ \dot { X } = A X + B ( u + \delta u) $$

$$ y = C X $$

  • عدم قطعیت مدل (Modeling Uncertainity): عدم قطعیت مدل به خطایی اشاره دارد که به دلیل خود مدل به سیستم وارد می‌شود. به عنوان مثال می‌توان کفت که خطاهایی مانند پدیده اصطکاک، خطای ناشی از «خطی‌سازی» (Linearization) و … در این گروه از انواع عدم قطعیت جای می‌گیرند. مدل یک سیستم که دارای عدم قطعیت نوع مدل است را می‌توان به صورت زیر نمایش داد:

$$ \dot { X } = A X + B u + f ( X , u ) $$

$$ y = C X + g ( X , u ) $$

  • عدم قطعیت اندازه‌گیری (Measurement Uncertainity): این نوع از عدم قطعیت به وجود خطا در اندازه‌گیری اشاره دارد که به دلیل خطای سنسور و ادوات اندازه‌گیری به سیستم وارد می‌شوند. عدم قطعیت اندازه‌گیری را می‌توان به صورت زیر در مدل سیستم نمایش داد:

$$ \dot { X } = A X + B u $$

$$ y = C X + \nu $$

حال در ادامه مطلب قصد داریم به بررسی دو روش کلی برای کنترل یک سیستم با وجود عدم قطعیت بپردازیم. در تکنیک اول فرض می‌شود که «اغتشاش» (Disturbance) دارای طبیعت گاوسی باشد، در حالی که روش دوم، مبتنی بر کمینه کردن پاسخ سیستم به ورود یک اغتشاش خارجی است. بر همین اساس، تکنیک‌ها را می‌توان به دو دسته گسترده زیر طبقه بندی کرد.

مدلسازی عدم قطعیت به عنوان یک فرایند گاوسی

«فیلتر کالمن» (Kalman Filter) رویت‌گری است که بسیار شبیه به رگولاتور درجه دو خطی عمل می‌کند. در واقع فیلتر کالمن را با نام «برآوردگر درجه دو خطی» (Linear Quadratic Estimators) نیز می‌شناسند. فیلتر کالمن برای عملکرد خود به این فرض احتیاج ندارد که عدم قطعیت حتما باید یک فرایند گاوسی باشد. با این حال، اگر عدم قطعیت دارای طبیعت گاوسی باشد، آن‌گاه فیلتر کالمن به یک «فیلتر بهینه» (Optimal Filter) تبدیل می‌شود. تصویری از یک فرایند گاوسی در زیر نشان داده شده است.

فرایند گاوسی
فرایند گاوسی

روش دیگر مربوط به این طبقه، «کنترل گاوسی درجه دو خطی» (Linear Quadratic Gaussian Control) یا LQG است. کنترل LQG ترکیبی از برآوردگر درجه دو خطی (فیلتر کالمن) و رگولاتور درجه دو خطی به حساب می‌آید.

انتخاب کنترل کننده برای کمینه کردن حساسیت به عدم قطعیت

یکی از روش‌های کنترلی که در گروه تکنیک‌های کمینه کردن حساسیت به خطا قرار می‌گیرد، «کنترل H2» است. در کنترل H2، نرم H2 مربوط به سیستم (مجذور میانگین مربعات پاسخ فرکانسی) به ازای اغتشاش داده شده کمینه می‌شود. به عبارت دیگر، کنترل کننده به نحوی طراحی می‌شود که حساسیت سیستم که به صورت H2 اندازه‌گیری می‌شود، کمینه شود.

روش کنترل ∞ – H نیز یکی دیگر از روش‌های کنترلی این گروه است. نرم ∞ – H به بزرگ‌ترین مقدار دامنه مربوط به پاسخ ناشی از اعمال اغتشاش اشاره دارد. در کنترل ∞ – H، کنترل کننده به نحوی انتخاب می‌شود که نرم ∞ – H پاسخ کمینه شود.

فیلتر کالمن

در ادامه ابتدا به بررسی فیلتر کالمن می‌پردازیم و ایده اصلی مربوط به کنترل بهینه سیستم در صورت وجود عدم قطعیت را از آن استخراج می‌کنیم. اصول کاری یک فیلتر کالمن به این صورت است که اطلاعات مربوط به دینامیک سیستم را با اندازه‌گیری‌های قبلی ترکیب می‌کند و به این ترتیب حالت کنونی سیستم را تقریب می‌زند. عملکرد یک فیلتر کالمن بسیار بهتر از شرایطی است که فقط از اندازه‌گیری‌های قبلی و یا فقط از حالت‌های کنونی استفاده شود.

این مفاهیم را می‌توان از طریق ارائه یک مثال به صورت واضح‌تر بیان کرد. فرض کنید می‌خواهیم موقعیت یک خودرو را تخمین بزنیم که با سرعتی ثابت در راستای یک خط راست در حال حرکت است. ممکن است در جهت‌دهی فرمان، اختلاف بین سرعت واقعی و سرعت مطلوب خودرو و نیز در اندازه‌گیری‌های به دست آمده از خودرو مقداری خطا وجود داشته باشد. این خطاها در به دست آوردن موقعیت خودرو ابهاماتی به وجود می‌آورند. اگر فرض کنیم که موقعیت و سرعت خودرو یک فرایند گاوسی را دنبال می‌کنند، آن‌گاه می‌توانیم ناحیه‌ای را به دست آوریم که انتظار داریم خودرو در آن قرار داشته باشد. این مفهوم در تصویر متحرک زیر نشان داده شده است.

فیلتر کالمن
فیلتر کالمن

در انیمیشن فوق، تخمین محل قرار گرفتتن خودرو توسط یک ابر قرمز رنگ نشان داده شده است. در ابتدا موقعیت و سرعت نسبی خودرو را می‌دانیم. هنگامی که خودرو شروع به حرکت می‌کند، به دلیل تعقیب نادقیق سرعت، خطای زاویه فرمان، خطای محرک و … مقداری خطا به مدل سیستم وارد می‌شود. تمام این موارد منجره به کاهش دقت و اعتماد ما در یافتن موقعیت دقیق و مطمئن خودرو می‌شوند. بنابراین، هنگامی که خودرو حرکت می‌کند، ناحیه تخمینی برای موقعیت خودرو که می‌تواند در آن جا قرار داشته باشد، افزایش می‌یابد.

با این حال، زمانی که اندازه‌گیری موقعیت را به دست آوریم، می‌توانیم موقعیت خودرو را آپدیت کنیم. البته به این نکته باید توجه کرد که اندازه‌گیری خود دقیق نیست و همواره مقداری عدم قطعیت از نوع اندازه‌گیری در خود دارد. بنابراین موقعیت خودرو را فقط در یک ناحیه می‌توان تخمین زد.

احتمالات

فیلترهای کالمن مبتنی بر ایده استنتاج بیز هستند. استنتاج بیز یک روش آماری است که در آن تا زمانی که اطلاعات و شواهد در دست باشند، احتمال درست بودن یک فرضیه به صورت پیوسته آپدیت می‌شود. استنتاج بیز مبتنی بر تئوری بیز است که در آن احتمال یک پدیده بر اساس ویژگی‌های مرتبط به آن محاسبه می‌شود. به عنوان مثال، اگر بیماری فراموشی، با سن ارتباط داشته باشد، آن‌گاه با استفاده از تئوری بیز، می‌توان از سن فرد برای پیش‌بینی این احتمال استفاده کرد که آیا او به بیماری فراموشی دچار خواهد شد یا خیر.

به عبارت دیگر، تئوری بیز پیش‌بینی سن را به احتمال درست بودن فرضیه (فراموشی) ربط می‌دهد. قانون بیز را می‌توان به صورت رابطه زیر بیان کرد:

$$ P ( A | B ) = \frac { P ( B | A ) P ( A ) } { P ( B ) } $$

توجه کنید که پدیده A به شرط B و یا پدیده B به شرط A فقط زمانی اتفاق می‌افتند که هم A و هم B رخ بدهند. بنابراین تئوری بیز را گاهی می‌توان به صورت زیر نیز نوشت:

$$ P ( A | B ) P ( B ) = P ( B | A ) P ( A ) = P ( A \cap B) $$

یک راه دیگر، نوشتن رابطه بیز به صورت زیر است:

$$ P ( A | B) = \frac { P ( B | A ) P ( A ) } { P ( B | A ) P ( A ) + P ( B | \neg A ) P ( \neg A ) } $$

در رابطه فوق، $$ \neg A $$ برای نشان دادن قرینه یا Not پدیده A مورد استفاده قرار گرفته است.

اگر پدیده A بتواند چند مقدار را به خود اختصاص دهد، مثلا $$ A _ i $$ به ازای $$ i : 1 \rightarrow N $$، آن‌گاه داریم:

$$ P ( A | B ) = \frac { P ( B | A ) P ( A ) } { \sum _ { i = 1 } ^ N P ( B | A _ i ) P ( A _ i) } , $$

در ادامه از طریق دو مثال قضیه بیز را بیشتر توضیح خواهیم داد.

مثال ۱: تشخیص سرطان

فرض کنید یک آزمایش برای تست بیماری سرطان وجود دارد که ۹۹ درصد دقت دارد. به عبارت دیگر، اگر یک فرد بیماری سرطان داشته باشد، آن‌گاه نتیجه تست با احتمال ۹۹ درصد مثبت خواهد بود. این مقدار را تحت عنوان «نرخ درست – مثبت» (True-Positive Rate) یا «حساسیت» (Sensitivity) نیز می‌شناسند. از طرف دیگر، اگر فردی سالم باشد و سرطان نداشته باشد، نتیجه تست به احتمال ۹۸ درصد منفی خواهد بود. به این مقدار نیز «نرخ صحیح – منفی» (True Negative Rate) یا «تشخیص پذیری» (Specificity) می‌گویند. با دانستن این که بیماری سرطان یک بیماری نادر است و فقط ۱٫۵ درصد از جمعیت جهان به آن مبتلا می‌شوند، اگر نتیجه تست برای یک نفر مثبت باشد، آن‌گاه احتمال اینکه آن فرد واقعا به این بیماری مبتلا باشد چقدر است؟

حل:

در این سوال می‌خواهیم احتمال $$ P ( C | + ) $$ را به دست آوریم که C نشان دهنده سرطان، NC نشان دهنده عدم سرطان، «-»نشان دهنده نتیجه منفی تست و «+» نشان دهنده نتیجه مثبت تست است. حال می‌توان اطلاعات داده شده درباره بیماری و نیز آزمایش را به صورت زیر نوشت:

  • حساسیت = ۹۹ درصد، بنابراین $$ P ( + | C ) = 0 . 99 $$ است.
  •  تشخیص پذیری = ۹۸ درصد، بنابراین $$ P ( – | N C ) = 0.98 $$ است.
  • احتمال سرطان = 0.015 درصد، بنابراین $$ P ( C ) = 0 . 015 $$ است.

با استفاده از قاعده بیز، رابطه زیر صادق است:

$$ P ( C | + ) = \frac { P ( + | C ) P ( C ) } { P ( + | C) P ( C ) + P ( + | N C ) P ( N C ) } $$

در رابطه فوق، دو مقدار $$ P ( +| N C ) $$ و $$ P ( N C ) $$ را در اختیار نداریم. برای محاسبه این دو مقدار به صورت زیر عمل می‌کنیم:

$$ P ( +| N C ) = 1 – P ( – | N C) = 1 – 0 . 98 = 0 . 0 2 $$

$$ P ( N C ) = 1 – P ( C ) = 1 – 0 . 0 1 5 = 0 . 9 8 5 $$

حال می‌توانیم احتمال درست بودن یک نتیجه تست مثبت را به صورت زیر به دست آوریم:

$$ P ( C | + ) = \frac { . 9 9 \times 0 . 0 1 5 } { . 9 9 \times 0 . 0 1 5 + . 0 2 \times 0 . 9 8 5 } = 0 . 4 3 $$

بنابراین، با وجود داشتن حساسیت ۹۹ درصد و تشخیص پذیری ۹۸ درصد در آزمایش، اما به دلیل شیوع بسیار پایین این بیماری، یک پاسخ مثبت آزمایش فقط ۴۳ درصد احتمال درست بودن دارد.

مثال ۲: تخمین بیز

قاعده بیز را می‌توان به یک توزیع احتمالاتی نیز اعمال کرد. توزیع احتمالاتی زمانی مورد استفاده قرار می‌گیرد که یک پدیده نتواند به صورت یک کمیت منفرد یا یکتا (Singular) تقریب زده شود و چندین وضعیت محتمل وجود داشته باشد که بتواند در آن‌ها قرار بگیرد.

سناریو ۱

تصور کنید که یک ربات مانند تصویر زیر در راستای یک جاده حرکت می‌کند.

موقعیت ساختمان‌ها (بلوک‌های سبز و قرمز در تصویر) در دنیای واقعی را می‌دانیم و سنسورهایی برای تشخیص رنگ‌های سبز و قرمز ساختمان‌های مجاور جاده در اختیار داریم. فرض کنید هیچ اطلاعاتی برای شروع نداریم. در نتیجه تمام مکان‌ها دارای احتمال یکسان (1/10) هستند. این احتمال به صورت زیر بیان می‌شود:

$$ P ( X ) ^ – = \left [ \begin {array} { cc c c c c c c c c } 0 . 1 & 0 . 1 & 0 . 1 & 0 . 1 & 0 . 1 & 0 . 1 & 0 . 1 & 0 . 1 & 0 . 1 & 0 . 1 \end {array} \right] $$

به این احتمال، «احتمال پیشین» (Prior Probability) نیز می‌گویند؛ زیرا این احتمال قبل از هر گونه اندازه‌گیری به دست آمده است. فرض کنید ربات یکی از رنگ‌های سبز یا قرمز را تشخیص داده باشد و سنسور دارای اندازه‌گیری ایده‌آل باشد. آن‌گاه احتمال اندازه‌گیری رنگ سبز توسط فرمول زیر نشان داده می‌شود:

$$ P _ g ( X ) = P ( g | X ) = \left [ \begin {array} { c c c c c c c c c c } 0 & 1 / 3 & 1 / 3 & 0 & 0 & 0 & 1 / 3 & 0 & 0 & 0 \end {array} \right] $$

به طریق مشابه، احتمال اندازه‌گیری رنگ قرمز به صورت زیر است:

$$ P _ r ( X ) = P ( r | X ) = \left [ \begin {array} { c c c c c c c c c c } 1 / 7 & 0 & 0 & 1 / 7 & 1 / 7 & 1 / 7 & 0 & 1 / 7 & 1 / 7 & 1 / 7 \end {array} \right] $$

حال پس از حرکت ربات و اندازه‌گیری محیط توسط سنسور، یک ساختمان سبز رنگ تشخیص داده می‌شود. احتمال بعد از اندازه‌گیری را می‌توان توسط قاعد بیز به دست آورد. به احتمال پس از اندازه‌گیری، «احتمال پسین» (Posteriror Probability) می‌گویند. بر اساس قاعده بیز به رابطه زیر دست می‌یابیم:

$$ P ( X ) ^ + = P ( X | g ) = \frac { P ( g | X ) P ( X ) ^ – } { P ( g ) } = \frac { P ( g | X ) P ( X ) } { \sum _ { i = 1 } ^ N P ( g | X _ i ) P (X _ i ) } $$

$$ P ( X ) ^ + = P ( X | g ) = \frac { \left [ \begin {array}{ c c c c c c c c c c } 0 & 1 / 3 & 1 / 3 & 0 & 0 & 0 & 1 / 3 & 0 & 0 & 0 \end {array} \right] \circ }{ \sum ( \left[ \begin {array}{ c c c c c c c c c c } 0 & 1 / 3 & 1 / 3 & 0 & 0 & 0 & 1 / 3 & 0 & 0 & 0 \end {array} \right] \circ } \\
\frac {\left[ \begin {array} { c c c c c c c c c c } 0 . 1 & 0 . 1 & 0 . 1 & 0 . 1 & 0 . 1 & 0 . 1 & 0 . 1 & 0 . 1 & 0 . 1 & 0 . 1 \end {array} \right]} { \left[ \begin{array} { c c c c c c c c c c } 0.1 & 0.1 & 0.1 & 0.1 & 0.1 & 0.1 & 0.1 & 0.1 & 0.1 & 0.1 \end{array} \right] ) } $$

بر اساس رابطه فوق، با نماد $$ \circ $$، المان‌های بردار اندازه‌گیری‌ اولیه در المان‌های بردار احتمال اندازه‌گیری‌ها ضرب می‌شود. در نتیجه احتمال پسین یا احتمال پس از اندازه‌گیری به صورت زیر محاسبه می‌شود:

$$ P ( X ) ^ + = P ( X | g ) = \frac { \left [ \begin {array} { c c c c c c c c c c } 0 & .1 / 3 & .1 / 3 & 0 & 0 & 0 & .1 / 3 & 0 & 0 & 0 \end{array} \right] } { \sum \left ( \left[ \begin{array}{ c c c c c c c c c c } 0 & . 1 / 3 & . 1 / 3 & 0 & 0 & 0 & .1 / 3 & 0 & 0 & 0 \end{array} \right] \right ) } $$

در نهایت احتمال پسین یا احتمال بعد از اندازه‌گیری به صورت زیر به دست می‌آید:

$$ P ( X ) ^ + = P ( X | g ) = \left [ \begin{array} { c c c c c c c c c c } 0 & 1 / 3 & 1 / 3 & 0 & 0 & 0 & 1 / 3 & 0 & 0 & 0 \end {array} \right] $$

اگر ربات مجبور باشد در یک موقعیت ثابت باقی بماند و به اندازه‌گیری ادامه دهد، مقدار سبز را به صورت تکراری هر بار اندازه می‌گیرد و موقعیت احتمالی آن آپدیت نمی‌شود. اما با حرکت در محیط و اندازه‌گیری، ربات می‌تواند تخمین بهتری را از موقعیت خود به دست آورد. فرض کنید که ربات یک گام گسسته به جلو حرکت کند. موقعیت احتمالی ربات و احتمال آن به صورت زیر است.

موقعیت احتمالی ربات و احتمال آن به صورت زیر به دست می‌آید:

$$ P ( X ) ^ – = \left [ \begin {array} { c c c c c c c c c c } 0 & 0 & 1 / 3 & 1 / 3 & 0 & 0 & 0 & 1 / 3 & 0 & 0 \end {array} \right] $$

ربات در این حالت اندازه‌گیری دیگری را انجام می‌دهد و خود را نزدیک به یک در سبز رنگ می‌بیند. احتمال اندازه‌گیری یک در سبز رنگ به صورت زیر است:

$$ P _ g ( X ) = P ( g | X ) = \left [ \begin {array} { c c c c c c c c c c } 0 & 1 / 3 & 1 / 3 & 0 & 0 & 0 & 1 / 3 & 0 & 0 & 0 \end {array} \right] $$

بر این اساس، می‌توانیم احتمال پسین را مجددا محاسبه کنیم:

$$ P ( X ) ^ + = P ( X | g ) = \frac { P ( g | X ) P ( X ) ^ – } { P ( g ) } = \frac { P ( g | X ) P ( X ) } { \sum _ { i = 1 } ^ N P ( g | X _ i ) P ( X _ i ) } $$

حال احتمال اندازه‌گیری و احتمال پیشین را از بالا جایگذاری می‌کنیم:

$$P ( X ) ^ + = \frac { \left [ \begin {array} { c c c c c c c c c c } 0 & 0 & 1/3 & 1/3 & 0 & 0 & 0 & 1/3 & 0 & 0 \end {array} \right] \circ }{ \sum ( \left[ \begin {array} { c c c c c c c c c c } 0 & 0 & 1 / 3 & 1 / 3 & 0 & 0 & 0 & 1 / 3 & 0 & 0 \end {array} \right] \circ } \\
\frac { \left[ \begin {array} { c c c c c c c c c c } 0 & 1 / 3 & 1 / 3 & 0 & 0 & 0 & 1 / 3 & 0 & 0 & 0 \end {array} \right] } { \left[ \begin {array} { c c c c c c c c c c } 0 & 1 / 3 & 1 / 3 & 0 & 0 & 0 & 1 / 3 & 0 & 0 & 0 \end {array} \right] ) } $$

$$ P ( X ) ^ + = \frac { \left [ \begin {array} { c c c c c c c c c c } 0 \times 0 & 0 \times 1 / 3 & 1 / 3 \times 1 / 3 & 1 / 3 \times 0 & 0 \times 0 & 0 \times 0 & 0 \times 1 / 3 & 1 / 3 \times 0 & 0\times 0 & 0 \times 0 \end {array} \right] } { \sum \left ( \left [ \begin {array} { c c c c c c c c c c } 0 \times 0 & 0 \times 1 / 3 & 1 / 3 \times 1 / 3 & 1 / 3 \times 0 & 0 \times 0 & 0 \times 0 & 0 \times 1 / 3 & 1 / 3 \times 0 & 0 \times 0 & 0 \times 0 \end {array} \right] \right)}  $$

$$ P ( X ) ^ + = \left [ \begin {array} { c c c c c c c c c c } 0 & 0 & 1 & 0 & 0 & 0 & 0 & 0 & 0 & 0 \end {array} \right] $$

سناریو ۲

یک سناریو را در نظر بگیرید که در آن ربات در مکان‌های مختلفی شروع به حرکت می‌کنند. مانند حالت قبل، ما موقعیت ساختمان‌های قرمز و سبز در دنیای واقعی را می‌دانیم. در تصویر زیر نمایی از این حالت نشان داده شده است. همچنین در این سیستم سنسورهایی برای تشخیص رنگ سبز و قرمز ساختمان‌های نزدیک خودرو وجود دارد. همانند حالت قبلی، احتمال اندازه‌گیری رنگ سبز به صورت زیر است:

$$ P _ g ( X ) = P ( g | X ) = \left [ \begin {array} { c c c c c c c c c c } 0 & 1 / 3 & 1 / 3 & 0 & 0 & 0 & 1 / 3 & 0 & 0 & 0 \end {array} \right ] $$

همچنین احتمال اندازه‌گیری رنگ قرمز به صورت زیر نوشته می‌شود:

$$ P _ r ( X ) = P ( r | X ) = \left [ \begin {array} { c c c c c c c c c c } 1 / 7 & 0 & 0 & 1 / 7 & 1 / 7 & 1 / 7 & 0 & 1 / 7 & 1 / 7 & 1 / 7 \end {array} \right] $$

به دلیل این که موقعیت شروع حرکت ربات را نمی‌دانیم، احتمال پیشین به صورت زیر به دست می‌آید:

$$
P ( X ) ^ – = \left [ \begin {array} { c c c c c c c c c c } 0 . 1 & 0 . 1 & 0 . 1 & 0 . 1 & 0 . 1 & 0 . 1 & 0 . 1 & 0 . 1 & 0 . 1 & 0 . 1 \end {array} \right] . $$

حال ربات شروع به اندازه‌گیری محیط می‌کند و یک در سبز رنگ را می‌بیند. احتمال بعد از اندازه‌گیری را می‌توان همانند قبل با استفاده از قاعده بیز محاسبه کرد:

$$ P ( X ) ^ + = P ( X | g ) = \frac{ P ( g | X ) P ( X ) ^ – } { P ( g ) } = \frac { P ( g | X ) P ( X ) } { \sum _ { i = 1 } ^ N P ( g | X _ i ) P ( X _ i ) } $$

$$ P ( X ) ^ + = P ( X | g ) = \left [ \begin {array} { c c c c c c c c c c } 0 & 1 / 3 & 1 / 3 & 0 & 0 & 0 & 1 / 3 & 0 & 0 & 0 \end {array} \right] $$

نمایی از این حالت در تصویر زیر نشان داده شده است.

ربات به سمت جلو حرکت می‌کند و احتمال پیشین به صورت زیر نوشته خواهد شد:

$$ P ( X ) ^ – = \left [ \begin {array} { c c c c c c c c c c } 0 & 0 & 1 / 3 & 1 / 3 & 0 & 0 & 0 & 1 / 3 & 0 & 0 \end {array} \right] $$

ربات مجددا محیط را اندازه‌گیری می‌کند و این بار به جای رنگ سبز، یک در قرمز رنگ را تشخیص می‌دهد. احتمال پسین به صورت زیر باید محاسبه شود:

$$ P ( X ) ^ + = P ( X | r ) = \frac { P ( r | X ) P ( X ) ^ – } { P ( r ) } = \frac { P ( r | X ) P ( X ) } { \sum _ { i = 1 } ^ N P ( r | X _ i ) P ( X _ i ) } $$

$$ P ( X ) ^ + = \frac { \left [ \begin {array} { c c c c c c c c c c } 0 & 0 & 1 / 3 & 1 / 3 & 0 & 0 & 0 & 1 / 3 & 0 & 0 \end {array} \right] \circ } { \sum ( \left [ \begin {array} { c c c c c c c c c c } 0 & 0 & 1 / 3 & 1 / 3 & 0 & 0 & 0 & 1 / 3 & 0 & 0 \end {array} \right] \circ } \\
\frac { \left [ \begin {array} { c c c c c c c c c c } 1 / 7 & 0 & 0 & 1 / 7 & 1 / 7 & 1 / 7 & 0 & 1 / 7 & 1 / 7 & 1 / 7\end {array} \right] } { \left [ \begin {array} { c c c c c c c c c c } 1 / 7 & 0 & 0 & 1 / 7 & 1 / 7 & 1 / 7 & 0 & 1 / 7 & 1 / 7 & 1 / 7\end {array} \right] ) } $$

$$
P ( X ) ^ + = \frac { \left [ \begin {array} { c c c c c c c c c c } 0 \times 1 / 7 & 0 \times 0 & 1 / 3 \times 0 & 1 / 3\times 1 / 7 & 0 \times 0 & 0 \times 0 & 0 \times 0 & 1 / 3 \times 1 / 7 & 0 \times 1 / 7 & 0 \times 1 / 7 \end {array} \right] } { \sum \left ( \left [ \begin {array} { c c c c c c c c c c } 0 \times 1 / 7 & 0 \times 0 & 1 / 3 \times 0 & 1 / 3 \times 1 / 7 & 0 \times 0 & 0 \times 0 & 0 \times 0 & 1 / 3 \times 1 / 7 & 0 \times 1 / 7 & 0 \times 1 / 7 \end {array} \right] \right)} $$

$$ P ( X ) ^ + = \frac { \left [ \begin {array} { c c c c c c c c c c } 0 & 0 & 0 & 1 / 2 1 & 0 & 0 & 0 & 1 / 2 1 & 0 & 0 \end{array} \right] } { \sum \left( \left [ \begin {array}{ c c c c c c c c c c } 0 & 0 & 0 & 1 / 21 & 0 & 0 & 0 & 1 / 21 & 0 & 0 \end {array} \right] \right) } =\\
\frac { \left[ \begin {array}{ c c c c c c c c c c } 0 & 0 & 0 & 1 / 2 1 & 0 & 0 & 0 & 1 / 2 1 & 0 & 0 \end {array} \right] } { 2 / 2 1 } $$

$$ P ( X ) ^ + = \left [ \begin {array} { c c c c c c c c c c } 0 & 0 & 0 & 1 / 2 & 0 & 0 & 0 & 1 / 2 & 0 & 0 \end {array} \right] $$

بنابراین در این حالت، دانش ربات درباره موقعیت خودش را بهتر می‌توان به یکی از دو موقعیت در محیط تخمین زد. با این حال، با تکرار چند باره فرایند حرکت و اندازه‌گیری، ربات می‌تواند به تدریج موقعیت خود را بیاموزد.

فرایندی که در بالا به توصیف آن پرداختیم، ایده اساسی تخمین بیز است. در محاسبات فوق، فرض کرده‌ایم که حرکت ربات و سنسورها ایده‌آل هستند. به عبارت دیگر، اگر ربات تلاش کند که یک گام به جلو حرکت کند، در واقعیت نیز یک گام به جلو خواهد رفت. در حالی که در کاربردهای عملی، ممکن است تعداد زیادی پارامتر عدم قطعیت وجود داشته باشند که مانع از انجام این فرایند شوند و ما فقط می‌توانیم تعیین کنیم که با چه احتمالی ربات قادر به حرکت خواهد بود.

در این حالت، حرکت را با یک مقدار احتمالاتی بیان می‌کنیم و توزیع احتمالاتی معین به یک توزیع چند متغیره تبدیل خواهد شد. به طریق مشابه، در سنسور و اندازه‌گیری‌های آن نیز ممکن است خطا وجود داشته باشد و مقادیر اشتباهی از کمیت‌ها توسط سنسور ارایه شود. توجه کنید که این مورد نیز به عدم قطعیت‌ها افزوده می‌شود و روی مسطح شدن توزیع احتمالاتی تاثیر می گذارد، به عبارت دیگر، قطعیت ربات در یک بازه کاهش می‌یابد.

قاعده بیز برای توزیع گاوسی

توزیع گاوسی یا توزیع نرمال، یک توزیع احتمالاتی پیوسته بسیار متداول است. توزیع گاوسی یا نرمال به دلیل «قضیه حد مرکزی» (Central Limit Theorem) بسیار مورد استفاده قرار می‌گیرد. بر اساس قضیه حد مرکزی، تحت فرض‌های خاصی، زمانی که تعداد نمونه‌ها بسیار بزرگ شوند، میانگین نمونه‌های تصادفی از هر توزیع داده شده به یک توزیع گاوسی یا نرمال همگرا می‌شوند. اکثر پدیده‌های فیزیکی ترکیبی از چند فرایند مستقل هستند و معمولا به توزیع نرمال گاوسی نزدیک هستند. به علاوه، بسیاری از روش‌ها مانند انتشار عدم قطعیت و یا برازش حداقل مربعات پارامترها را می‌توان زمانی که متغیرهای مرتبط دارای توزیع نرمال هستند، به صورت تحلیلی و به فرم ضمنی به دست آورد.

توزیع نرمال را به فرم یک منحنی زگوله‌ای نمایش می‌دهند. «تابع چگالی احتمال» (Probability Density Function) را می‌توان به صورت زیر نمایش داد:

$$ f ( X | \mu , \sigma ^ 2 ) = \frac { 1 } { \sqrt { 2 \pi \sigma ^ 2 } } e ^ { – \frac { ( X – \mu ) ^ 2 } { 2 \sigma ^ 2 } } $$

در رابطه فوق، $$ \mu $$ برابر با میانگین داده‌ها و $$ \sigma $$ انحراف معیار توزیع داده‌ها است. با اجرای برنامه متلب زیر شکل این توزیع احتمالاتی را ترسیم خواهیم کرد.

clc
close all
clear all

X = -10:0.01:10;
mu = 0;
sigma = 1.25;
f_x = 1/sqrt(2*pi*sigma^2) * exp( -(X-mu).^2/(2*sigma^2) );
figure;
plot(X,f_x)
axis([-10 10 0 .4])
xlabel('X')
ylabel('Probability distribution')

خروجی برنامه به صورت زیر است.

خروجی برنامه
خروجی برنامه

همان طور که می‌دانیم، تخمین بیز می‌تواند از طریق ضرب کردن توزیع‌های احتمالاتی محاسبه شود. اگر نویز سنسور  و فرایند حرکت را بتوان به صورت یک توزیع گاوسی توصیف کرد، آن‌گاه می‌توان موقعیت احتمالی ربات را با استفاده از تکنیک‌های قبلی به دست آورد. با این حال، این فرایند شامل محاسبه حاصل ضرب توزیع‌های احتمالاتی است. دو توزیع احتمالاتی نرمال را در نظر بگیرید که با رابطه زیر توصیف می‌شوند:

$$ f ( X | \mu _ 1 , \sigma _ 1 ^ 2 ) = \frac { 1 } { \sqrt { 2 \pi \sigma _ 1 ^ 2 } } e ^ { – \frac { ( X – \mu _ 1 ) ^ 2 } { 2 \sigma _ 1 ^ 2 } } $$

$$ f ( X | \mu _ 2 , \sigma _ 2 ^ 2 ) = \frac { 1 } { \sqrt { 2 \pi \sigma _ 2 ^ 2 } } e ^ { – \frac { ( X – \mu _ 2 ) ^ 2 } { 2 \sigma _ 2 ^ 2 } } $$

احتمال بیز به صورت زیر محاسبه می‌شود:

$$ f ( ( X | \mu _ 1 , \sigma _ 1 ^ 2 ) | ( X | \mu _ 2 , \sigma _ 2 ^ 2 ) ) = \frac { f ( X | \mu _ 1 , \sigma _ 1 ^ 2 ) f ( X | \mu _ 2 , \sigma _ 2 ^ 2 ) } { \int _ { – \infty } ^ { \infty } f ( X | \mu _ 1 , \sigma _ 1 ^ 2 ) f ( X | \mu _ 2 , \sigma _ 2 ^ 2 ) d X } $$

حاصل ضرب دو تابع احتمالاتی به صورت زیر به دست می‌آید:

$$ \large f ( ( X | \mu _ 1 , \sigma _ 1 ^ 2 ) | ( X | \mu _ 2 , \sigma _ 2 ^ 2 ) ) = \frac { 1 } { \sqrt { 2 \pi \sigma _ 1 ^ 2 } } e ^ { – \frac { ( X – \mu _ 1 ) ^ 2 } { 2 \sigma _ 1 ^ 2 } } \frac { 1 } { \sqrt { 2 \pi \sigma _ 2 ^ 2 } } e ^ { – \frac { ( X – \mu _ 2 ) ^ 2 } { 2 \sigma _ 2 ^ 2 } } $$

$$ \large f ( X | \mu _ 1 , \sigma _ 1 ^ 2 ) | f ( X | \mu _ 2 , \sigma _ 2 ^ 2 ) = \frac { 1 } { \sqrt { 4 \pi ^ 2 \sigma _ 1 ^ 2 \sigma _ 2 ^ 2 } } e ^ { – \left [ \frac { ( X – \mu _ 1 ) ^ 2 } { 2 \sigma _ 1 ^ 2 } + \frac { ( X – \mu _ 2 ) ^ 2 } { 2 \sigma _ 2 ^ 2 } \right ] } $$

$$ \large f ( X | \mu _ 1 , \sigma _ 1 ^ 2 ) | f ( X | \mu _ 2 , \sigma _ 2 ^ 2 ) = \frac { 1 } { \sqrt { 4 \pi ^ 2 \sigma _ 1 ^ 2 \sigma _ 2 ^ 2 } } e ^ { – \left [ \frac { ( \sigma _ 1 ^ 2 + \sigma _ 2 ^ 2 ) X ^ 2 – 2 ( \mu _ 1 \sigma _ 2 ^ 2 + \mu _ 2 \sigma _ 1 ^ 2 ) X + ( \mu _ 1 ^ 2 \sigma _ 2 ^ 2 + \mu _ 1 ^ 2 \sigma _ 1 ^ 2 ) } { 2 \sigma _ 1 ^ 2 \sigma _ 2 ^ 2 } \right ] } $$

حال پس از ساده‌سازی به نتیجه زیر می‌رسیم:

$$ f ( X | \mu _ 1 , \sigma _ 1 ^ 2 ) | f ( X | \mu _ 2 , \sigma _ 2 ^ 2 ) = f ( X | \mu _ { 1 2 } , \sigma _ { 1 2 } ^ 2 ) = \frac { 1 }{ \sqrt { 2 \pi \sigma _ { 1 2 } ^ 2 } } e ^ { – \frac { ( X -\mu _ { 1 2 } ) ^ 2 } { 2 \sigma _ { 1 2 } ^ 2 } }  $$

در رابطه فوق داریم:

$$ \sigma _ { 1 2 } ^ 2 = \frac { \sigma _ 1 ^ 2 \sigma _ 2 ^ 2 }{ \sigma _ 1 ^ 2 + \sigma _ 2 ^ 2 } $$

$$  \mu _ { 1 2 } = \frac { \sigma _ 1 ^ 2 \mu _ 2 + \sigma _ 2 ^ 2 \mu _ 1 } { \sigma _ 1 ^ 2 + \sigma _ 2 ^ 2 }  $$

روابط بالا نشان می‌دهد که کانولوشن نرمالیزه شده دو توزیع گاوسی خود یک توزیع گاوسی دیگر است که انحراف معیار آن برابر با «میانگین هارمونیک» (Harmonic Mean) دو توزیع و میانگین توزیع حاصل، توسط معکوس واریانس‌های آن‌ها وزن‌دار شده است.

این امر منجر به یک توزیع می‌شود که در آن میانگین به سمت توزیعی با انحراف معیار پایین‌تر حرکت خواهد کرد. به علاوه، واریانس ترکیب شده برابر با معکوس مجموع معکوس واریانس دو توزیع خواهد بود. بنابراین، واریانس به دست آمده کمتر از واریانس هر کدام از توزیع‌ها است. در یک مورد خاص، زمانی که واریانس توزیع‌های اصلی با یکدیگر برابر هستند، واریانس توزیع ترکیب شده برابر با نصف واریانس هر کدام از توزیع‌ها خواهد بود. این مفهوم در مثال زیر توضیح داده شده است.

مثال 1: احتمال ترکیبی گاوسی

فرض کنید دو توزیع گاوسی با میانگین و انحراف معیار زیر در اختیار داشته باشیم:

$$ \sigma _ 1 = . 8 , \mu _ 1 = 2 $$

$$ \sigma _ 2 = . 5 , \mu _ 2 = 4 $$

همچنین داشته باشیم:

$$ \sigma _ { 1 2 } ^ 2 = \frac { \sigma _ 1 ^ 2 \sigma _ 2 ^ 2 } { \sigma _ 1 ^ 2 + \sigma _ 2 ^ 2 } = 3 . 2 $$

و

$$ \mu _ { 1 2 } = \frac { \sigma _ 1 ^ 2 \mu _ 2 + \sigma _ 2 ^ 2 \mu _ 1 } { \sigma _ 1 ^ 2 + \sigma _ 2 ^ 2 } = 0.66 . $$

این توزیع‌های احتمالاتی را در متلب ترسیم می‌کنیم. برای این کار کد زیر را باید اجرا کرد:

clc;close all;clear all

X = -10:0.01:10;
mu1 = .8 ; sigma1 = 2;
mu2 = .1 ; sigma2 = 4;

mu12 = (sigma1^2*mu2 + sigma2^2*mu1)/(sigma1^2 + sigma2^2);
sigma12 = sqrt((sigma1^2*sigma2^2)/(sigma1^2 + sigma2^2));

display(['\mu_{12} = ' num2str(mu12) ', \sigma_{12} = ' num2str(sigma12)] )

f1 = 1/sqrt(2*pi*sigma1^2) * exp( -(X-mu1).^2/(2*sigma1^2) );
f2 = 1/sqrt(2*pi*sigma2^2) * exp( -(X-mu2).^2/(2*sigma2^2) );
f12 = 1/sqrt(2*pi*sigma12^2) * exp( -(X-mu12).^2/(2*sigma12^2) );
figure;
plot(X,f12,X,f1,'g--',X,f2,'g--')
axis([-10 10 0 .4])
xlabel('X')
ylabel('Probability distribution')

نتیجه به صورت زیر خواهد بود.

خروجی برنامه
خروجی برنامه
\mu_{12} = 0.66, \sigma_{12} = 1.7889

 مثال ۲: احتمال ترکیبی گاوسی

این بار دو توزیع گاوسی با میانگین و انحراف معیار زیر را در نظر بگیرید:

$$ \sigma _ 1 = 2 , \mu _ 1 = -4 $$

$$ \sigma _ 2 = 2 , \mu _ 2 = 4 $$

همچنین داریم:

$$ \sigma _ { 1 2 } ^ 2 = \frac { \sigma _ 1 ^ 2 \sigma _ 2 ^ 2 }{ \sigma _ 1 ^ 2 + \sigma _ 2 ^ 2 } = 2 $$

$$ \mu _ { 1 2 } = \frac { \sigma _ 1 ^ 2 \mu _ 2 + \sigma _ 2 ^ 2 \mu _ 1 } { \sigma _ 1 ^ 2 + \sigma _ 2 ^ 2 } = 0 $$

این توزیع‌های احتمالاتی را با استفاده از کد متلب زیر رسم می‌کنیم.

clc;close all;clear all

X = -10:0.01:10;
mu1 = -4 ; sigma1 = 2;
mu2 = 4 ; sigma2 = 2;

mu12 = (sigma1^2*mu2 + sigma2^2*mu1)/(sigma1^2 + sigma2^2);
sigma12 = sqrt((sigma1^2*sigma2^2)/(sigma1^2 + sigma2^2));

display(['\mu_{12} = ' num2str(mu12) ', \sigma_{12} = ' num2str(sigma12)] )

f1 = 1/sqrt(2*pi*sigma1^2) * exp( -(X-mu1).^2/(2*sigma1^2) );
f2 = 1/sqrt(2*pi*sigma2^2) * exp( -(X-mu2).^2/(2*sigma2^2) );
f12 = 1/sqrt(2*pi*sigma12^2) * exp( -(X-mu12).^2/(2*sigma12^2) );
figure;
plot(X,f12,X,f1,'g--',X,f2,'g--')
axis([-10 10 0 .4])
xlabel('X')
ylabel('Probability distribution')

نتیجه به صورت زیر خواهد بود.

خروجی برنامه
خروجی برنامه
\mu_{12} = 0, \sigma_{12} = 1.4142

توزیع گاوسی دو بعدی

تکنیک‌های تخمینی که تا کنون آن‌ها را بررسی کردیم، فقط برای سیستم‌های یک بعدی قابل استعمال هستند. به عبارت دیگر، برای مواردی که فقط یک متغیر نامعلوم وجود داشته باشد، می‌توان از آن‌ها استفاده کرد. اما برای مواردی که بیش از یک متغیر نامعلوم در سیستم داشته باشیم، باید از توزیع‌های چند متغیره استفاده کنیم. ایده اساسی در پس یک توزیع چند متنغیره در تصویر زیر نشان داده شده است.

توزیع گاوسی دو بعدی
توزیع گاوسی دو بعدی

همان طور که از تصویر فوق مشخص است، یک توزیع چند متغیره متشکل از دو متغیر اصلی، توسط دو توزیع تک متغیره توصیف شده است که مرکز توزیع چند متغیره در محل میانگین آن دو توزیع تک متغیره قرار گرفته است. یک توزیع چند متغیره در K بعد به صورت زیر نشان داده خواهد شد:

$$ f ( X | \mathbf { \mu }, \mathbf { \Sigma } ) = \frac { 1 } { \sqrt { ( 2 \pi ) ^ k | \mathbf { \Sigma } | } } e ^ { – \frac { 1 } { 2 } ( X – \mathbf { \mu } ) ^ T \mathbf { \Sigma } ^ { – 1 } ( X -\mathbf { \mu } ) } $$

در رابطه فوق، $$ \Sigma $$ برابر با ماتریس کواریانس و $$ \mu $$ برابر با میانگین توزیع است. در حالت خاصی که $$ K = 2 $$ باشد، می‌توان نوشت:

$$ \mathbf { \Sigma } = \left [ \begin {array} { c c } \sigma _ X ^ 2 & \sigma _ { X , Y } \\
\sigma _ { X, Y } & \sigma _ Y ^ 2 \end {array} \right] $$

در رابطه فوق، $$ \sigma _ { X , Y} $$ برابر با «گشتاور دوم» (Second Moment) بین متغیرهای X و Y است.

فیلتر کالمن دو بعدی در کنترل عدم قطعیت

تکنیکی در بخش قبل به معرفی آن پرداختیم در ترکیب با اطلاعات دینامیکی سیستم منجر به تشکیل فیلتر کالمن می‌شود. فیلترهای کالمن تخمین حالت را در دو گام اساسی انجام می‌دهند. گام اول شامل انتشار دینامیک‌های سیستم است تا با استفاده از آن «احتمال پیشین» (Apriori Probability) حالت‌های سیستم را به دست آورد. زمانی که اندازه‌گیری‌ها انجام شدند، متغیرهای حالت با استفاده از قضیه بیز محاسبه و آپدیت می‌شوند. این مفهوم با مثالی در ادامه روشن‌تر خواهد شد.

موردی را در نظر بگیرید که خودرویی در امتداد یک مسیر مستقیم با سرعت ثابت در حال حرکت است. فرض کنید فقط اندازه‌گیری‌های موقعیت (نه سرعت) را در اختیار دشته باشیم. در ابتدا، موقعیت را با استفاده از سنسور به دست می‌آوریم. بنابراین ناحیه‌ای که حالت‌های ربات می‌توانند در آن قرار داشته باشند، مطابق با تصویر زیر خواهد بود.

ناحیه محتمل حالت‌های ربات
ناحیه محتمل حالت‌های ربات

اگر ربات در همین موقعیت باقی بماند، آن‌گاه نمی‌توان سرعت را تخمین زد. اما اگر ربات شروع به حرکت کند، آن‌گاه توزیع احتمالاتی موقعیت بعد از یک ثانیه حرکت با سرعت ثابت با ابری قرمز رنگ در تصویر زیر نشان داده شده است.

توزیع احتمالاتی موقعیت بعد از یک ثانیه حرکت با سرعت ثابت با ابری قرمز رنگ
توزیع احتمالاتی موقعیت بعد از یک ثانیه حرکت با سرعت ثابت با ابری قرمز رنگ

فرض کنید ربات با سرعت ثابت ۱ حرکت کند، تخمین موقعیت بعدی در حدود ۱ است. با انجام اندازه‌گیری دوم در این نقطه، ناحیه آبی رنگ در تصویر زیر را به عنوان مقادیر مثبت برای تخمین موقعیت خواهیم داشت.

ناحیه آبی رنگ به عنوان مقادیر مثبت برای تخمین موقعیت
ناحیه آبی رنگ به عنوان مقادیر مثبت برای تخمین موقعیت

بنابراین با استفاده از دینامیک‌های سیستم، انتظار داریم که موقعیت جدید در ناحیه قرمز رنگ باشد، اما با استفاده از داده‌های سنسور، موقعیت خودرو باید در ناحیه آبی رنگ قرار داشته باشد. ناحیه همپوشانی بین این دو منطقه بسیار کوچک است و تئوری بیز را می‌توان برای تخمین احتمال توزیع حالت‌های چندگانه به کار برد. توزیع احتمالاتی متناظر با سرعت و موقعیت در طول دو محور X و Y در تصویر زیر نشان داده شده است.

توزیع احتمالاتی متناظر با سرعت و موقعیت در طول دو محور X و Y
توزیع احتمالاتی متناظر با سرعت و موقعیت در طول دو محور X و Y

این فرایند ترکیب دینامیک‌های سیستم با اندازه‌گیری‌های سنسورها سنگ بنای اساسی فیلترهای کالمن است. فیلترهای کالمن دارای مشخصه تخمین بسیار خوبی هستند و در مواقعی که فرایند و اندازه‌گیری منطبق بر توزیع گاوسی باشند، انتخابی بهینه محسوب می‌شوند.

بهینگی (Optimality) در فیلتر کالمن

همان طور که گفتیم، فیلتر کالمن اطلاعات دینامیک سیستم را با اندازه‌گیری‌های سنسورها ترکیب می‌کند و در نتیجه تخمین بسیار بهتری را از حالت‌های سیستم فراهم می‌کند. اما تا این قسمت هنوز به نحوه ترکیب اطلاعات دینامیک سیستم و داده‌های اندازه‌گیری سنسور نپرداختیم. برای بررسی این موضوع، یک فرایند بهینه سازی را انجام می‌دهیم که احتمال تعلق گرفتن حالت‌ها به یک ناحیه را بیشینه می‌کند. به این روش، «تخمین حداکثر درست‌نمایی» (Maximum Likelhood Estimate) می‌گویند.

تخمین حداکثر درست‌نمایی: مثال رگرسیون خطی

درست‌نمایی این که یک مقدار متعلق به یک توزیع مفروض باشد را می‌توان با توجه به تابع چگالی احتمال محاسبه کرد. بنابراین در حالت خاصی که توزیع نرمال باشد، درست‌نمایی مشاهده مقدار X توسط رابطه زیر به دست می‌آید:

$$ p ( X | \mu , \sigma ^ 2 ) = \frac { 1 } { \sqrt { 2 \pi \sigma ^ 2 } } e ^ { – \frac { ( X – \mu ) ^ 2 } { 2 \sigma ^ 2 } } $$

حال هدف مورد نظر ما این است که مقدار $$ \beta _ 0 $$ و $$ \beta _ 1 $$ را به نحوی تعیین کنیم که منجر به بیشینه شدن احتمال مقدار داده شده $$ y $$ به فرم $$ \beta _ 0 + \beta _ 1 X $$ شود. به عبارت دیگر، هدف تخمین پارامترهای $$ \beta _ 0 $$ و $$ \beta _ 1 $$ است تا احتمال خطایی که از تقریب خطی حالت‌ها ناشی می‌شود، بیشینه شود. به علاوه، فرض می‌کنیم که خطاها دارای توزیع نرمال و «میانگین امید صفر» (Zero Expected Mean) باشند. آن‌گاه احتمال مشاهده یک خطا به اندازه $$ e _ i = y _ i – ( \beta _ 0+ \beta _ 1 x _ i ) $$ به صورت زیر به دست می‌آید:

$$ p ( e _ i | 0 , \sigma ^ 2 ) = \frac { 1 } { \sqrt { 2 \pi \sigma ^ 2 } } e ^ { – \frac { ( y _ i – ( \beta _ 0 + \beta _ 1 x _ i ) ) ^ 2 } { 2 \sigma ^ 2 } } $$

در نتیجه احتمال مشاهده خطاهای $$ e _ 1 $$ و $$ e _ 2 $$ تا $$ e _ N $$ برابر است با:

$$ p ( e _ 1, e _ 2, \dots , e _ N ) = \underbrace { \Pi } _ { i = 1 ~ t o ~ n } p ( e _ i | 0, \sigma ^ 2 ) $$

نماد $$ \Pi $$ نشان دهنده ضرب بین احتمالات است. حال می‌توان نوشت:

$$ \large p ( e _ 1, e _ 2, \dots , e _ N ) = \underbrace { \Pi } _ { i = 1 ~ t o ~ n } p ( e _ i | 0, \sigma ^ 2 ) = \underbrace { \Pi } _ { i = 1 ~ t o ~ n } \frac { 1 } { \sqrt { 2 \pi \sigma ^ 2 } } e ^ { – \frac { ( y _ i – ( \beta _ 0 + \beta _ 1 x _ i ) ) ^ 2 } { 2 \sigma ^ 2 } } $$

بنابراین هدف فرایند بهینه‌سازی این است که پارامترها برای بیشینه کردن تابع احتمالی را به دست آورد. به دلیل این که پارامترهای $$ \beta _ 0 $$ و $$ \beta _ 1 $$ فقط در توان ظاهر می‌شوند، در نتیجه می‌توانیم از تابع احتمال لگاریتم بگیریم:

$$ \underbrace { Maximize } _ { \beta _ 0 , \beta _ 1 } ~ log ( p ( e _ 1 , e _ 2, \dots , e _ N ) ) = \underbrace { Maximize } _ { \beta _0 , \beta _ 1 } \sum _ { i = 1 } ^ N \left (- \frac { ( y _ i – ( \beta _ 0 + \beta _ 1 x _ i ) ) ^ 2 } { 2 \sigma ^ 2 } – \frac { 1 } { 2 } log ( 2 \pi \sigma ^ 2 ) \right ) $$

عبارات فوق را «احتمال لگاریتم بیشینه» (Maximum Log Likelihood) نیز می‌گویند. به دلیل این که ما منفی یک مقدار را بیشینه می‌کنیم و نیز به این دلیل که با یک عدد ثابت جمع و ضرب می‌کنیم، در نتیجه مسئله احتمال بیشینه را می‌توان به صورت زیر نیز بیان کرد:

$$ \underbrace { Minimize } _ { \beta _ 0 , \beta _ 1 } \sum _ { i = 1 } ^ N \left ( y _ i – ( \beta _ 0 + \beta _ 1 x _ i ) \right ) ^ 2  $$

توجه کنید که عبارت $$ \frac { 1 } { 2 } log ( 2 \pi \sigma ^ 2 ) $$ یک مقدار ثابت است و به همین دلیل در بیشینه کردن عبارت کلی هیچ تاثیری نخواهد داشت و به همین دلیل می‌توان از آن صرف نظر کرد. با دقت در رابطه به دست آمده در بالا می‌توان به این نتیجه رسید که تابع حداکثر احتمال به یک مسئله یافتن خط برازش حداقل مربعات تبدیل شده است. روندی مشابه را می‌توان برای تخمین حالت‌ها در فیلتر کالمن نیز به کار گرفت.

فیلتر ذره‌ای (Particle Filters) در کنترل عدم قطعیت

فیلترهای ذره‌ای، بر خلاف فیلترهای مبتنی بر مدل، کلاسی از فیلترهای مبتنی بر شبیه‌سازی هستند. در مورد این سنسورها هیچ فرضی درباره مدل پلنت مورد نظر انجام نخواهیم داد. ایده اولیه این است که برای تمام مقادیر ممکن حالت‌ها از فضا نمونه‌برداری کنیم و سپس به هر نقطه یک وزن اختصاص بدهیم که به این بستگی داشته باشد که تا چه حد اندازه‌گیری به نقطه واقعی نزدیک باشد. زمانی که وزن‌ها به دست آمد، آن‌گاه حالت‌های پلنت با احتمال بقا هر ذره که متناسب با وزن آن است، باز نمونه برداری می‌شوند.

در طول زمان، نقاطی که اندازه‌گیری آن‌ها متناسب با حالت‌های بسیار نامحتمل هستند، حذف می‌شوند و نقاطی که محتمل‌تر هستند، حفظ خواهند شد. وزن‌ها معمولا به صورت توزیع گاوسی چند متغیره انتخاب می‌شوند. «باز نمونه‌گیری» (Resampling) را می‌توان به صورت واضح‌تر توسط یک گردونه چرخان رولتی توضیح داد که در آن تغیر بقای هر ذره بر اساس بزرگی ناحیه‌ای تعیین می‌شود که اشغال کرده است. نمایی از یک گردونه چرخان نشان داده شده است.

گردونه چرخان
گردونه چرخان

در گردونه تصویر فوق، اجزای متناسب‌تر دارای سهم بزرگ تری از صفحه گردان هستند و اجزای ضعیف‌تر، سهم کوچک‌تری از گردونه را به خود اختصاص داده‌اند.

انیمیشن زیر یک پیاده‌سازی از فیلتر ذره‌ای مربوط به یک SLAM دو بعدی را در دو حالت نویز بالا و نویز پایین نشان می‌دهد.

پیاده‌سازی فیلتر ذره‌ای مربوط به یک SLAM دو بعدی در حالت نویز بالا
پیاده‌سازی فیلتر ذره‌ای مربوط به یک SLAM دو بعدی در حالت نویز بالا
پیاده‌سازی فیلتر ذره‌ای مربوط به یک SLAM دو بعدی در حالت نویز پایین
پیاده‌سازی فیلتر ذره‌ای مربوط به یک SLAM دو بعدی در حالت نویز پایین

اگر این مطلب برای شما مفید بوده است، آموزش‌های زیر نیز به شما پیشنهاد می‌شوند:

^^

بر اساس رای ۴ نفر
آیا این مطلب برای شما مفید بود؟
شما قبلا رای داده‌اید!
اگر بازخوردی درباره این مطلب دارید یا پرسشی دارید که بدون پاسخ مانده است، آن را از طریق بخش نظرات مطرح کنید.

«مرضیه آقایی» دانش‌آموخته مهندسی برق است. فعالیت‌های کاری و پژوهشی او در زمینه کنترل پیش‌بین موتورهای الکتریکی بوده و در حال حاضر، آموزش‌های مهندسی برق مجله فرادرس را می‌نویسد.

3 نظر در “عدم قطعیت در کنترل و تخمین حالت — از صفر تا صد

نظر شما چیست؟

نشانی ایمیل شما منتشر نخواهد شد.