فیلتر کالمن — به زبان ساده

۹۵۵۹ بازدید
آخرین به‌روزرسانی: ۱۷ اردیبهشت ۱۴۰۲
زمان مطالعه: ۱۵ دقیقه
دانلود PDF مقاله
فیلتر کالمن — به زبان ساده

فیلتر کالمن (Kalman Filter) یک تخمین‌گر است که از تخمین حالت قبل و مشاهده فعلی برای محاسبه تخمین حالت فعلی استفاده می‌کند و یک ابزار بسیار قوی برای ترکیب اطلاعات در حضور نامعینی‌ها است. در برخی موارد، توانایی فیلتر کالمن برای استخراج اطلاعات دقیق خیره کننده است. فیلتر کالمن مدت‌هاست که به عنوان راه‌حل بهینه برای بسیاری از کارهای ردیابی و پیش‌بینی داده‌ها مورد استفاده قرار می‌گیرد.

997696

فیلتر کالمن چیست؟

هر جایی که اطلاعات نامعینی درباره یک سیستم دینامیکی داشته باشیم، می‌توانیم با استفاده از فیلتر کالمن تخمین مناسبی از تغییرات سیستم در آینده ارائه کنیم. فیلترهای کالمن برای سیستم‌هایی که مدام در حال تغییرند، ایده‌آل هستند. مزیت فیلترهای کالمن این است که به حافظه کمی نیاز دارند، زیرا به حافظه‌ای جز برای نگهداری اطلاعات وضعیت‌های قبلی نیاز ندارند. همچنین این فیلترها بسیار سریع هستند و به همین دلیل برای مسائل زمان حقیقی و سیستم‌های تعبیه‌ای مناسب هستند.

در نگاه اول، ظاهر ریاضیات مربوط به فیلتر کالمن، ترسناک و مبهم به نظر می‌رسد. اما کاملاً برعکس است و اگر به درستی برای یادگیری آن اقدام کنیم، فهم آن بسیار ساده خواهد بود. در این آموزش سعی می‌کنیم فیلتر کالمن را به صورت بصری و ساده شرح دهیم. برای یادگیری فیلتر کالمن، لازم است کمی درباره احتمال و ماتریس‌ها بدانیم.

با یک مثال ساده شروع می‌کنیم.

با یک فیلتر کالمن چه کاری می‌توانیم انجام دهیم؟

فرض کنید ربات کوچکی ساخته‌ایم که می‌تواند آزادانه در یک جنگل حرکت کند. این ربات برای آنکه مسیریابی کند، باید بداند دقیقاً در کجا قرار گرفته است.

ربات

وضعیت یا حالت (State) ربات را با  xk \overrightarrow{x_k} نشان می‌دهیم که شامل موقعیت (Position) و سرعت (Velocity) است:‌

xk=(p,v) \large \overrightarrow { x _ k } = ( \overrightarrow { p } , \overrightarrow { v } )

حالت یا بردار حالت، شامل اعدادی است که پیکربندی سیستم را نشان می‌دهند. در مورد این ربات، حالت شامل موقعیت و سرعت است. برای مثال، حالت یک سیستم می‌تواند اطلاعاتی درباره مقدار سیال یک مخزن، دمای موتور خودرو، موقعیت انگشت کاربر روی صفحه لمسی یا هر مورد دیگری باشد که ما بسته به نیاز، آن را در نظر می‌گیریم.

رباتی که درباره آن بحث کردیم، یک سنسور GPS با دقت تقریباً ۱۰ متر دارد که مقدار تقریباً مناسبی است. اما لازم است موقعیت ربات به صورت دقیق‌تر و کمتر از ۱۰ متر نیز در اختیار باشد، زیرا در جنگل صخره‌ها و گودال‌هایی وجود دارد و اگر ربات چند قدم اشتباه گام بردارد، ممکن است مثلاً درون گودالی بیفتد و دچار مشکل شود. بنابراین، وجود GPS به تنهایی برای مسیریابی ربات کافی نیست.

ربات در گودال

ممکن است چیزهای دیگری نیز درباره ربات بدانیم. مثلاً می‌دانیم فرمان‌هایی به موتور چرخ‌ها ارسال می‌شود و همچنین، اگر ربات در جهت خاصی حرکت کند و مشکلی برایش پیش نیاید، همان جهت حرکت قبلی را ادامه خواهد داد. اما اطلاعاتی درباره حرکت ربات در دست نیست؛ بنابراین، تعداد دور چرخ‌های ربات، نمی‌تواند دقیقاً تعیین کند که چه اندازه حرکت کرده است و در نتیجه، پیش‌بینی کامل نخواهد بود.

سنسور GPS اطلاعاتی را درباره حالت ربات به ما می‌دهد که البته غیرمستقیم بوده و اصطلاحاً نامعینی‌هایی دارد. پیش‌بینی ما نیز، اطلاعاتی را درباره چگونگی حرکت ربات به دست می‌دهد که غیرمستقیم بوده و با نایقینی یا نامعینی همراه است.

اما آیا اگر همه اطلاعات در دسترس استفاده کنیم، می‌توانیم پاسخ بهتری نسبت به تخمینی که خود اطلاعات ارائه می‌کنند داشته باشیم؟ قطعاً بله و این دقیقاً همان کاری است که فیلتر کالمن انجام می‌دهد.

مسئله از دیدگاه فیلتر کالمن چگونه است؟

حالت ساده‌ای را در نظر بگیرید که فقط از موقعیت و سرعت تشکیل شده است:

x=[pv] \large \overrightarrow { x } = \begin {bmatrix} p \\ v \end {bmatrix}

موقعیت و سرعت واقعی را نمی‌دانیم و طیف وسیعی از ترکیب‌های موقعیت و سرعت وجود دارند که می‌توانند درست باشند، اما تعدادی از آن‌ها نسبت به سایرین به واقعیت نزدیک‌ترند.

موقعیت و سرعت

در فیلتر کالمن، فرض می‌شود که دو متغیر (در مثال ما، موقعیت و سرعت) تصادفی هستند و به صورت گوسی توزیع شده‌اند. هر متغیر یک مقدار میانگین (Mean) با نماد μ \mu دارد که مرکز توزیع تصادفی (محتمل‌ترین حالت) است. متغیرها یک مقدار واریانس (Variance) با نماد σ2\sigma ^ 2 نیز دارند که معرف نامعینی است. شکل زیر، این موضوع را به خوبی نشان می‌دهد.

میانگین و توزیع تصادفی

در شکل بالا، موقعیت و سرعت ناهمبسته (Uncorrelated) هستند. این بدین معنی است که وضعیت یک متغیر، اطلاعاتی درباره متغیر دیگر به دست نمی‌دهد.

شکل زیر، مورد جذاب‌تری را نشان می‌دهد که در آن، موقعیت و سرعت همبسته (Correlated) هستند. بنابراین، احتمال مشاهده یک موقعیت خاص به سرعت بستگی خواهد داشت.

موقعیت و سرعت همبسته

اگر برای مثال بخواهیم موقعیت جدید را بر اساس موقعیت قبلی تخمین بزنیم، این مورد (همبستگی) وجود خواهد داشت. اگر سرعت زیاد باشد، احتمالاً مسافت بیشتری پیموده می‌شود و در نتیجه، موقعیت دورتر خواهد بود. اگر به آرامی حرکت کنیم، به اندازه کمی دور خواهیم شد.

این رابطه بسیار مهم است، زیرا اطلاعات بیشتری به ما می‌دهد. به عبارت بهتر، یک اندازه‌گیری، اطلاعاتی را درباره سایر متغیرها ارائه می‌کند. هدف فیلتر کالمن نیز همین است که می‌خواهیم در حد امکان، اندازه‌گیری‌های نامعین را به عنوان اطلاعاتِ بیشتر، فشرده کنیم.

همبستگی را می‌توان در قالبی به نام ماتریس کوواریانس (Covariance Matrix) نشان داد. به طور خلاصه، هر درایه Σij\Sigma_{ij} از ماتریس کوواریانس، درجه همبستگی بین متغیر حالت iiاُم و متغیر حالت jjاُم را نشان می‌دهد. احتمالاً دریافته‌اید که به دلیل رابطه دوطرفه متغیرهای حالت، ماتریس کوواریانس متقارن (Symmetric) است. ماتریس کوواریانس را معمولاً با  Σ \mathbf{\Sigma} و درایه‌های آن را با  Σij \Sigma_{ij} نشان می‌دهند.

ماتریس کوواریانس

تعریف مسئله در قالب ماتریس‌ها

در این بخش، دانش خود درباره حالت را به عنوان یک حباب یا توده گوسی (Gaussian blob) مدل می‌کنیم.

بنابراین، به یک اطلاعات دوبخشی در زمان kk نیاز داریم. بهترین تخمین را  x^k \mathbf{\widehat{x}_k} می‌نامیم (که همان میانگین μ \mu است) و ماتریس کوواریانس  Pk \mathbf{P_k} ‌ را به صورت زیر می‌نویسیم:

x^k=[positionvelocity]Pk=[ΣppΣpvΣvpΣvv]              (1) \large \begin {equation} \begin {aligned} \mathbf { \widehat { x } } _ k & = \begin {bmatrix} \text {position}\\ \text {velocity} \end {bmatrix} \\ \mathbf { P } _ k & = \begin {bmatrix} \Sigma _ { p p } & \Sigma _ { p v } \\ \Sigma _ { v p } & \Sigma _ { v v } \\ \end {bmatrix} \end {aligned} \end {equation} \;\;\;\;\; \;\; (1)

توجه کنید که در اینجا، فقط سرعت و موقعیت را در نظر گرفته‌ایم و بردار حالت می‌تواند هر تعداد متغیر حالت داشته باشد.

اکنون باید حالت فعلی (در زمان k1\color{royalblue}{{k-1}} ) و پیش‌بینی حالت بعدی در زمان k\color{deeppink}{k} را تعیین کنیم. لازم به یادآوری است که اطلاعی نداریم کدام حالت واقعی است، اما این موضوع تأثیری در عملکرد پیش‌بینی ندارد؛ زیرا پیش‌بینی با همه آن‌ها کار می‌کند و توزیع جدیدی را نتیجه خواهد داد.

پیش‌بینی

مرحله پیش‌بینی را با ماتریس  Fk \mathbf{F_k} نمایش می‌دهیم.

تخمین

پیش‌بینی برای هر نقطه از تخمین اولیه (Original) انجام می‌شود و آن را به یک محل پیش‌بینی شده جدید انتقال می‌دهد.

اکنون بررسی می‌کنیم که چگونه باید از یک ماتریس برای پیش‌بینی موقعیت و سرعت در لحظه بعدی استفاده کنیم. از فرمول پایه‌ای سینماتیک زیر استفاده می‌کنیم:

$$ \large \begin {split}<br /> \color{deeppink} { p _ k } & = \color {royalblue} { p _ { k - 1 } } + \Delta t & \color {royalblue} { v _ { k - 1 } } \\<br /> \color {deeppink} { v _ k } & = & \color {royalblue} { v _ { k - 1 } }<br /> \end {split} $$

به عبارت دیگر:

x^k=[1Δt01]x^k1              (2)=Fkx^k1              (3) \large \begin {align*} \color {deeppink} { \mathbf { \widehat { x } } _ k } & = \begin {bmatrix} 1 & \Delta t \\ 0 & 1 \end {bmatrix} \color {royalblue} { \mathbf { \widehat { x } } _ { k - 1 } } \;\;\;\;\;\;\; (2)\\ & = \mathbf { F } _ k \color {royalblue} { \mathbf { \widehat { x } } _ { k - 1 } } \;\;\;\;\;\;\; (3) \end {align*}

اکنون یک ماتریس پیش‌بینی داریم که حالت بعدی را به دست می‌دهد، اما هنوز نمی‌دانیم ماتریس کوواریانس را چگونه به‌روز کنیم.

حال به یک فرمول دیگر نیاز داریم. فکر می‌کنید اگر هر نقطه در توزیع را در یک ماتریس A \color{firebrick}{\mathbf{A}} ضرب کنیم، ماتریس کوواریانس Σ \Sigma چه تغییری خواهد کرد؟‌

ویژگی زیر را برای کوواریانس داریم:

Cov(x)=ΣCov(Ax)=AΣAT              (4) \large \begin {align*} \begin {split} Cov ( x ) & = \Sigma \\ Cov ( \color {firebrick} { \mathbf { A } } x ) & = \color {firebrick} { \mathbf { A } } \Sigma \color {firebrick} { \mathbf { A } } ^ T \end {split} \end {align*} \;\;\;\;\;\;\; (4)

با ترکیب رابطه (۴) با (۳)، به فرمول‌های زیر می‌رسیم:

x^k=Fkx^k1Pk=FkPk1FkT              (5) \large \begin {align*} \begin {split} \color {deeppink} { \mathbf { \widehat { x } } _ k } & = \mathbf { F } _ k \color {royalblue} { \mathbf { \widehat { x } } _ { k - 1} } \\ \color {deeppink} { \mathbf { P } _ k } & = \mathbf { F _ k } \color {royalblue} { \mathbf { P } _ { k - 1 } } \mathbf { F } _ k ^ T \end {split} \end {align*} \;\;\;\;\;\;\; (5)

اثر خارجی

گاهی ممکن است تغییراتی رخ دهد که مربوط به خود حالت نیست و محیط پیرامون است که بر سیستم اثر می‌گذارد.

برای مثال، اگر بردار حالت حرکت یک قطار را مدل کند، ممکن است اپراتور قطار با فشردن دکمه دریچه سوخت، سبب شتاب گرفتن آن شود. به طریق مشابه، در مثال رباتی بیان کردیم، نرم‌افزار مسیریابی ممکن است دستوری برای حرکت کردن یا ایستادن چرخ‌ها صادر کند. اگر این اطلاعات اضافه اعمال شده از خارج سیستم را بدانیم، می‌توانیم آن را با بردار  uk \color{darkorange}{\overrightarrow{\mathbf{u}_k}} نشان داده و به فرمول پیش‌بینی بیفزاییم.

فرض کنید شتاب مورد انتظار  a \color{darkorange}{a} را در اثر تنظیم سوخت یا فرمان‌های کنترل می‌دانیم. از سینماتیک پایه می‌دانیم:

$$ \large \begin {split}<br /> \color {deeppink} { p _ k } & = \color {royalblue} { p _ { k - 1 } } + { \Delta t } & \color {royalblue} { v _{ k - 1 } } + & \frac { 1 } { 2 } \color {darkorange} { a } { \Delta t } ^ 2 \\<br /> \color {deeppink} { v _ k } & = & \color {royalblue} { v _ { k - 1 } } + & \color {darkorange} { a } { \Delta t }<br /> \end {split} $$

و به فرم ماتریسی، داریم:‌

x^k=Fkx^k1+[Δt22Δt]a=Fkx^k1+Bkuk              (6) \large \begin {align*} \begin {split} \color {deeppink} { \mathbf { \hat { x } } _ k } & = \mathbf { F } _ k \color {royalblue} { \mathbf { \hat { x } } _ { k -1 } } + \begin {bmatrix} \frac { \Delta t ^ 2 } { 2 } \\ \Delta t \end {bmatrix} \color {darkorange} { a } \\ & = \mathbf { F } _ k \color {royalblue} { \mathbf { \hat { x } } _ { k- 1 } } + \mathbf { B } _ k \color {darkorange} { \overrightarrow { \mathbf { u } _ k } } \end {split} \end {align*} \;\;\;\;\;\;\; (6)

در رابطه بالا،  Bk \mathbf{B}_k ماتریس کنترل و  uk \color{darkorange}{\overrightarrow{\mathbf{u}_k}} بردار کنترل نامیده می‌شوند. در سیستم‌های ساده و بدون اثر خارجی، از این موارد چشم‌پوشی می‌کنیم.

اما اگر پیش‌بینی صددرصد دقیق نباشد چه‌کار باید کرد؟ در بخش بعدی به این پرسش پاسخ می‌دهیم.

نامعینی خارجی

فرض کردیم اثر خارجی که در بخش قبل درباره آن بحث کردیم، معلوم و شناخته شده است. اما اگر چیزی درباره اثرات خارج از سیستم ندانیم، چه باید کرد؟ اگر در حال مسیریابی یک کوادکوپتر باشیم،‌ برای مثال، باد می‌تواند آن را به هر سمتی ببرد. یا اگر یک ربات را مسیریابی کنیم، امکان دارد چرخ‌هایش دچار لغزش شده یا اصطکاک با سطح زمین روی آن اثر بگذارد. ما نمی‌توانیم این موارد را ردیابی کنیم و اگر هر کدام از این‌ها رخ دهد، ممکن است پیش‌بینی ما نتیجه اشتباهی داشته باشد.

راه‌حل این مشکل، مدل کردن نامعینی‌های دنیای پیرامون (هر چیزی که کنترلی روی آن نداریم) با اضافه کردن جمله‌ای به مرحله پیش‌بینی است:

نامعینی خارجی

هر حالت در تخمین اولیه می‌تواند به محدوده‌ای از حالت‌ها حرکت کند. از آنجایی که یک حباب گوسی را در نظر گرفته‌ایم، می‌توان گفت که هر نقطه در  x^k1 \color{royalblue}{\mathbf{\hat{x}}_{k-1}} ، به جایی در حباب گوسی با کوواریانس  Qk \color{mediumaquamarine}{\mathbf{Q}_k} منتقل می‌شود. به بیان دیگر، تأثیرات ردیابی نشده را به عنوان نویزی با کوواریانس  Qk \color{mediumaquamarine}{\mathbf{Q}_k} در نظر می‌گیریم.

نامعینی خارجی

در نتیجه، یک حباب گوسی جدید خواهیم داشت که کواریانس متفاوتی نسبت به قبل دارد و البته میانگین آن تغییری نمی‌کند.

توده گاوسی

اکنون کوواریانسِ توسعه یافته به سادگی با افزودن  Qk {\color{mediumaquamarine}{\mathbf{Q}_k}} به دست می‌آید. در نتیجه، گام پیش‌بینی را می‌توان به صورت زیر نوشت:

x^k=Fkx^k1+BkukPk=FkPk1FkT+Qk              (7) \large \begin {equation} \begin {split} \color {deeppink} { \mathbf { \hat { x } } _ k } & = \mathbf { F } _ k \color {royalblue} { \mathbf { \hat { x } } _ { k - 1 } } + \mathbf { B } _ k \color {darkorange} { \overrightarrow { \mathbf { u } _ k } } \\ \color {deeppink} { \mathbf { P } _ k } & = \mathbf { F _ k } \color {royalblue} { \mathbf { P } _ { k - 1 } } \mathbf { F } _ k ^ T + \color {mediumaquamarine} { \mathbf { Q } _ k } \end {split} \end {equation} \; \; \; \; \; \; \; (7)

به بیان دیگر، بهترین تخمین جدید، یک پیش‌بینی است که از بهترین تخمین قبلی به اضافه یک تصحیح برای تأثیرات خارجی معلوم تشکیل شده است.

و نامعینی جدید، با افزودن نامعینی اضافه محیط به نامعینی قبلی پیش‌بینی می‌شود.

اکنون تخمینی از سیستم با  x^k \color{deeppink}{\mathbf{\hat{x}}_k} و Pk\color{deeppink}{\mathbf{P}_k} داریم. حال اگر اطلاعاتی از سنسورها داشته باشیم، چه اتفاقی می‌تواند رخ دهد؟

تصحیح تخمین با اندازه‌گیری‌ها

گاهی ممکن است چند سنسور داشته باشیم که اطلاعاتی را درباره حالت سیستم به ما بدهند. ممکن است یک سنسور موقعیت و سنسور دیگر سرعت را اندازه بگیرد. هر سنسور اطلاعات غیرمستقیمی را درباره حالت به ما می‌دهد؛ به عبارت دیگر، سنسورها برای یک حالت به کار رفته و مجموعه‌ای از داده‌ها را تولید می‌کنند.

تصحیح تخمین

توجه کنید که واحدها و مقیاس داده‌های سنسورها ممکن است یکسان نباشد، زیرا واحد حالت‌های مختلف با هم تفاوت دارد. سنسورها را با ماتریس  Hk \mathbf{H}_k مدل می‌کنیم.

تصحیح تخمین

می‌توانیم توزیع داده‌های مورد انتظار سنسورها را به صورت زیر بنویسیم:

μexpected=Hkx^kΣexpected=HkPkHkT              (8) \large \begin {align*} \begin {aligned} \overrightarrow { \mu } _ { \text {expected} } & = \mathbf { H } _ k \color {deeppink} { \mathbf { \hat { x } } _ k } \\ \mathbf { \Sigma } _ { \text {expected} } & = \mathbf { H } _ k \color {deeppink} { \mathbf { P } _ k } \mathbf { H } _ k ^ T \end {aligned} \end {align*} \; \; \; \; \; \; \; (8)

یکی از ویژگی‌های بارز فیلتر کالمن همین مورد است که نویز سنسور را در نظر می‌گیرد. به عبارت دیگر، سنسورها حداقل تا حدی قابلیت اطمینان کمتر از ۱۰۰ درصد دارند و در نتیجه، ممکن است تخمین اولیه به بازه گسترده‌ای از داده سنسورها منجر شود.

تصحیح تخمین

از هر داده‌ای که از سنسور مشاهده می‌کنیم، می‌توانیم حدس بزنیم که سیستم در یک حالت خاص بوده است. اما به دلیل آنکه نامعینی وجود دارد، برخی حالت‌ها محتمل‌تر از سایرین هستند:

نویز تصادفی

کواریانس این نامعینی (یعنی نویز سنسور) را  Rk \color{mediumaquamarine}{\mathbf{R}_k} می‌نامیم. توزیع میانگینی برابر با داده‌ای دارد که از سنسور مشاهده کرده‌ایم و آن را  zk \color{yellowgreen}{\overrightarrow{\mathbf{z}_k}} می‌نامیم.

بنابراین، اکنون دو حباب گوسی داریم: یکی اطراف میانگین پیش‌بینیِ تبدیل شده و یکی اطراف داده سنسور واقعی.

تخمین‌ها

باید سعی کنیم حدسمان درباره داده سنسور را که بر اساس حالت پیش بینی شده (صورتی) دیده‌ایم با یک حدس متفاوت بر اساس قرائتمان از سنسور (سبز) که به صورت واقعی به دست آورده‌ایم، تطبیق دهیم.

اکنون محتمل‌ترین حالت کدام است؟ برای هر قرائت ممکن  (z1,z2) (z_1,z_2) ، دو احتمال متناظر با آن وجود دارد: (۱) احتمال آنکه قرائت سنسور  zk \color{yellowgreen}{\overrightarrow{\mathbf{z}_k}} یک اندازه‌گیری اشتباه از (z1,z2)(z_1,z_2) باشد، و (۲) احتمال آنکه برای تخمین قبلی، (z1,z2)(z_1 , z _ 2) قرائتی است که باید ببینیم.

اگر دو احتمال داشته باشیم و بخواهیم شانس درست بودن هر دو را بدانیم، باید آن‌ها را در یکدیگر ضرب کنیم. بنابراین، هر دو توده گوسی را در هم ضرب می‌کنیم:

ضرب توده‌های گاوسی

آنچه که باقی می‌ماند، همپوشانی ناحیه بین دو حباب است که درخشان‌تر نشان داده شده است و دقت بیشتری نسبت به تخمین‌های قبلی دارد. میانگین این توزیع نوعی پیکربندی است برای دو تخمینی که محتمل‌تر هستند و بنابراین، بهترین تخمین را از اطلاعاتِ در دسترس خواهیم داشت.

در نتیجه، یک حباب گوسی جدید خواهیم داشت:

میانگین و کوواریانس جدید

همان‌طور که گفتیم، وقتی دو حباب گوسی با میانگین‌ها و ماتریس‌های کوواریانس مجزا را در هم ضرب کنیم، یک حباب گوسی جدید با میانگین و ماتریس کواریانس مربوط به آن را داریم. بنابراین، باید فرمولی برای پارامترهای جدید با استفاده از پارامترهای قبلی داشته باشیم.

ترکیب گوسی‌ها

اکنون می‌خواهیم فرمولی را که راجع به آن صحبت کردیم پیدا کنیم. ساده‌ترین مورد، حالت یک‌بعدی است. یک زنگوله گوسی یک‌بعدی را با واریانس σ2 \sigma ^ 2 و میانگین μ \mu در نظر بگیرید:

N(x,μ,σ)=1σ2πe(xμ)22σ2              (9) \large \begin {align*} \mathcal { N } ( x , \mu , \sigma ) = \frac { 1 } { \sigma \sqrt { 2 \pi } } e ^ { - \frac { (x – \mu ) ^ 2 } { 2 \sigma ^ 2 } } \end {align*} \; \; \; \; \; \; \; (9)

می‌‌خواهیم بدانیم با ضرب دو منحنی گوسی در یکدیگر چه اتفاقی می‌افتد. منحنی آبی شکل زیر اشتراک (نرمال نشده) بین دو توزیع گوسی را نشان می‌دهد.

ترکیب گاوسی‌ها

N(x,μ0,σ0)N(x,μ1,σ1)=?N(x,μ,σ)              (10) \large \begin {align*} \mathcal { N } ( x , \color {fuchsia} { \mu _ 0 } , \color {deeppink} { \sigma _ 0 } ) \cdot \mathcal { N } ( x, \color {yellowgreen} { \mu _ 1 } , \color {mediumaquamarine}{ \sigma _ 1 } ) \stackrel { ? } { = } \mathcal { N } ( x , \color {royalblue} { \mu’ } , \color {mediumblue} { \sigma’ } ) \end {align*} \;\;\;\;\;\;\; (10)

با جایگذاری معادله (۹) در معادله (۱۰) و مقداری عملیات جبری، احتمال کلی به دست می‌آید:

μ=μ0+σ02(μ1μ0)σ02+σ12σ2=σ02σ04σ02+σ12              (11) \large \begin {align*} \begin {aligned} \color {royalblue} { \mu’ } & = \mu _ 0 + \frac { \sigma _ 0 ^ 2 ( \mu _ 1 – \mu _ 0 ) } { \sigma _ 0 ^ 2 + \sigma _ 1 ^ 2 } \\ \color {mediumblue} { \sigma’ } ^ 2 & = \sigma _ 0 ^ 2 – \frac { \sigma _ 0 ^ 4 } { \sigma _ 0 ^ 2 + \sigma _ 1 ^ 2 } \end {aligned} \end {align*} \;\;\;\;\;\;\; (11)

با تعریف  k \color{purple}{\mathbf{k}} ، فرمول‌های بالا را به صورت زیر می‌نویسیم:

k=σ02σ02+σ12              (12) \large \begin {align*} \color {purple} { \mathbf { k } } = \frac { \sigma _ 0 ^ 2 }{ \sigma _ 0 ^ 2 + \sigma _ 1 ^ 2 } \end {align*} \;\;\;\;\;\;\; (12)

$$ \large \begin {align*}<br /> \begin {split}<br /> \color {royalblue} { \mu’ } & = \mu _ 0 + & \color {purple} { \mathbf { k } } ( \mu _ 1 – \mu _ 0 ) \\<br /> \color {mediumblue} { \sigma’ } ^ 2 & = \sigma _ 0 ^ 2 – & \color {purple} { \mathbf { k } } \sigma _ 0 ^ 2<br /> \end {split}<br /> \end{align*} \; \; \; \; \; \; \; (13 )$$

اکنون مشاهده می‌کنید که چگونه می‌توان تخمین قبلی را گرفته و چیزی را به آن اضافه کنیم تا یک تخمین جدید ایجاد شود.

حال نسخه ماتریسی معادلات را می‌نویسیم. برای این کار، معادلات (۱۲) و (۱۳) را  به فرم ماتریسی می‌نویسیم. اگر  Σ \Sigma ماتریس کوواریانس یک حباب گوسی و  μ \overrightarrow { \mu} میانگین آن در طول هر محور باشد؛ بنابراین:

K=Σ0(Σ0+Σ1)1              (14) \large \begin {align*} \color {purple} { \mathbf { K } } = \Sigma _ 0 ( \Sigma _ 0 + \Sigma _ 1 ) ^ { - 1 } \end {align*} \;\;\;\;\;\;\; (14)

$$ \large \begin {align*}<br /> \begin {split}<br /> \color {royalblue} { \overrightarrow { \mu}’ } & = \overrightarrow { \mu _ 0 } + & \color {purple} { \mathbf { K } } ( \overrightarrow { \mu _ 1 } – \overrightarrow { \mu _ 0 } ) \\<br /> \color {mediumblue} { \Sigma’ } & = \Sigma _ 0 – & \color {purple} { \mathbf { K } } \Sigma _ 0<br /> \end {split}<br /> \end {align*} \;\;\;\;\;\;\; (15) $$

ترکیب همه موارد با هم

طبق مطالبی که گفتیم، دو توزیع داریم: اندازه‌گیری پیش‌بینی شده با (μ0,Σ0)=(Hkx^k,HkPkHkT) (\color{fuchsia}{\mu_0}, \color{deeppink}{\Sigma_0}) = (\color{fuchsia}{\mathbf{H}_k \mathbf{\hat{x}}_k}, \color{deeppink}{\mathbf{H}_k \mathbf{P}_k \mathbf{H}_k^T}) ، و اندازه‌گیری مشاهده شده با (μ1,Σ1)=(zk,Rk) (\color{yellowgreen}{\mu_1}, \color{mediumaquamarine}{\Sigma_1}) = (\color{yellowgreen}{\overrightarrow{\mathbf{z}_k}}, \color{mediumaquamarine}{\mathbf{R}_k}) . می‌توان این اندازه‌گیری‌ها را در معادله (۱۵) قرار داد و همپوشانی آن‌ها را پیدا کرد:

Hkx^k=Hkx^k+K(zkHkx^k)HkPkHkT=HkPkHkTKHkPkHkT              (16) \large \begin {align*} \begin {aligned} \mathbf { H } _ k \color {royalblue} { \mathbf { \hat { x } } _ k’ } & = \color {fuchsia} { \mathbf { H } _ k \mathbf { \hat { x } } _ k } & + & \color {purple} { \mathbf { K } } ( \color {yellowgreen} { \overrightarrow { \mathbf { z } _ k } } – \color {fuchsia}{ \mathbf { H } _ k \mathbf { \hat { x } } _ k } ) \\ \mathbf { H } _ k \color {royalblue} { \mathbf { P } _ k’ } \mathbf { H } _ k ^ T & = \color {deeppink} { \mathbf { H } _ k \mathbf { P } _ k \mathbf { H } _ k ^ T } & – & \color {purple} { \mathbf { K } } \color {deeppink} { \mathbf { H } _ k \mathbf { P }_ k \mathbf { H } _ k ^ T } \end {aligned} \end{align*} \;\;\;\;\;\;\; (16)

و از رابطه (۱۴)، بهره کالمن برابر است با:

K=HkPkHkT(HkPkHkT+Rk)1              (17) \large \begin {align*} \color {purple} { \mathbf { K } } = \color {deeppink} { \mathbf { H } _ k \mathbf { P } _ k \mathbf { H } _ k ^ T } ( \color {deeppink} { \mathbf { H } _ k \mathbf { P } _ k \mathbf { H } _ k ^ T } + \color {mediumaquamarine} { \mathbf { R } _ k } ) ^ {- 1 } \end {align*} \;\;\;\;\;\;\; (17)

می‌توانیم  Hk \mathbf{H}_k   و HkT \mathbf{H}_k^T را با در نظر گرفتن ملاحظاتی حذف کرده و معادلات نهایی را به صورت زیر بنویسیم:

$$ \large \begin {align*}<br /> \begin {split}<br /> \color {royalblue} { \mathbf { \hat { x } } _ k’ } & = \color {fuchsia} { \mathbf { \hat { x } } _ k } & + & \color {purple}{ \mathbf { K }’ } ( \color {yellowgreen} { \overrightarrow { \mathbf { z } _ k } } – \color {fuchsia} { \mathbf { H } _ k \mathbf { \hat { x } } _ k } ) \\<br /> \color {royalblue} { \mathbf { P } _ k’ } & = \color {deeppink}{ \mathbf { P } _ k } & – & \color {purple} { \mathbf { K }’ } \color {deeppink} { \mathbf { H } _ k \mathbf { P } _ k }<br /> \end {split}<br /> \end {align*} \;\;\;\;\;\;\;\; (18)$$

K=PkHkT(HkPkHkT+Rk)1                (19) \large \begin {align*} \color {purple} { \mathbf { K }’ } = \color {deeppink}{ \mathbf { P } _ k \mathbf { H } _ k ^ T } ( \color {deeppink} { \mathbf { H } _ k \mathbf { P } _ k \mathbf { H } _ k ^ T } + \color {mediumaquamarine} { \mathbf { R } _ k } ) ^ { - 1 } \end{align*} \;\;\;\;\;\;\;\; (19)

روابط اخیر معادلات کامل را برای مرحله به‌روزرسانی نشان می‌دهد. در نتیجه،  x^k \color{royalblue}{\mathbf{\hat{x}}_k’} بهترین تخمین جدید است و می‌توانیم آن را به‌روز کنیم.

شکل زیر، الگوریتم فیلتر کالمن را نشان می‌دهد.

الگوریتم فیلتر کالمن

با توجه به مطالبی که در بالا گفته شد، تمام چیزی که برای پیاده‌سازی نیاز داریم، معادلات (۷)، (۱۸) و (۱۹) هستند. اگر این معادلات را فراموش کنیم، می‌توانیم دوباره همه چیز را از معادلات (۴) و (۱۵) استخراج کنیم. در این صورت می‌توانیم هر سیستم خطی را به صورت دقیق مدل کنیم. برای سیستم‌های غیرخطی، از فیلتر کالمن توسعه یافته استفاده می‌کنیم که به سادگی با خطی‌سازی پیش‌بینی‌ها و اندازه‌گیری‌ها حول میانگینشان کار می‌کند.

اگر این مطلب برای شما مفید بوده است، آموزش‌های زیر نیز به شما پیشنهاد می‌شوند:

^^

بر اساس رای ۹۵ نفر
آیا این مطلب برای شما مفید بود؟
اگر بازخوردی درباره این مطلب دارید یا پرسشی دارید که بدون پاسخ مانده است، آن را از طریق بخش نظرات مطرح کنید.
منابع:
Bzarg
۱۸ دیدگاه برای «فیلتر کالمن — به زبان ساده»

سلام بسیار عالی

سلام. از توضیحتان بسیار ممنونم. آیا ممکن است دربارۀ پیاده سازی فیلتر کالمن در ورژن های جدید برنامۀ متلب (که دارای دستور آمادۀ کالمن هستند.)، توضیح بفرمایید. آیا می توان داده های حسگر را به عنوان بردار کنترلی وارد مسأله کرد؟
بسیار ممنون، عرفانی

من که چیزی سر در نیاوردم:((((
این فرمولای عجیب غریب چیه
چرا یکی بطور ساده این فیلتر رو توضیح نداده

فوق العاده بود بینظیر

سلام.
خوشحالیم که این آموزش برایتان مفید بوده است.
شاد و پیروز باشید.

سلام
مطلب خیلی خوبی بود.
همین که زحمت ترجمه مطلب رو کشیدید خیلی ارزش داره. ولی اگر لینک مطلب اصلی رو هم می گذاشتید هم چیزی از ارزش های شما کم نمی شد و هم امانت رو رعایت کرده بودید.

سلام، وقت شما بخیر؛

منابع کلیه مطالب مجله فرادرس در انتهای آن‌ها و پس از بخش معرفی مطالب و آموزش‌های مرتبط ذکر شده‌اند.

از همراهی شما با مجله فرادرس بسیار سپاسگزاریم.

عالی بود
ممنون

جالب بود

سلام.امکان دانلود این مطلب بصورت pdf یا word هست؟

عالی و کامل بود. ممنون

عالی بود
ممنون

تشکر از بیان بسیار عالی شما. خواهشمندم لطفاً راهنمایی بفرمایید که:
1. مقادیر ماتریس Bk (ماتریس کنترل) و بردار Uk (بردار کنترل) در کاربردهای مختلف چگونه محاسبه می‌شود.
2. نحوه محاسبه Qk (کواریانس نویز).
3. در ماتریس Hk (که فرمودید سنسورها را مدل می‌کند) دقیقاً چه مقایری قرار می‌گیرد.
4. Rk کواریانس نامعینی (یعنی نویز سنسور) چگونه محاسبه می‌شود.
با سپاس فراوان

سلام.
مقادیر ماتریس و بردار کنترل و مقادیر کوواریانس نویز، بستگی به شرایط هر مسأله دارد. ماتریس Hk، ماتریسی با مقادیر صفر و یک است، که حسگر مورد نظر را وارد مسأله می نماید. به طور مثال، اگر تمام مقادیر بردار حالت، اندازه‌گیری شده باشند، ماتریس Hk، ماتریس همانی خواهد بود.
سپاسگزارم

خیلی عالی
تشکر

عالی بود
ممنون

نظر شما چیست؟

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *