الگوریتم های یادگیری عمیق کلیدی را بشناسید – ۱۳ الگوریتم مهم

۲۷۵۸ بازدید
آخرین به‌روزرسانی: ۲۴ اردیبهشت ۱۴۰۲
زمان مطالعه: ۲۵ دقیقه
الگوریتم های یادگیری عمیق کلیدی را بشناسید – ۱۳ الگوریتم مهم

«یادگیری عمیق» (Deep Learning) یکی از شاخه‌های مهم حوزه «هوش مصنوعی» (Artificial Intelligence) محسوب می‌شود که امروزه کاربرد این حوزه را می‌توان در اکثر جنبه‌های زندگی بشر ملاحظه کرد. این حیطه از هوش مصنوعی شامل الگوریتم‌های مختلفی هستند که سیستم‌های کامپیوتری بر اساس آن‌ها می‌توانند بدون نیاز به دخالت انسان، به حل مسائل مختلف بپردازند و به مدیران سازمان‌ها در راستای سوددهی بیشتر، کمک به‌سزایی کنند. در مطلب حاضر، به معرفی پرکاربردترین الگوریتم های یادگیری عمیق پرداخته می‌شود و نحوه عملکرد آن‌ها و مزایا و معایب این الگوریتم‌ها مورد بررسی قرار می‌گیرند.

فهرست مطالب این نوشته

یادگیری عمیق چیست ؟

یادگیری عمیق به عنوان زیرشاخه‌ای از «یادگیری ماشین» (Machine Learning) و هوش مصنوعی محسوب می‌شود که با استفاده از الگوریتم‌های آن می‌توان سیستم‌های هوشمندی را طراحی کرد که برای حل مسائل مختلف، رفتاری مشابه با رفتار انسان را دارند.

مغز انسان از بیلیون‌ها نورون در قالب یک شبکه تشکیل شده است که این نورون‌ها، پردازش‌های مختلفی را بر روی اطلاعاتی انجام می‌دهند که از حس‌های لامسه دریافت می‌شوند تا انسان در نهایت به شناخت، درک و استدلال برسد.

به منظور طراحی الگوریتم های یادگیری عمیق، از مغز انسان الهام گرفته شده است. به عبارتی،‌ الگوریتم های یادگیری عمیق با داشتن ساختار لایه‌ای و وجود چندین «گره‌ | نود» (Node) در هر یک از این لایه‌ها، می‌توانند بدون نیاز به دخالت و نظارت انسان، مسائل مختلف را با استفاده از داده‌های ساختاریافته یا داده‌های غیرساختاریافته یاد بگیرند. از کنار هم قرار گرفتن لایه‌های مختلف که هر کدام دارای چندین گره هستند، «شبکه عصبی» (Neural Network) حاصل می‌شود. داده‌های ورودی در این شبکه جریان پیدا می‌کنند تا با اعمال یک سری پردازش‌ها بر روی آن‌ها، ماشین بتواند مسئله خاصی را یاد بگیرد و همانند انسان به حل آن بپردازد.

مقدمه ای بر الگوریتم های یادگیری عمیق

پیش از آن که به معرفی لیستی از الگوریتم های یادگیری عمیق بپردازیم، در ابتدا بهتر است ساختار و نحوه یادگیری کلی این الگوریتم‌ها به منظور درک بهتر عملکرد آن‌ها شرح داده شوند. در این بخش، مثالی از دیتاست معروف MNIST ارائه کردیم که در مسائل مربوط به پردازش تصویر از آن استفاده می‌شود.

در این دیتاست، تصاویری از حالات مختلف نوشتن اعداد وجود دارد. با این که حالت نوشتن هر یک از این اعداد تا حدی با یکدیگر متفاوت هستند، اما انسان می‌تواند به‌راحتی عدد نوشته شده را تشخیص دهد، زیرا به دفعات زیادی این اعداد را با حالت‌های مختلف نوشته‌ یا با آن‌ها در متون مختلف برخورد کرده است.

دیتاست MNIST
دیتاست MNIST

از آن جا که به منظور طراحی الگوریتم های یادگیری عمیق و نحوه آموزش آن‌ها، از ساختار و عملکرد مغز انسان الهام گرفته شده است، باید داده‌های آموزشی مختلفی نیز برای این الگوریتم‌ها فراهم شود تا بتوانند درباره داده‌های جدید به تصمیم‌گیری بپردازند. در بخش قبل اشاره شد که الگوریتم های یادگیری عمیق بر پایه شبکه عصبی مصنوعی شکل گرفته‌اند. این شبکه‌ها، دارای سه لایه اصلی هستند که دو لایه ابتدا و انتهای آن‌ها ثابت است و تعداد لایه‌های میانی آن‌‌ها بنا به یک سری ویژگی‌ها بیشتر یا کم‌تر می‌شوند.

به دو لایه ابتدایی و انتهایی شبکه عصبی، «لایه ورودی» (Input Layer) و «لایه خروجی» (Output Layer) و به لایه‌های میانی، «لایه‌های پنهان» (Hidden Layer) گفته می‌شود. شبکه‌های عصبی با یک لایه پنهان، «شبکه‌های عصبی مصنوعی» (Artificial Neural Networks) نام دارند و به شبکه‌های عصبی با بیش از یک لایه پنهان، «شبکه‌‌های عصبی عمیق» (Deep Neural Networks) گفته می‌شوند.

تفاوت شبکه های مصنوعی عمیق و غیرعمیق
تفاوت شبکه‌های مصنوعی عمیق و شبکه‌های مصنوعی غیرعمیق

هر یک از گره‌های موجود در لایه‌های شبکه عصبی، مقداری را از ورودی دریافت و آن را در یک مقدار تصادفی (وزن) ضرب و سپس یک مقدار بایاس را به نتیجه حاصل شده اضافه می‌کنند. سپس، مقدار نهایی به یک «تابع فعالسازی» (Activation Function) داده می‌شود تا خروجی نهایی گره محاسبه شود. تصویر زیر، روال محاسبات درون گره‌های شبکه عصبی را نشان می‌دهد.

محاسبات درون نودهای شبکه عصبی
روال محاسبات درون نودهای شبکه عصبی

در مثالی که از دیتاست MNIST ارائه کردیم، ورودی شبکه عصبی می‌تواند «برداری» (Vector) باشد که شامل اطلاعات هر تصویر است. این بردار به لایه ورودی شبکه عصبی داده می‌شود. لایه اول، بدون اعمال محاسبات، اطلاعات ورودی را به لایه بعدی شبکه منتقل می‌کند. در لایه‌های پنهان شبکه عصبی، محاسبات مختلفی بر روی داده‌های ورودی هر لایه اعمال شده و خروجی‌ها به لایه بعد منتقل می‌شوند. این روند تا لایه آخر در شبکه عصبی ادامه پیدا می‌کند تا در نهایت، مدل به تشخیص عدد ورودی شبکه بپردازد.

مثالی از کاربرد شبکه عصبی
مثالی از کاربرد شبکه عصبی

پس از پیش‌بینی مقدار خروجی توسط شبکه عصبی، باید توسط تابعی به نام « تابع زیان | تابع هزینه» (Loss Function | Cost Function)، میزان اختلاف مقدار پیش‌بینی شده توسط مدل و «مقدار هدف» (Target) محاسبه گردد تا بر اساس آن، به‌روزرسانی وزن‌های شبکه عصبی انجام شود. به منظور به‌روزرسانی وزن‌های شبکه عصبی، از روش‌های مختلفی استفاده می‌شوند که یکی از پرکاربردترین روش‌ها، «روش پس انتشار» (Backpropagation) است.

در پی انجام مرحله پس انتشار، با استفاده از محاسبه گرادیان تابع هزینه نسبت به پارامترهای شبکه عصبی، وزن‌های شبکه به‌روزرسانی می‌شوند. سپس، داده آموزشی جدید به شبکه وارد شده و این روند آنقدر تکرار می‌شود تا وزن‌های شبکه عصبی به مقادیری برسند تا با انجام هر بار مرحله پس انتشار، تغییرات بسیار جزئی داشته باشند و تقریباً به مقدار ثابتی برسند. در بخش بعدی مطلب حاضر، به معرفی پرکاربردترین الگوریتم های یادگیری عمیق پرداخته می‌شود.

الگوریتم های یادگیری عمیق

در بخش حاضر، به معرفی رایج‌ترین الگوریتم های یادگیری عمیق پرداخته می‌شود و نحوه کارکرد آن‌ها و مزایا و معایب انواع شبکه های عصبی مصنوعی مورد بررسی قرار می‌گیرند. این الگوریتم‌ها در ادامه فهرست شده‌اند:

  1. مدل «پرسپترون چند لایه» (Multi Layer Perceptron | MLP)
  2. «شبکه پیش خور» (Feed-Forward Neural Network | FNN)
  3. شبکه عصبی «تابع پایه شعاعی» (Radial Basis Function Neural Network | RBFN)
  4. «شبکه عصبی پیچشی» (Convolutional Neural Network)
  5. «شبکه عصبی بازگشتی» (Recurrent Neural Network)
  6. «شبکه عصبی با حافظه طولانی کوتاه مدت» (Long Short-Term Memory | LSTM)
  7. «شبکه مولد تخاصمی» (Generative Adversarial Network | GAN)
  8. مدل «ترسیم خودسازمان دهنده» (Self Organizing Map | SOM)
  9. مدل «ماشین بولتزمن محدود شده» (Restricted Boltzmann Machine | RBM)
  10. مدل «خودرمزگذار» (Autoencoder)
  11. «مدل باور عمیق» (Deep Belief Network | DBN)
  12. «مدل‌های رمزگذار-رمزگشا» (Encoder-Decoder Models)
  13. «شبکه‌ عصبی ماژولار» (Modular Neural Network)

۱. مدل پرسپترون چند لایه

«مدل پرسپترون چند لایه» (Multi Layer Perceptron | MLP)، به عنوان یکی از پایه‌ای‌ترین و قدیمی‌ترین الگوریتم های یادگیری عمیق به شمار می‌رود. این مدل، اولین مدلی است که به علاقه‌مندان تازه‌کار به حوزه یادگیری عمیق آموزش داده می‌شود. از این مدل نیز می‌توان به عنوان نوع خاصی از شبکه‌های پیش خور یاد کرد.

الگوریتم یادگیری عمیق پرسپترون چند لایه چگونه کار می کند ؟

اولین لایه در الگوریتم یادگیری عمیق پرسپترون چند لایه، ورودی‌های شبکه را دریافت و آخرین لایه نیز خروجی شبکه را مشخص می‌کند. تعداد گره‌های هر لایه در شبکه پرسپترون چند لایه با یکدیگر برابر است و هر گره به تمامی گره‌های لایه بعدی متصل است. در ابتدا، مقدار وزن‌های این شبکه به‌صورت تصادفی مقداردهی اولیه می‌شوند.

سپس، وزن‌ها و بردار ورودی‌ها به گره‌ها ارسال شده تا با اعمال یک سری عملیات محاسباتی و عبور از توابع فعال‌سازی، خروجی گره محاسبه و به لایه بعد منتقل شود. توابع فعال‌سازی رایج و پرکاربرد در الگوریتم پرسپترون چند لایه، توابع Sigmoid ،ReLU و Tanh هستند.

مدل چندلایه پرسپترون MLP
مدل پرسپترون چند لایه MLP

در لایه نهایی شبکه نیز پس از تعیین مقادیر خروجی، مقدار خطای شبکه محاسبه و سپس از مرحله «پس انتشار | انتشار رو به عقب» (Backpropagation) به منظور به‌روزرسانی وزن‌های شبکه استفاده می‌شود. این روند یادگیری آزمون و خطا آن‌قدر تکرار می‌شود تا مقادیر وزن‌های شبکه به مقادیر تقریباً ثابتی برسند. در تصویر بالا، نمونه‌ای از مدل پرسپترون چند لایه برای مسئله دسته‌بندی تصاویر دیده می‌شود.

کاربردهای مدل پرسپترون چند لایه چیست ؟

از مدل پرسپترون چند لایه می‌توان در مسائل مختلف دسته‌بندی بهره برد. در سایت‌های اجتماعی نظیر اینستاگرام و فیس‌بوک از این الگوریتم یادگیری عمیق به منظور فشرده‌سازی داده‌های تصویری استفاده می‌شود. همچنین، در مسائلی نظیر تشخیص گفتار و تشخیص تصاویر نیز می‌توان از این مدل شبکه عصبی استفاده کرد.

مزایا و معایب شبکه عصبی پرسپترون چند لایه چیست ؟

یکی از مزیت‌های شبکه عصبی چند لایه پرسپترون این است که از این مدل می‌توان برای مسائل پیچیده غیرخطی استفاده کرد. به‌علاوه، این مدل عملکرد خوبی در مسائلی دارد که میزان حجم داده‌های مسئله، کم است. همچنین، مدت زمان پیش‌بینی مقدار خروجی مدل برای داده جدید، پایین است.

به دلیل وجود اتصال کامل هر گره با گره‌های لایه بعد در ساختار مدل پرسپترون چند لایه، پارامترهای این مدل زیاد است و بنابراین پیچیدگی محاسباتی این شبکه زیاد است و به زمان محاسبات بالایی احتیاج دارد. همچنین، در این مدل نمی‌توان به‌راحتی به میزان تاثیر متغیرهای وابسته بر روی متغیرهای مستقل پی‌ برد.

۲. شبکه عصبی پیشخور چیست ؟

شبکه عصبی پیشخور (Feed-Forward Neural Network | FNN) یکی از الگوریتم های یادگیری عمیق محسوب می‌شود که از چندین لایه متوالی تشکیل شده است. تنها تفاوت این مدل با مدل پرسپترون چند لایه در این است که تعداد گره‌های هر لایه در FNN می‌تواند متفاوت از تعداد گره‌های لایه‌های دیگر باشد.

الگوریتم یادگیری عمیق FNN چگونه کار می کند ؟

گره‌های هر لایه در شبکه عصبی FNN به تمامی گره‌های لایه بعد خود متصل هستند. هر لایه در این مدل، پس از اعمال پردازش‌های محاسباتی بر روی ورودی‌های خود، خروجی حاصل شده را در قالب بردار، به لایه بعد منتقل می‌کند. بر اساس میزان پیچیدگی مسئله، تعداد لایه‌های پنهان این مدل می‌تواند یک لایه یا بیش از یک لایه باشد. در تصویر زیر، نمونه‌ای از شبکه عصبی FNN ملاحظه می‌شود.

شبکه عصبی پیش خور FNN
شبکه عصبی پیش خور (FNN)

کاربردهای مدل FNN چیست ؟

معمولاً از مدل FNN برای کاهش ابعاد و تغییر ابعاد خروجی‌های سایر شبکه‌ها نظیر شبکه CNN نیز استفاده می‌شود. همچنین، این مدل در شناسایی الگو، تشخیص کاراکترهای داده‌های متنی، بینایی ماشین و بازشناسی گفتار نیز کاربرد دارد.

 

مزایا و معایب شبکه عصبی FNN چیست ؟

مزیت اصلی شبکه عصبی FNN در این است که بار محاسباتی کمی دارد و همین امر سبب می‌شود مدت زمان یادگیری مدل در مقایسه با سایر الگوریتم های یادگیری عمیق کم باشد. همچنین، پیاده‌سازی این مدل به‌سادگی انجام می‌شود و افراد تازه‌کار در حوزه یادگیری عمیق می‌توانند به‌سادگی از آن استفاده کنند.

یکی از مهم‌ترین معایب مدل FNN این است که برای رسیدن به دقت بالا، به حجم داده زیادی احتیاج دارد. فراهم کردن داده‌های آموزشی برچسب‌دار با حجم بالا، زمان‌بر است و هزینه مالی زیادی در پی دارد. به‌علاوه،‌ ممکن است در حین یادگیری این مدل، دو مسئله «محوشدگی گرادیان» (Vanishing Gradient) و «انفجار گرادیان» (Exploding Gradient) اتفاق بیفتد. محوشدگی گرادیان به شرایطی اطلاق می‌شود که مدل دارای لایه‌های پنهان زیادی است و در حین به‌روزرسانی وزن‌های شبکه، مقدار گرادیان تابع هزینه به صفر نزدیک‌تر می‌شود. در پی این رخداد، فرآیند یادگیری شبکه عصبی دشوار است.

انفجار گرادیان به وضعیتی گفته می‌شود که مقادیر گرادیان خطا روی هم انباشته شوند و مقادیر حاصل شده، اعداد بزرگی شوند. همین امر منجر به ناپایداری شبکه خواهد شد و یادگیری شبکه به‌درستی انجام نمی‌شود.

۳. شبکه عصبی تابع پایه شعاعی

«مدل تابع پایه شعاعی» (Radial Basis Function Neural Network | RBFN) را می‌توان نوعی از مدل چند لایه پرسپترون تلقی کرد. تنها تفاوت ساختار این مدل با شبکه عصبی چند لایه پرسپترون، در تعداد لایه‌های آن است. به عبارتی، این شبکه عصبی تنها از سه لایه تشکیل شده است و تنها یک لایه پنهان دارد.

الگوریتم یادگیری عمیق RBFN چگونه کار می کند ؟

لایه پنهان شبکه عصبی تابع پایه شعاعی بر پایه الگوریتم k-means کار می‌کند که یکی از الگوریتم‌های «نظارت نشده» (Unsupervised Learning) یادگیری ماشین محسوب می‌شود. به عبارتی، این لایه الگوهای داده‌های آموزشی را در خود ذخیره می‌کند و در مرحله تست، با در نظر گرفتن شباهت ویژگی داده جدید با ویژگی‌های داده‌های آموزشی، به تعیین مقدار هدف می‌پردازد. در ادامه، تصویری از شبکه عصبی RBFN نشان داده شده است.

الگوریتم یادگیری عمیق RBFN
شبکه عصبی RBFN

کاربردهای مدل RBFN چیست ؟

از مدل تابع پایه شعاعی می‌توان در مسائل مختلف دسته‌بندی و مخصوصاً در موضوعات مرتبط با «تحلیل سری‌های زمانی» (Time Series Analysis) نظیر تحلیل قیمت‌های بازار سهام، پیش‌بینی قیمت‌های فروش فصلی، تشخیص گفتار، تشخیص‌های پزشکی، تشخیص تصاویر و مسائلی از این قبیل استفاده کرد.

 

مزایا و معایب شبکه عصبی RBFN چیست ؟

کم بودن تعداد لایه‌های مدل تابع پایه شعاعی به عنوان یکی از مزیت‌های اصلی آن محسوب می‌شود، زیرا بار محاسباتی این مدل در مقایسه با مدل چند لایه پرسپترون بسیار کم‌تر می‌شود و درنتیجه این مدل، به زمان یادگیری کم‌تری احتیاج خواهد داشت. همچنین، نقش دقیق لایه پنهان این مدل در مقایسه با سایر مدل‌ها مشخص است.

اگرچه زمان یادگیری مدل تابع پایه شعاعی در مقایسه با شبکه عصبی چند لایه پرسپترون کم‌تر است، با این حال، در زمان تست، داده جدید با داده‌های آموزشی مقایسه و بر اساس ویژگی‌های مشترکشان، نوع «دسته» (Class) داده جدید مشخص می‌شود. هر چه تعداد داده‌های آموزشی مدل بیشتر باشد، زمان مقایسه و سنجش میزان شباهت داده جدید با کلیه داده‌های آموزشی بیشتر می‌شود. بدین‌ ترتیب، این مدل در مقایسه با لایه پرسپترون چند لایه به زمان بیشتری برای تصمیم‌گیری درباره «مقدار هدف» (Target) داده‌های تست احتیاج دارد.

۴. شبکه عصبی پیچشی

«شبکه عصبی پیچشی» (Convolutional Neural Network | CNN) یا شبکه عصبی کانولوشن یکی از الگوریتم های یادگیری عمیق است که با عنوان ConvNet نیز شناخته می‌شود. این مدل از چندین لایه تشکیل شده است و معمولاً در مسائل پردازش تصویر و تشخیص اشیاء کاربرد دارد. در سال 1988 اولین نوع شبکه عصبی پیچشی با عنوان LeNet ارائه شد که از این مدل در تشخیص کاراکترهای کد پستی و ارقام تصاویر استفاده می‌کردند.

مدل شبکه عصبی پیچشی چگونه کار می کند ؟

شبکه عصبی پیچشی از سه لایه اصلی تشکیل شده است. وظیفه اصلی این مدل این است که از داده‌های ورودی، ویژگی استخراج کند.

به عبارتی، داده‌های ورودی با گذر از لایه‌های مدل پیچشی، به بردارهای ویژگی با ابعاد پایین تبدیل می‌شوند.

الگوریتم یادگیری عمیق CNN
شبکه عصبی CNN

سه لایه شبکه عصبی پیچشی عبارت‌اند از:

  • «لایه پیچشی» (Convolution Layer): این لایه، مهم‌ترین لایه در شبکه عصبی پیچشی است که به عنوان لایه فیلتر (یا کرنل) محسوب می‌شود. فیلتر‌ها شامل پارمترهایی هستند که مقادیر آن‌ها در حین آموزش شبکه، به‌روزرسانی می‌شوند. معمولاً اندازه فیلترها کم‌تر از ابعاد داده‌های ورودی هستند. ابعاد تمامی داده‌های ورودی این لایه باید یکسان باشند. با اعمال یک سری محاسبات ریاضی بر روی داده‌های ورودی و وزن‌های این لایه،‌ خروجی حاصل شده به لایه بعدی شبکه عصبی پیچشی منتقل می‌شود.
  • «لایه فشرده‌ساز» (Pooling Layer): معمولاً ابعاد خروجی لایه پیچشی بزرگ است. به منظور کاهش بعد خروجی لایه پیچشی، از یک لایه فشرده‌ساز استفاده می‌شود. لایه فشرده‌ساز می‌توانند از روش‌های مختلفی برای کاهش ابعاد داده‌های ورودی خود استفاده کند. به عنوان مثال، لایه «فشرده‌ساز بیشینه» (Max Pooling) بر اساس یافتن بزرگ‌ترین مقدار، ابعاد داده‌ها را کاهش می‌دهد. لایه فشرده‌ساز می‌تواند بر اساس پیدا کردن میانگین مقادیر نیز، داده‌های ورودی را فشرده کند. خروجی این لایه، ماتریسی از مقادیر است.
  • «لایه تمام متصل» (Fully Connected Layer): از آنجایی که خروجی لایه فشرده‌ساز در قالب ماتریس است، از یک لایه تمام متصل بعد از لایه فشرده‌ساز در شبکه عصبی پیچشی استفاده می‌شود تا مقادیر ماتریس، در قالب یک بردار قرار گیرند و بتوان از این بردار در لایه‌های بعدی شبکه عصبی استفاده کرد.

کاربردهای مدل عصبی پیچشی چیست ؟

از مدل عصبی پیچشی معمولاً در موضوعات پیرامون پردازش تصویر نظیر تشخیص اشیاء و تشخیص چهره استفاده می‌شود. در شبکه‌های اجتماعی نظی اینستاگرام و فیس‌بوک از مدل عصبی پیچشی استفاده شده است. به عبارتی، کاربرد این نوع الگوریتم یادگیری عمیق را می‌توان زمانی مشاهده کرد که کاربران این شبکه‌های اجتماعی، دوستان خود را بر روی تصاویر مختلف تگ می‌کنند.

از شبکه عصبی پیچشی در سایر مسائل نظیر تحلیل داده‌های ویدئویی و «پردازش زبان طبیعی» (Natural Language Processing | NLP) نیز استفاده می‌شود. به عنوان مثال،‌ در مسائل پردازش زبان از این مدل می‌توان به منظور تشخیص و یادگیری کاراکترهای کلمات استفاده کرد.

مزایا و معایب شبکه عصبی پیچشی چیست ؟

مزیت اصلی شبکه عصبی پیچشی، دقت بالای آن در مسائل مربوط به پردازش تصاویر است. به عبارتی،‌ این مدل در مقایسه با سایر الگوریتم های یادگیری عمیق در موضوعات مرتبط با تصاویر از عملکرد بهتری برخودار است.

همچنین، از این مدل می‌توان برای استخراج ویژگی از داده‌های ورودی استفاده و از داده‌هایی با ابعاد بالا، ویژگی‌هایی با تعداد ابعاد محدود استخراج کرد. پردازش سنگین از مهم‌ترین معایب شبکه عصبی پیچشی محسوب می‌شود. هر چه تعداد لایه‌های فیلتر این شبکه بیشتر شود، تعداد پارامترهای مدل نیز افزایش می‌یابد. بدین‌ترتیب، بار محاسباتی این مدل در زمان آموزش بیشتر می‌شود و به زمان طولانی‌تری برای آموزش احتیاج است.

۵. شبکه عصبی بازگشتی

یکی از الگوریتم های یادگیری عمیق که دارای حافظه درونی هستند، «مدل عصبی بازگشتی» (Recurrent Neural Network | RNN) است. پیش‌فرض سایر الگوریتم های یادگیری عمیق این است که بین داده‌های ورودی شبکه، هیچ گونه وابستگی وجود ندارد و داده‌ها از هم مستقل هستند. شبکه عصبی بازگشتی با داشتن یک حافظه درونی، مناسب مسائلی هستند که داده‌های ورودی آن‌ها به یکدیگر وابسته است و باید به ترتیب ورودی این داده‌ها توجه شود. مدل RNN از حافظه درونی خود برای نگهداری داده‌‌های ورودی قبلی استفاده می‌کند تا بر اساس آن‌ها به یادگیری داده جدید بپردازد.

از مسائل پیرامون پردازش زبان طبیعی می‌توان به عنوان موضوعاتی یاد کرد که مدل‌های عمیق بازگشتی، روشی مناسب برای پیاده‌سازی آن‌ها هستند. به عبارتی، مدل برای یادگیری داده‌های متنی، باید به ترتیب قرارگیری کلمات در جملات توجه کند. پیش‌بینی وضعیت بورس و سهام و پیش‌بینی وضعیت آب و هوا نیز می‌توانند از دیگر مسائلی باشند که با شبکه عصبی بازگشتی پیاده‌سازی می‌شوند.

 

الگوریتم یادگیری عمیق بازگشتی چگونه کار می کند ؟

مدل عمیق بازگشتی از یک سری گره‌های متصل جهت‌دار تشکیل شده است که یک حلقه را شکل می‌دهند. اگر مسائل سری زمانی را در نظر بگیریم که در زمان t، داده‌ای به مدل عصبی بازگشتی وارد می‌شود، خروجی داده در زمان t، به همراه داده جدید در زمان t+1 به عنوان ورودی به مدل وارد می‌شوند. بدین‌ترتیب، در زمان t+1‌ برای پردازش داده جدید، مدل به اطلاعاتی از داده‌های قبلی خود نیز دسترسی دارد.

مدل RNN
کاربرد مدل RNN در موتورهای جستجوی گوگل

کاربردهای شبکه عصبی RNN چیست ؟

از شبکه عصبی بازگشتی برای مسائل مختلف مبتنی بر سری زمانی نظیر پردازش زبان طبیعی استفاده می‌شود که ورودی‌های شبکه به هم وابسته هستند. به عنوان مثال، موتورهای جستجوی شرکت گوگل از این مدل برای پیشنهاد کلمات به کاربران استفاده می‌کنند. به عبارتی، زمانی که کاربر قصد دارد عبارتی را در سایت گوگل جستجو کند تا سایت‌های مرتبط با آن عبارات کلیدی را مشاهده کند، موتور جستجوی گوگل برای تکمیل عبارت کلیدی کاربر، کلماتی را به او پیشنهاد می‌کند.

مزایا و معایب شبکه عصبی بازگشتی چیست ؟

یکی از نقاط ضعف اصلی شبکه‌های عصبی اولیه این بود که هیچ گونه وابستگی بین ورودی‌های شبکه در نظر نمی‌گرفتند. به همین خاطر، این نوع شبکه‌ها کارایی خوبی برای مسائلی از نوع سری زمانی نداشتند. شبکه عصبی بازگشتی با داشتن یک حافظه درونی، ترتیب داده‌های قبلی را درون خود حفظ و از آن‌ها برای یادگیری داده ورودی جدید استفاده می‌کند.

یکی دیگر از مزیت‌های شبکه عصبی بازگشتی این است که ورودی‌هایی با طول متفاوت را دریافت می‌کنند. سایر شبکه‌های عصبی فقط ورودی‌هایی با طول‌های یکسان را دریافت می‌کردند. این نوع شبکه‌ها برای یادگیری مسائلی نظیر پردازش زبان طبیعی مناسب نیستند، زیرا طول جملات زبان طبیعی متفاوت هستند. ساختار حلقه‌ای شبکه‌های عصبی بازگشتی برای یادگیری این نوع مسائل مناسب است.

مدل‌های RNN به دلیل داشتن ساختار حلقه‌ای، به زمان بیشتری برای انجام محاسبات در زمان یادگیری احتیاج دارند. این موضوع به عنوان یکی از معایب این نوع از الگوریتم های یادگیری عمیق محسوب می‌شود.

به‌علاوه، زمانی که طول داده‌های ورودی در زمان آموزش مدل بسیار زیاد می‌شود و از توابع فعال‌سازی ReLU و Tanh در مدل عمیق بازگشتی استفاده شده باشد، احتمال رخداد «محوشدگی گرادیان» (Vanishing Gradient) و «انفجار گرادیان» (Exploding Gradient) بالا می‌رود.

۶. شبکه عصبی با حافظه طولانی کوتاه مدت

شبکه عصبی «با حافظه طولانی کوتاه مدت» (Long Short-Term Memory | LSTM) به عنوان یکی دیگر از الگوریتم های یادگیری عمیق شناخته می‌شوند که دارای حافظه درونی هستند. این نوع شبکه‌ها، نوعی از شبکه‌های عصبی RNN‌ محسوب می‌شوند که می‌توانند داده‌هایی با طول بیشتر را یاد بگیرند.

مدل LSTM چگونه کار می کند ؟

مدل LSTM نیز ساختار حلقه‌ای دارد و به ازای تعداد اجزای داده ورودی، عمل یادگیری و پردازش داده‌ها تکرار می‌شود. شبکه عصبی LSTM داده‌های غیرمرتبط و بی‌اهمیت قبلی را در زمان پردازش داده جدید حذف می‌کند و تنها اطلاعات مهم داده‌های قبلی را در حافظه خود نگه می‌دارد.

چنانچه نیاز به به‌روزرسانی اطلاعات قبلی نیز باشد، این کار توسط توابع درون این شبکه انجام می‌شود.

الگوریتم یادگیری عمیق LSTM
ساختار داخلی مدل LSTM

کاربردهای مدل LSTM چیست ؟

از شبکه عصبی LSTM نیز همانند مدل RNN در مسائلی استفاده می‌شود که داده‌های ورودی به هم وابسته هستند. در پیاده‌سازی الگوریتم های یادگیری عمیق پیرامون موضوعات مرتبط با سری‌های زمانی و پردازش زبان طبیعی می‌توان از این نوع شبکه بهره گرفت.

مزایا و معایب شبکه عصبی LSTM چیست ؟

مزیت‌های مدل LSTM مشابه با مزیت شبکه عصبی RNN است و علاوه‌بر ویژگی‌های RNN، این مدل می‌تواند داده‌هایی با طول بیشتر را نیز بهتر از مدل RNN یاد بگیرد.

حجم محاسباتی و زمان بالا برای یادگیری از معایب مدل LSTM محسوب می‌شوند. همچنین، احتمال بروز رویداد «بیش برازش» (Overfitting) در مدل LSTM بالاست و باید از روش‌های مختلفی برای جلوگیری از این رخداد استفاده کرد.

۷. شبکه مولد تخاصمی

یکی دیگر از الگوریتم های یادگیری عمیق، «شبکه مولد تخاصمی» (Generative Adversarial Network | GAN) است که از آن برای تولید نمونه‌های جدیدی از داده‌ها استفاده می‌شود که مشابه با داده‌های آموزشی باشند.

شبکه GAN‌ یکی از الگوریتم های یادگیری عمیق نظارت نشده محسوب می‌شود که تنها با در اختیار داشتن داده‌های آموزشی و بدون نیاز به برچسب‌، به یادگیری الگوهای آن‌ها می‌پردازد.

 

الگوریتم یادگیری عمیق GAN چگونه کار می کند ؟

مدل GAN از دو شبکه عصبی تشکیل شده است که در ادامه به کاربرد هر یک از آن‌ها اشاره شده است:

  • «شبکه مولد» (Generator Network): این شبکه عصبی سعی دارد نمونه‌هایی را تولید کند که مشابه با داده‌های آموزشی واقعی باشند.
  • «شبکه تمیزدهنده» (Discriminator Network): این شبکه مسئولیت ارزیابی نمونه‌های تولید شده توسط شبکه مولد را بر عهده دارد و مشخص می‌کند آیا داده ورودی متعلق به داده‌های واقعی هستند یا توسط شبکه مولد تولید شده‌اند.
الگوریتم یادگیری عمیق GAN
شبکه مولد تخاصمی GAN

هر دو شبکه مولد و تمیزدهنده در حین یادگیری سعی دارند عملکرد بهتری نسبت به یکدیگر داشته باشند. به عبارتی،‌ شبکه مولد با در نظر گرفتن خروجی شبکه تمیزدهنده سعی می‌کند نمونه‌های تولیدی خود را به داده‌های واقعی بیشتر شبیه کند تا شبکه تمیزدهنده قادر نباشد نمونه‌های تولید شده را از داده‌های واقعی تشخیص دهد. شبکه تمیزدهنده نیز سعی دارد داده‌های واقعی و داده‌های ساخته شده (جعلی) را به‌خوبی از هم تشخیص دهد.

کاربردهای مدل GAN چیست ؟

از شبکه عصبی GAN در بازی‌های کامپیوتری به منظور افزایش کیفیت تصاویر استفاده می‌شود. همچنین، کاربردهای دیگر این مدل را می‌توان در ویرایش تصاویر، تولید تصاویر جعلی که به تصاویر واقعی شباهت زیاد دارند، تولید متون مختلف علمی و غیرعلمی و سایر موارد مشابه ملاحظه کرد.

مزایا و معایب شبکه عصبی GAN چیست ؟

مدل GAN مبتنی بر رویکرد یادگیری بدون نظارت است. بنابراین، برای آموزش این مدل نیازی به فراهم کردن داده‌های آموزشی برچسب‌دار نیست. همین امر، زمان آماده‌سازی داده‌های مورد نیاز شبکه GAN را به‌طرز چشم‌گیری کاهش می‌دهد.

یکی از معایب این شبکه این است که نمی‌توان برای ارزیابی نمونه‌های تولید شده، معیار مشخصی را تعریف کرد. به عبارتی، نمی‌توان به‌طور دقیق میزان دقت مدل را سنجید. همچنین، میزان بار محاسباتی و زمان یادگیری این مدل بالا است و نحوه استفاده از این مدل برای تولید متن و صوت بسیار پیچیده‌تر از داده‌های تصویری است.

۸. مدل ترسیم خودسازمان دهنده چیست ؟

یکی از الگوریتم های یادگیری عمیق که برای مدل‌سازی داده‌ها با ابعاد بالا استفاده می‌شود، مدل ترسیم خودسازمان دهنده یا SOM است. زمانی که حجم عظیمی از داده‌ها را در اختیار داشته باشید که هر کدام از آن‌ها، دارای ویژگی‌های زیادی هستند، به منظور درک بهتر روابط بین ویژگی‌ها نمی‌توان به‌راحتی از ابزارهای عادی مصورسازی داده نظیر «نمودار پراکندگی» (Scatter Plot) استفاده کرد.

در این حالت، بهترین روش نمایش ویژگی‌ها، استفاده از مدل SOM است. این مدل برای تصویرسازی ویژگی‌ها، ابعاد داده‌ها را کاهش می‌دهد و ویژگی‌های غیرمرتبط را حذف می‌کند.

الگوریتم یادگیری عمیق SOM چگونه کار می کند ؟

مدل SOM داده‌های مشابه را دسته‌بندی می‌کند و آن‌ها را به‌شکل داده‌های یک‌ بعدی یا دو بعدی به نمایش در می‌آورد. نحوه عملکرد این مدل، مشابه با سایر الگوریتم های یادگیری عمیق است. در ابتدای زمان یادگیری مدل، وزن‌های شبکه به‌صورت تصادفی مقداردهی اولیه می‌شوند و در هر گام از یادگیری شبکه، یک داده آموزشی جدید به مدل ارسال و میزان شباهت آن با سایر داده‌ها سنجیده می‌شود.

مدل Self Organizing Map
شبکه عمیق SOM

مدل SOM دارای بخشی به نام «واحد بهترین انطباق» (Best-Matching Unit | BMU) است که نزدیک‌ترین داده آموزشی به نمونه انتخاب شده را مشخص می‌کند و پس از به‌روزرسانی بردار وزن‌های آن، فاصله سایر داده‌های آموزشی مشابه به نمونه جدید نیز کمتر می‌شود. با تکرار این روال یادگیری، داده‌های مشابه در فضای دو بعدی در مجاورت هم قرار خواهند گرفت.

 

کاربردهای مدل SOM چیست ؟

در تحلیل تصاویر و مانیتورینگ پردازش‌ها و کنترل آن‌ها می‌توان از مدل SOM‌ استفاده کرد. همچنین، از این مدل می‌توان برای مدل‌سازی سه بعدی مغز انسان بهره گرفت و با استفاده از آن تصویرسازی‌های دقیقی از مغز انسان ایجاد کرد که در امور پزشکی از اهمیت بالایی برخوردار هستند.

مزایا و معایب شبکه عصبی SOM چیست ؟

تفسیر و درک داده‌ها با استفاده از مدل SOM ساده می‌شود که همین امر به عنوان یکی از مهم‌ترین مزیت‌های این مدل به حساب می‌آید. به‌علاوه، از آنجایی که این مدل ابعاد داده‌ها را کاهش می‌دهد، می‌توان به‌راحتی داده‌های مشابه را با ابعاد کم‌تر مصورسازی کرد.

به عنوان یکی از اصلی‌ترین معایب مدل SOM می‌توان به این نکته اشاره کرد که این مدل یادگیری عمیق برای مسائلی که حجم داده آموزشی آن‌ها خیلی کم یا خیلی زیاد است، مناسب نیست، زیرا مدل نمی‌تواند اطلاعات دقیقی را در خروجی به تصویر بکشد.

۹. مدل ماشین بولتزمن محدود شده

مدل RBM یکی از الگوریتم های یادگیری عمیق قدیمی محسوب می‌شود که در سال 1986 توسط «جفری هینتون» (Geoffrey Hinton) ارائه شد. این مدل برای یادگیری مسائل از رویکرد بدون نظارت تبعیت می‌کند و نیازی به داده‌های آموزشی برچسب‌دار ندارد. اگر ویدئویی را در سایت «یوتیوب» (YouTube) جستجو کرده باشید، متوجه می‌شوید که این سایت، ویدئوهای مشابه آن را به شما پیشنهاد می‌دهد. مدل به کار رفته در این سایت برای پیشنهاد دادن ویدئوهای مشابه با ویدئوی منتخب شما، مدل RBM است.

الگوریتم یادگیری عمیق RBM چگونه کار می کند ؟

شبکه عصبی RBM از دو لایه تشکیل شده است. لایه اول این مدل، لایه ورودی است که لایه «مرئی» نیز نامیده می‌شود. لایه دوم RBM لایه پنهان شبکه است. هدف از این شبکه، به نوعی کدگذاری داده‌های ورودی در مرحله «رو به جلو» (Forward) است.

مدل ماشین بولتزمن محدود شده
مدل ماشین بولتزمن محدود شده (RBM)

در مرحله «رو به عقب» (Backward) مدل سعی دارد خروجی‌ای تولید کند که با داده ورودی مشابهت داشته باشد. به عبارتی، می‌توان گفت داده ورودی کدگذاری شده در مرحله رو به جلو، در روند رو به عقب کدگشایی می‌شود. روند یادگیری شبکه آنقدر تکرار می‌شود تا داده‌های ورودی با خروجی‌های مدل بیشترین شباهت را داشته باشند.

کاربردهای مدل RBM چیست ؟

همان طور که در بخش معرفی مدل RBM اشاره شد، از این شبکه عصبی برای ارائه پیشنهادات مشابه با آیتم‌های جستجو شده توسط کاربر استفاده می‌شود. همچنین، کاربردهای دیگر این مدل را می‌توان در مسائلی نظیر استخراج ویژگی در «بازشناسی الگو» (Pattern Recognition)، «موتورهای پیشنهاد دهنده» (Recommendation Engines)، مسائل دسته‌بندی و «مدل‌سازی موضوع» (Topic Modeling) ملاحظه کرد.

مزایا و معایب شبکه عصبی RBM چیست ؟

از آنجایی که مدل ماشین بولتزمن محدود شده از رویکرد نظارت نشده برای یادگیری مسائل استفاده می‌کند، نیازی به صرف وقت اضافی برای تهیه برچسب‌های داده‌های آموزشی آن نیست. بدین ترتیب، در زمان حل مسئله صرفه‌جویی به‌سزایی می‌شود. به‌علاوه، بار محاسباتی و زمان آموزش این مدل در مقایسه با سایر الگوریتم های یادگیری عمیق کم است، زیرا این مدل ساختاری ساده و تعداد لایه‌های محدود دارد.

مدل RBM برای به‌روزرسانی وزن‌های شبکه در مرحله رو به عقب از الگوریتمی استفاده می‌کند که در مقایسه با الگوریتم پس انتشار به کار رفته در سایر مدل‌های یادگیری عمیق، عملکرد ضعیف‌تری دارد و همین امر در پیدا کردن وزن‌های مناسب شبکه تاثیرگذار است.

۱۰. مدل خودرمزگذار

مدل خودرمزگذار (Autoencoder) به عنوان یکی از الگوریتم های یادگیری عمیق تلقی می‌شود که از رویکرد نظارت نشده برای یادگیری داده‌های آموزشی استفاده می‌کند. هدف این نوع مدل، تولید خروجی‌هایی است که مشابه با ورودی‌های خود باشد.

الگوریتم یادگیری عمیق Autoencoder چگونه کار می کند ؟

مدل Autoencoder از سه بخش اصلی «رمزگذار» (Encoder)، «کد» (Code) و «رمزگشا» (Decoder) ساخته شده است که در ادامه به توضیح هر بخش پرداخته می‌شود:

  • بخش رمزگذار: بخش رمزگذار، داده‌ها را از ورودی دریافت و آن‌ها را فشرده می‌کند. این عملیات فشرده‌سازی به نحوی انجام می‌شود که بتوان داده فشرده شده را در بخش رمزگشا به حالت اولیه خود بازگرداند.
  • بخش کد: به داده فشرده توسط بخش رمزگذار، کد گفته می‌شود که ورودی بخش رمزگشا است.
  • بخش رمزگشا: بخش رمزگشا کد دریافت شده را رمزگشایی می‌کند تا داده اصلی بازگردانده شود.
مدل خودرمزگذار Autoencoder (یکی از الگوریتم های یادگیری عمیق)
مدل خودرمزگذار (Autoencoder)

کاربردهای مدل Autoencoder چیست ؟

یکی از کاربردهای مهم مدل Autoencoder، کاهش ابعاد داده‌ها است. به عبارتی، از این مدل می‌توان برای فشرده‌سازی داده‌ها استفاده کرد و مدل می‌تواند در هر زمان که کاربر به داده اصلی احتیاج دارد، داده‌های فشرده شده را به حالت اصلی برگرداند.

علاوه‌براین، از این مدل در حوزه پزشکی به منظور تحلیل تصاویر پزشکی نظیر تشخیص سرطان سینه استفاده می‌شود.

 

مزایا و معایب شبکه عصبی Autoencoder چیست ؟

از آنجایی که مدل Autoencoder ابعاد داده‌ها را با حفظ اطلاعات مهم آن‌ها کاهش می‌دهد، می‌توان از داده‌های کد شده در سایر الگوریتم های یادگیری عمیق استفاده کرد تا بار محاسباتی یادگیری مدل کاهش پیدا کند.

از معایب مدل Autoencoder می‌توان به این نکته اشاره کرد که مدل خودرمزگذار در مقایسه با مدل مولد تخاصمی (GAN) نمی‌تواند به‌خوبی تصاویر را بازسازی کند. همچنین، زمانی که بخش رمزگذار مدل، داده ورودی را فشرده می‌کند، ممکن است اطلاعات مهمی از آن را نادیده بگیرد. همین امر باعث می‌شود بخش رمزگشا نتواند اطلاعات مهم را بازگرداند.

۱۱. مدل باور عمیق

«مدل باور عمیق» (Deep Belief Network | DBN) یکی از الگوریتم های یادگیری عمیق است که از چندین لایه ماشین بولتزمن محدود شده ساخته می‌شود. ساختار ظاهری این مدل مشابه با ساختار شبکه عصبی پرسپترون چند لایه است اما روال یادگیری DBN با نحوه یادگیری مدل پرسپترون تفاوت دارد.

الگوریتم یادگیری عمیق DBN چگونه کار می کند ؟

مدل DBN‌ از چندین لایه ماشین بولتزمن محدود شده ساخته می‌شود. همان طور که در بخش توضیحات مربوط به مدل بولتزمن شرح داده شد، این مدل از دو لایه مرئی و پنهان تشکیل شده است. هر کدام از لایه‌های ماشین بولتزمن محدود شده در الگوریتم DBN‌ نیز دارای دو لایه هستند که این لایه‌ها پشت سر هر قرار گرفته‌اند و خروجی هر ماشین بولتزمن به عنوان ورودی ماشین بولتزمن محدود شده بعدی در نظر گرفته می‌شود.

ساختار شبکه باور عمیق
ساختار شبکه باور عمیق

آموزش مدل DBN در ابتدا به‌صورت نظارت نشده انجام می‌شود تا تمامی لایه‌ها، ویژگی‌های کلی داده‌های ورودی را یاد بگیرند. این روال یادگیری با روند یادگیری سایر شبکه‌های عصبی نظیر CNN‌ مغایرت دارد. در مدل‌های CNN هر لایه به یادگیری بخشی از تصاویر می‌پردازند. به عنوان مثال، لایه‌های اولیه CNN تنها می‌توانند خطوط تصاویر را شناسایی کنند و لایه‌های سطوح بالاتر، رنگ‌بندی تصاویر را یاد می‌گیرند. اما در مدل DBN‌ هر کدام از شبکه‌های ماشین بولتزمن محدود شده قادر هستند تمامی ویژگی‌های داده‌های ورودی را یاد بگیرند. همین امر سبب می‌شود مدل با دقت بیشتری به شناسایی الگوها بپردازد.

در انتهای آموزش مدل DBN نیز می‌توان از مجموعه محدودی از داده‌های آموزشی برچسب‌دار نیز استفاده کرد تا در نهایت بتوان از این مدل به عنوان یک «دسته‌بند» (Classifier) در حل مسائل مختلف استفاده کرد.

 

کاربردهای مدل DBN چیست ؟

از مدل باور عمیق می‌توان برای حل بسیاری از مسائل دنیای واقعی نظیر تشخیص اشیاء در تصاویر، تولید تصاویر، دسته‌بندی تصاویر، تشخیص اشیاء در داده‌های ویدئویی، تحلیل احساسات، پردازش زبان طبیعی و تشخیص گفتار استفاده کرد.

مزایا و معایب شبکه عصبی DBN چیست ؟

از مزایای مهم مدل DBN می‌توان به این نکته اشاره کرد زمانی که حجم داده آموزشی برچسب‌دار برای مسئله تعریف شده محدود است، می‌توان از این مدل برای پیاده‌سازی مسئله استفاده کرد. همچنین، با اضافه کردن تعداد لایه‌های مدل DBN، این مدل در مقایسه با مدل پرسپترون چند لایه در مسائل دسته‌بندی به دقت بالاتری می‌رسد.

یکی از معایب اصلی مدل باور عمیق این است که به تجهیزات سخت‌افزاری خاصی برای پیاده‌سازی احتیاج دارد. همچنین، این مدل به زمان آموزش بیشتری احتیاج دارد، زیرا دارای ساختار پیچیده‌ای است. به‌علاوه، به دلیل پیچیدگی پیاده‌سازی این مدل، افراد تازه‌کار نمی‌توانند به‌راحتی از آن برای حل مسائل استفاده کنند.

۱۲. مدل‌ رمزگذار-رمزگشا

مدل‌های رمزگذار-رمزگشا به عنوان یکی از الگوریتم های یادگیری عمیق شاخته می‌شوند که هدف آن‌ها نگاشت کردن داده‌های ورودی به مقادیر خروجی است به نحوی که طول ورودی‌ها با طول مقادیر خروجی یکسان نباشند. این حالت را می‌توان در ترجمه زبان مبدأ به زبان مقصد مشاهده کرد. در مسئله ترجمه زبان، نمی‌توان هر کلمه از زبان مبدأ را به یکی از کلمات زبان مقصد نگاشت (ترجمه) کرد و بدین ترتیب، طول جملات زبان مبدأ با طول جملات ترجمه شده آن در زبان مقصد با یکدیگر متفاوت هستند.

الگوریتم یادگیری عمیق Encoder Decoder چگونه کار می کند ؟

مدل‌های Encoder-Decoder‌ از سه بخش اصلی تشکیل شده‌اند که در ادامه به آن‌ها اشاره می‌شود:

  • بخش رمزگذار: بخش رمزگذار شامل یکی از انواع شبکه‌های عصبی بازگشتی نظیر RNN یا LSTM است که داده‌های ورودی را دریافت می‌کند و در هر گام از پردازش داده‌های ورودی، اطلاعات کلیه داده‌های قبلی به گام بعدی منتقل می‌شود تا در نهایت برداری از اطلاعات کلی داده‌های ورودی حاصل شود.
  • بردار رمزگذاری شده: بردار خروجی بخش رمزگذار، بردار رمزگذاری شده نام دارد که به عنوان ورودی بخش رمزگشا در نظر گرفته می‌شود.
  • بخش رمزگشا: این بخش شامل یکی از انواع شبکه‌های بازگشتی است که با دریافت بردار رمزگذاری شده، به رمزگشایی اطلاعات آن می‌پردازد.

در ادامه، تصویری از نحوه عملکرد این نوع مدل در مسئله ترجمه ماشین ملاحظه می‌شود.

الگوریتم یادگیری عمیق Encoder Decoder
مدل عمیق رمزگذار - رمزگشا

کاربردهای مدل مرزگذار-رمزگشا چیست ؟

از مدل Encoder-Decoder در مسائل مختلفی استفاده می‌شود که یکی از آن‌ها، موضوع ترجمه ماشینی است. به‌علاوه، از این مدل می‌توان در تولید متونی استفاده کرد که تصویری را شرح می‌دهند. در این نوع مسئله، ورودی مدل رمزگذار-رمزگشا مجموعه‌ای از تصاویر است و مدل بر اساس ویژگی‌های موجود در تصاویر، به شرح رویداد ثبت شده عکس می‌پردازد.

مزایا و معایب شبکه عصبی رمزگذار-رمزگشا چیست ؟

در مسائلی که طول داده‌های ورودی به طول داده‌های خروجی وابسته نیستند، نمی‌توان از شبکه‌های عصبی ذکر شده در بخش‌های پیشین استفاده کرد. مدل‌های Encoder-Decoder برای حل چنین مسائلی استفاده می‌شوند که همین امر، برتری این مدل را نسبت به سایر مدل‌های عمیق نشان می‌دهد.

مدل رمزگذار-رمزگشا از دو شبکه عصبی ساخته شده است که هر یک از آن‌ها رمزگذاری و رمزگشایی داده‌ها را بر عهده دارند. هر چقدر طول داده‌های ورودی این مدل بیشتر باشد و در پی آن تعداد لایه‌های این شبکه افزایش یابد، بار محاسباتی یادگیری شبکه بیشتر می‌شود که این امر به عنوان یکی از معایب این مدل به حساب می‌آید. همچنین، از آنجایی که در ساختار درونی این مدل از مدل‌های بازگشتی استفاده شده است، ممکن است مدل Encoder-Decoder با مشکلات مدل‌های بازگشتی، مخصوصاً مشکل محو شدگی گرادیان، روبه‌رو شود.

۱۳. مدل عصبی ماژولار

مدل‌های عمیق ماژولار یکی از الگوریتم های یادگیری عمیق محسوب می‌شوند که از چندین شبکه عصبی مختلف تشکیل شده‌اند. از این نوع مدل‌های عمیق برای پیاده‌سازی مسائل پیچیده استفاده می‌شود و هر یک از شبکه‌های عصبی مجزای موجود در این مدل‌ها، برای یادگیری بخش‌های مختلف مسئله به کار می‌روند.

الگوریتم یادگیری عمیق Modular چگونه کار می کند ؟

هر یک از شبکه‌های عصبی موجود در مدل عمیق ماژولار، به عنوان یک ماژول مجزا تلقی می‌شوند. در این مدل، یک بخشی به نام «یکپارچه‌ساز» (Integrator) وجود دارد که مسئله را به چندین بخش تقسیم می‌کند و یادگیری هر بخش را به یکی از ماژول‌های مدل تخصیص می‌دهد. همچنین، بخش یکپارچه‌ساز خروجی‌های هر یک از ماژول‌ها را با یکدیگر یکپارچه می‌کند تا در نهایت خروجی سیستم مشخص شود.

الگوریتم یادگیری عمیق ماژولار
شبکه عصبی ماژولار

کاربردهای مدل عمیق Modular چیست ؟

ایده طراحی ساختار مدل ماژولار از مفاهیم بیولوژیکی نشأت گرفته شده است. بر اساس مطالعات علوم شناختی، هر ناحیه از مغز نقش مجزایی را برای پردازش‌های داده‌های دریافتی بر عهده دارند. از مدل‌ عمیق ماژولار به منظور حل مسائل پیچیده‌ای می‌توان استفاده کرد که هر یک از بخش‌های شبکه مسئول انجام پردازشی خاص هستند. همین امر، باعث ساده‌سازی درک مسائل پیچیده می‌شود.

مزایا و معایب شبکه عصبی Modular چیست ؟

یکی از مزیت‌های مدل عمیق ماژولار این است که می‌توان به‌راحتی، تعداد ماژول‌های (زیر شبکه‌های عصبی) مدل را افزایش داد. همچنین، چنانچه در یادگیری یکی از ماژول‌ها خللی ایجاد شود، در روال یادگیری سایر ماژول‌ها تاثیر منفی ایجاد نمی‌شود. به‌علاوه، عملکرد این نوع از الگوریتم یادگیری عمیق در مقایسه با سایر مدل‌های شبکه عصبی تفسیرپذیرتر است، زیرا می‌توان به‌راحتی مشخص کرد که هر یک از ماژول‌ها چه عملکردی دارند.

یکی از مهم‌ترین معایب مدل ماژولار این است که روال یادگیری آن در مقایسه با سایر مدل‌های عمیق به‌کندی انجام می‌شود، زیرا داده‌های ورودی باید از چندین ماژول عبور کنند تا در نهایت با یکپارچه‌سازی خروجی ماژول‌ها، خروجی نهایی مدل ماژولار مشخص شود. به‌علاوه، پیاده‌سازی و آموزش جداگانه ماژول‌ها و یکپارچه‌سازی نتایج آن‌ها پیچیده است. افزون‌براین، هر یک از ماژول‌های موجود در مدل Modular در حین یادگیری، اطلاعاتی را بین خود منتقل می‌کنند که همین امر سبب افزایش زمان آموزش مدل می‌شود.

جمع‌بندی

کاربرد سیستم‌های هوشمند مصنوعی را تقریباً می‌توان در تمامی جنبه‌های زندگی بشر ملاحظه کرد. این سیستم‌ها بر پایه یک سری الگوریتم های ریاضیاتی به یادگیری مسائل مختلف می‌پردازند و پس از آموزش، بدون نیاز به دخالت انسان می‌توانند از پس انجام مسئولیت مشخص شده برآیند. یادگیری عمیق به عنوان یکی از زیرشاخه‌های هوش مصنوعی، شامل مباحثی پیرامون الگوریتم ها و روش‌های مختلف یادگیری سیستم‌ها است تا برنامه‌ها و سیستم های سخت‌افزاری هوشمندی را بر پایه آن‌ها آموزش داد.

در مطلب حاضر سعی بر این بود تا روال کلی یادگیری الگوریتم های یادگیری عمیق شرح داده شوند و سپس رایج‌ترین مدل‌های موجود در حوزه یادگیری عمیق به لحاظ ساختار، کاربرد و مزایا و معایب مورد بررسی قرار گیرند.

بر اساس رای ۱۰ نفر
آیا این مطلب برای شما مفید بود؟
اگر بازخوردی درباره این مطلب دارید یا پرسشی دارید که بدون پاسخ مانده است، آن را از طریق بخش نظرات مطرح کنید.
منابع:
towardsdatascienceresultpowerAnalyticsVidhyaProjectProJavaTpointsimplilearn
نظر شما چیست؟

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *