اصطلاحات یادگیری عمیق — راهنمای کاربردی

۶۱۰۹ بازدید
آخرین به‌روزرسانی: ۱۰ اردیبهشت ۱۴۰۲
زمان مطالعه: ۱۲ دقیقه
دانلود PDF مقاله
اصطلاحات یادگیری عمیق — راهنمای کاربردی

در این مطلب، مهم‌ترین اصطلاحات یادگیری عمیق مورد بررسی قرار گرفته‌اند. این روزها، هوش مصنوعی دارد دنیای ما را تسخیر می‌کند. «یادگیری ماشین» و «یادگیری عمیق» بخش بزرگی از زندگی انسان‌ها را تشکیل می‌دهند. (مارک کوبان) در این مورد می‌گوید:

997696

«هوش مصنوعی، یادگیری عمیق و یادگیری ماشین». مهم نیست کارتان چیست، اگر این موضوعات را درک نمی‌کنید، آن‌ها را یاد بگیرید. در غیر این صورت تا 3 سال دیگر منقرض خواهید شد.

شاید این جمله‌ی مارک کوبان به نظر بیش از حد سنگین بیاید، ولی کاملا درست است! ما در دوران یک انقلاب زندگی می‌کنیم، انقلابی که توسط کلان داده‌ها و قدرت‌های محاسباتی زیاد ایجاد شده است. یک دقیقه با خودتان فکر کنید که اگر فردی در قرن بیستم چیزی راجع به برق نداند چه حسی دارد. سالها عادت کرده بودید که کارها را به طور خاصی انجام دهید و حالا یک دفعه همه چیز شروع به تغییر می‌کند. کارهایی که برای انجام نیازمند افراد زیادی بود، حالا با وجود برق می‌تواند توسط یک نفر انجام شود. امروزه با یادگیری ماشین (Machine Learning) و یادگیری عمیق (Deep Learning)، ماجرای مشابهی را تجربه خواهیم کرد.

پس اگر هنوز هم قدرت یادگیری عمیق را درک نکرده‌اید، باید از همین امروز شروع به یادگیری کنید. این مقاله به شما کمک می‌کند که مفاهیم پایه و بیشتر استفاده شده‌ی یادگیری عمیق را یاد بگیرید.

این مقاله برای چه کسانی مناسب است؟

اگر علاقه‌مند به یادگیری و درک «یادگیری عمیق» هستید، این مقاله برای شما نوشته شده است. در این مقاله به توضیح اصطلاحات متفاوتی که در یادگیری عمیق استفاده می‌شوند، می‌پردازیم. درک یادگیری عمیق می‌تواند کمی سخت و طاقت‌فرسا باشد. این مقاله با این هدف نوشته شده است که یادگیری و درک «یادگیری عمیق» را راحت و بی دردسر کند. این مقاله مانند یک لغتنامه برای «یادگیری عمیق» می‌باشد که در هرکجا به واژه‌ای برخوردید که نتوانستید مفهوم آن را بفهمید، به این مقاله مراجعه کنید.

برخی اصطلاحات یادگیری عمیق

برای اینکه درک اصطلاحات راحت‌تر باشد، آن‌ها را به 3 گروه تقسیم کرده‌ایم. اگر فقط دنبال یک مفهوم خاصی می‌گردید، می‌توانید مستقیما آن را مطالعه کنید. ولی اگر در این موضوع تازه وارد هستید، مطالعه کل اصطلاحات به ترتیب، توصیه می‌شود.

  1. مقدمات شبکه‌های عصبی
  2. شبکه‌های عصبی کانولوشن
  3. شبکه‌های عصبی بازگشتی

1. مقدمات شبکه‌های عصبی

1) نورون

همانطور که عناصر اصلی مغز ما از نورون‌ها تشکیل شده‌اند، ساختار پایه‌ی شبکه‌های عصبی نیز نورون‌ها هستند. فقط کافی‌است به این فکر کنید که وقتی ما اطلاعات جدیدی دریافت می‌کنیم، چکار می‌کنیم. وقتی اطلاعات را دریافت می‌کنیم، ابتدا آن را پردازش می‌کنیم و سپس یک خروجی بر اساس آن می‌سازیم. در زمینه‌ی شبکه‌های عصبی نیز به همین شکل است.

یک نورون یک ورودی را می‌گیرد، آن را پردازش می‌کند و سپس یک خروجی تولید می‌کند که آن را یا برای پردازش بیشتر به سایر نورون‌ها ارسال می‌کند، و یا خودش خروجی پایانی است.

نورون‌ها

2) وزن

هنگامی که یک ورودی وارد نورون می‌شود، توسط یک وزن (weight) بخش‌بندی می‌شود. برای مثال، اگر یک نورون دو ورودی داشته باشد، هر ورودی یک وزن مربوط به خود را دارد. مقداردهی اولیه‌ی این وزن‌ها به صورت شانسی صورت می‌گیرد و آن‌ها در هنگام پروسه‌ی یادگیری، بروزرسانی می‌شوند. پس از شروع فرایند یادگیری، شبکه‌ی عصبی به ورودی‌هایی که از نظرش مهمتر هستند، وزن بیشتری را اختصاص می‌دهد. داشتن وزن صفر نشان‌دهنده‌ی بی اهمیت بودن است.

فرض میکنیم که «a» ورودی، و «w1» وزن اختصاص داده شده به آن است. پس از عبور ورودی از گره (node)، تبدیل به a × W1 می‌شود.

عملکرد وزن‌ها

3) Bias

علاوه بر وزن، یکی دیگر از اجزای خطی که روی ورودی تاثیر می‌گذارد، «Bias» نام دارد. Bias به حاصل ضرب وزن در ورودی اضافه می‌شود. Bias درواقع به مقدار اضافه می‌شود تا محدوده‌ی مقدار حاصل شده از ضرب وزن در ورودی را تغییر دهد. پس از اینکه Bias اضافه می‌شود، مقدار به a × W1+ bias تغییر پیدا می‌کند. Bias آخرین جزء خطی است که به تبدیل ورودی کمک می‌کند.

4) تابع فعال‌سازی

زمانی که کار اجزای خطی با ورودی تمام می‌شود، یک تابع غیر خطی به آن اعمال می‌شود. در این مرحله، تابع فعال‌سازی (Activation Function) کار خود را برروی حاصلی که از اجزای خطی به دست آمده است، انجام می‌دهد. این تابع سیگنال‌های ورودی را به سیگنال‌های خروجی تبدیل می‌کند. مقدار خروجی پس از اعمال تابع فعال‌سازی، چیزی شبیه به (f(a × W1+ bias می‌شود که ()f تابع فعال‌سازی است.

در نمودار زیر n ورودی به صورت X1 تا Xn به وزن‌های مربوطه از Wk1 تا Wkn داده شده‌اند. ابتدا وزن‌ها در ورودی‌های خودشان ضرب، و سپس با مقدار bias جمع می‌شوند. حاصل را u می‌نامیم.

u=∑w×x+b

سپس تابع فعال‌سازی برروی u اعمال می‌شود، یعنی (f(u، و در نهایت مقدار خروجی نهایی را به عنوان (Yk = f(u از نورون دریافت می‌کنیم.

عملکرد bias

چندین تابع فعال‌سازی وجود دارند که از پرکاربردترین آن‌ها می‌توان «Sigmoid»، «ReLU» و «softmax» را نام برد.

الف) تابع Sigmoid

یکی از توابع فعال‌سازی که در بسیاری از جاها استفاده شده است، sigmoid است. این تابع به صورت زیر تعریف می‌شود:

(sigmoid(x) = 1/(1+e-x

sigmoid

تابع sigmoid، مقادیر روان‌تری در محدوده‌ی بین صفر و یک تولید می‌کند. البته شاید لازم باشد که تغییرات خروجی را با تغییرات کوچک در مقادیر ورودی، جبران کنیم. اینکار نیازمند داشتن نمودار منحنی است که تابع sigmoid ارائه می‌دهد، به همین جهت نسبت به توابع پله‌ای بهتر عمل می‌کنند.

ب) تابع ReLU

شبکه‌های جدید ترجیح می‌دهند به جای sigmoid، از توابع فعال‌سازی ReLU برای لایه‌های مخفی استفاده کنند. این تابع به صورت زیر تعریف می‌شود:

(f(x) = max(x,0

در این تابع، اگر مقدار X بزرگتر از صفر باشد، خروجی X است، و اگر مقدار X کوچکتر یا مساوی صفر باشد، خروجی صفر است. این تابع دارای شکل زیر است:

relu

مزیت اصلی استفاده از ReLU این است که برای همه‌ی ورودی‌های بزرگتر از صفر، یک مشتق ثابت دارد. این مشتق ثابت به یادگیری شبکه سرعت می‌بخشد.

ج) تابع Softmax

توابع فعال‌سازی softmax معمولا در لایه‌ی خروجی و برای مشکلات مربوط به دسته‌بندی استفاده می‌شوند. این تابع تقریبا شبیه به تابع sigmoid است، با تنها یک تفاوت که خروجی‌های این تابع به گونه‌ای نورمال‌سازی شده‌اند که مجموع آن‌ها عدد یک باشد. تابع sigmoid در مواقعی که ورودی‌های ما از نوع دودویی (Binary) باشند عمل می‌کند، ولی در مواقعی که مشکلات مربوط به دسته‌بندی داشته باشیم، softmax کار دسته‌بندی هر مقدار را بسیار ساده می‌کند که در نهایت در احتمالات به ما کمک می‌کنند.

برای سادگی درک مفهوم، فرض کنید می‌خواهید یک عدد «6» را که کمی نیز شبیه «8» است، شناسایی کنید. این تابع همانند تصویر زیر به هر عدد، مقداری می‌دهد. در نهایت، به سادگی می‌توانید ببینیم که بیشترین احتمال به «6» داده شده‌است و بالاترین احتمال بعدی «8» است و الی آخر.

softmax

5) شبکه‌ی عصبی

شبکه‌های عصبی نقش ستون فقرات را در «یادگیری عمیق» بازی می‌کنند. هدف شبکه‌ی عصبی، تخمین یک تابع ناشناخته است. شبکه‌ی عصبی توسط نورون‌های به هم پیوسته تشکیل شده‌است. این نورون‌ها دارای وزن و bias هستند که در هنگام یادگیری بر اساس خطاها، بروزرسانی می‌شود. تابع فعال‌سازی یک تبدیل غیر خطی برروی حاصل خطی ایجاد شده، انجام می‌دهد که خروجی را تولید کند. مجموع نورون‌های فعال‌شده، خروجی را شکل می‌دهند. بهترین تعریف یک شبکه‌ی عصبی را شخصی به نام «لیپینگ یانگ» (Liping Yang) ارائه می‌دهد. وی شبکه‌ی عصبی را اینگونه تعریف کرده‌است:

«شبکه‌های عصبی از چندین نورون مصنوعی تشکیل شده است که اطلاعات را بین یکدیگر رد و بدل می‌کنند، و هر کدام وزن‌هایی دارند که براساس «تجربه‌ی» شبکه شکل می‌گیرند. نورون‌ها یک نقطه‌ی فعال‌سازی دارند که اگر مجموع وزن و داده‌های ارسال شده به آن‌ها از آن نقطه عبور کند، آن‌ها فعال می‌شوند. مجموعه‌ای از نورون‌های فعال شده منجر به «یادگیری» می‌شوند.»

6) لایه‌های ورودی، خروجی و مخفی

همانطور که از اسمش پیداست، لایه‌ی ورودی لایه‌ای است که ورودی را دریافت می‌کند و قطعا لایه‌ی اول شبکه است. لایه‌ی خروجی لایه‌ای است که خروجی را تولید می‌کند، یا همان لایه‌ی پایانی شبکه است. لایه‌هایی که کار پردازش را انجام می‌دهند، لایه‌های مخفی در شبکه هستند. این لایه‌ها هستند که کارهای خاصی را برروی داده‌هایی که به آن‌ها ارسال شده انجام می‌دهند و خروجی تولید شده‌ی خود را به لایه‌های بعدی ارسال می‌کنند. ما فقط می‌توانیم لایه‌های ورودی و خروجی را ببینیم و لایه‌های میانی مخفی هستند.لایه‌های شبکه عصبی

7) (MLP (Multi Layer Perceptron

یک نورون به تنهایی نمی‌تواند کارهای پیچیده و سنگین را انجام دهد. به همین خاطر، از پشته‌ای از نورون‌ها برای تولید خروجی مورد نظر استفاده می‌کنیم (در ساده‌ترین شبکه‌ها، فقط یک لایه‌ی ورودی، یک لایه‌ی مخفی و یک لایه‌ی خروجی وجود داشت). هر لایه شامل چندین نورون می‌شود و هر نورون در هر لایه، به تمام نورون‌های لایه‌ی بعد متصل است. به این شبکه‌ها، شبکه‌های تمام متصل (fully connected networks) نیز می‌گویند.

لایه‌های پشته‌ای

8) تکثیر رو به جلو

تکثیر رو به جلو (Forward Propagation) به حرکت ورودی از درون لایه‌ی مخفی به سمت لایه‌ی خروجی اشاره دارد. در تکثیر رو به جلو، اطلاعات تنها به سمت جلو حرکت می‌کنند. لایه‌ی ورودی، مقدار ورودی را به لایه‌ی مخفی ارسال کرده و سپس خروجی تولید می‌شود. قدم به عقب در اینجا معنایی ندارد.

9) تابع هزینه

هنگامی که ما یک شبکه را شکل می‌دهیم، این شبکه سعی می‌کند که خروجی را هرچه دقیقتر پیش‌بینی کند. مقدار این دقت در شبکه توسط تابع هزینه (cost) به دست می‌آید. این تابع سعی می‌کند هنگامی که شبکه اشتباهی می‌کند، آن را جریمه کند. وقتی یک شبکه راه‌اندازی می‌کنیم، هدف ما این است که دقت پیش‌بینی را افزایش، و خطاها را کاهش دهیم تا نیاز به تابع هزینه کاهش یابد. بهینه‌ترین خروجی، خروجی‌‌ای است که کمترین میزان هزینه را داشته باشد. اگر بگوییم که تابع هزینه، مربع مقدار خطاها است، می‌توانیم آن را به صورت زیر بنویسیم.

C= 1/m ∑(y – a)²

در اینجا m تعداد ورودی‌های یادگیری، a مقدار پیش‌بینی شده، و y مقدار صحیح است. کل پروسه‌ی یادگیری با هدف کاهش هزینه کار می‌کند.

10) شیب کاهشی

شیب کاهشی (Gradient Descent) یک الگوریتم بهینه‌سازی برای کاهش هزینه است. برای اینکه آن را بهتر درک کنید، به این مثال توجه کنید. هنگام پایین رفتن از یک تپه، به جای مستقیم پایین پریدن، باید با قدم‌های کوچک پایین بروید. به همین دلیل، کاری که ما می‌کنیم این است که از نقطه‌ی x شروع می‌کنیم، به مقدار کمی پایین می‌رویم (مقدار delta h)، و مکان خودمان را با مقدار x-delta h بروزرسانی می‌کنیم، و همینطور پایین می‌رویم تا به ته مسیر برسیم. ته مسیر را کمترین هزینه در نظر بگیرید.

شیب کاهشی

از نظر ریاضی، برای پیدا کردن مقدار مینیموم محلی (local minimum) یک تابع، باید قدم‌ها را بر خلاف جهت شیب آن تابع برداشت.

11) نسبت یادگیری

میزان کاهش هزینه در هر تکرار را نسبت یادگیری می‌گویند. به عبارت ساده‌تر، سرعت کاهش هزینه‌ها همان نسبت یادگیری است. نسبت یادگیری را باید با دقت زیادی انتخاب کرد تا به اندازه‌ای زیاد نباشد که حالت بهینه را رد کنیم و به اندازه‌ای کم نباشد که یادگیری شبکه سالها زمان ببرد.

نسبت یادگیری

12) تکثیر به عقب

زمانی که ما یک شبکه‌ی عصبی را تعریف می‌کنیم، مقدار وزن و bias را به صورت شانسی بین گره‌ها پخش می‌کنیم. هنگامی که خروجی یک کار را می‌گیریم، می‌توانیم به کمک آن، مقدار خطای شبکه را محاسبه کنیم، سپس این مقدار را به همراه نمودار تابع هزینه به شبکه برگردانیم تا وزن‌های شبکه بروزرسانی شوند. این وزن‌ها به گونه‌ای بروزرسانی می‌شوند که خطاهای مشابه کاهش پیدا کنند. به این عمل، تکثیر به عقب (back-propagation) می‌گویند.

در تکثیر به عقب، جهت حرکت شبکه رو به عقب است، خطا و نمودار به لایه‌ی مخفی بازمی‌گردند تا وزن‌ها براساس آن‌ها بروزرسانی شوند.

13) بسته‌ها

زمانی که داریم یک شبکه‌ی عصبی را تعلیم می‌دهیم، به جای ارسال کل ورودی، آن را به بسته‌های کوچک با اندازه‌ی یکسان تقسیم می‌کنیم. وقتی داده‌ها را به صورت بسته (Batch) ارسال می‌کنیم، باعث می‌شود مدل ما نسبت به مدلی که تمام اطلاعات را یکجا دریافت کرده است، جامع‌تر باشد.

14) دوره

یک دوره (Epoch) به یک تکثیر رفت و برگشت در شبکه اشاره دارد. یعنی یک دوره برابر با یک رفت و برگشت ورودی در کل شبکه است. تعداد دوره‌هایی که برای یادگیری شبکه استفاده می‌کنید کاملا دست خودتان است. درست است که داشتن دوره‌های بیشتر منجر به دقت بیشتر در شبکه می‌شود، ولی زمان یادگیری شبکه را هم افزایش می‌دهد. به علاوه، باید توجه داشته باشید که اگر تعداد دوره‌ها بیش از حد زیاد باشد، ممکن است هضم آن برای شبکه سنگین باشد، یا اصطلاحا شبکه «over-fit» شود.

15) Dropout

واژه‌ی dropout در لغت به معنای بیرون رفتن یا رها کردن است. Dropout یک تکنیک است که جلوی «over-fit» شدن شبکه را می‌گیرد. همانطور که در اسمش پیداست، در هنگام یادگیری، برخی از نورون‌ها به صورت شانسی رها می‌شوند. این بدین معنا است که یادگیری برروی معماری‌های متفاوت با مجموعه نورون‌های متفاوت صورت می‌گیرد. می‌توانید به dropout به عنوان یک تکنیک گروهی نگاه کنید که در آن خروجی چندین شبکه مخلوط می‌شوند تا خروجی نهایی را شکل دهند.

dropout

16) نرمال‌سازی بسته‌ها

از نظر مفهومی، می‌توانیم به نرمال‌سازی بسته‌ها به عنوان سدی نگاه کنیم که در بخش‌های مختلفی از یک رود قرار گرفته‌است. اینکار باعث می‌شود مطمئن شویم که لایه‌ی بعدی همان گونه‌ای داده‌ها را دریافت می‌کند که انتظارش را دارد. در هنگام یادگیری شبکه‌ی عصبی، وزن‌ها پس از هر قدم در «شیب کاهشی»، تغییر پیدا می‌کنند. اینکار شکل داده‌ای که به لایه‌ی بعدی می‌رود را تغییر می‌دهد.

نرمال‌سازی بسته‌ها

هر لایه‌ انتظار دارد که داده‌هایی مشابه داده‌های قبلی خود دریافت کند، به همین دلیل ما هم قبل از ارسال داده‌ها، آن‌ها را نرمال‌سازی می‌کنیم.

batch normalisation

شبکه‌های عصبی کانولوشن

1) فیلترها

یک فیلتر در شبکه‌های کانولوشن (Convolutional) مانند یک وزن ماتریسی می‌ماند که آن را در تصویر ورودی ضرب می‌کنیم تا یک خروجی حساب‌شده به دست آوریم. فرض کنید یک تصویر با سایز 28در28 داریم. یک فیلتر شانسی با سایز 3در3 برروی آن قرار می‌دهیم که بعدا در سایر بخش‌های 3در3 تصویر ضرب ‌شود تا یک خروجی حساب‌شده را تشکیل دهد. اندازه‌ی فیلتر معمولا از اندازه‌ی تصویر اصلی کوچکتر است. مقادیر فیلترها نیز مانند وزن‌ها در هنگام تکثیر به عقب بروزرسانی می‌شوند تا هزینه را کاهش دهند.

تصویر زیر را فرض کنید. ما یک ماتریس 3در3 داریم که در تمام بخش‌های 3در3 تصویر ضرب می‌شود تا مقدار حساب‌شده را تشکیل دهد.

عملکرد فیلترها

2) (CNN (Convolutional neural network

شبکه‌های عصبی کانولوشن به صورت کلی برای ورودی‌های تصویری استفاده می‌شوند. فرض کنید یک ورودی با اندازه‌ی 28در28در3 داریم، اگر بخواهیم از شبکه‌های عصبی معمولی استفاده کنیم، 2,352 تا پارامتر 28در28در3 خواهیم داشت. هرچه هم که سایز تصویر بیشتر باشد، تعداد پارامترها بیشتر می‌شود. ما تصویر را به عبارتی در هم «می‌پیچیم» (معادل فارسی convolve) تا تعداد این پارامترها کاهش پیدا کند (همانند فیلتر که بالا دیدیم.) با حرکت دادن فیلتر در طول و عرض ورودی، یک نقشه‌ی فعال‌سازی دو بعدی (2-demensional activation map) به دست می‌آوریم که درواقع حاصل ضرب فیلتر در همه جای ورودی است. ما این نقشه‌ها را همراه با یک عمق روی هم قرار می‌دهیم تا مقدار خروجی را به دست آوریم.


برای درک واضحتر، تصویر زیر را مشاهده کنید.

cnn

3) Pooling

زیاد پیش می‌آید که بین لایه‌های کانولوشن، لایه‌های «pooling» (که از نظر لغوی به معنای جمع‌آوری است) را نیز اضافه کنند. اینکار برای کاهش تعداد پارامترها و جلوگیری از «over-fitting» انجام می‌شود. بیشترین نوع استفاده شده از «Pooling»، استفاده از لایه‌ی «pooling» با فیلتر 2در2 و عملیات ماکسیموم‌گیری است. نحوه‌ی کار آن اینگونه است که بیشترین عدد هر ماتریس 4در4 را گرفته و در خروجی قرار می‌دهد.

pooling

عملیات «pooling» را با عملگرهای دیگر نظیر میانگین‌گیری نیز می‌توان انجام داد، ولی ماکسیموم‌گیری بیشترین درصد موفقیت را داشته است.

4) لایه‌سازی

لایه‌سازی (Padding) به معنای اضافه کردن لایه‌های اضافی با مقدار صفر دور تصویر است تا تصویر خروجی اندازه‌ی یکسانی با ورودی داشته باشد. به این کار «لایه‌سازی یکسان» (Same Padding) می‌گویند.لایه‌سازی

پس از اعمال لایه‌سازی یکسان، لایه‌ای که در فیلترسازی خلاصه شده‌است، دارای اندازه‌ی برابر با تصویر اصلی خواهد بود. «لایه‌سازی صحیح» (Valid Padding) به این اشاره دارد که تمامی پیکسل‌های واقعی یا «صحیح» را نگه‌داری کنیم. در این حالت پس از اعمال فیلترها، اندازه‌ی طول و عرض خروجی پس از هر لایه‌ی کانولوشن، کاهش پیدا می‌کند.

5) تقویت داده‌ها

تقویت داده‌ها (Data Augmentation) با اضافه کردن داده‌های جدید که از داده‌های دریافتی حاصل شده‌است، اشاره دارد که ممکن است در پیش‌بینی ها موثر باشد. برای مثال، فرض کنید یک تصویر تاریک داریم که یک گربه در آن است. شاید با روشن‌تر کردن این تصویر، پیدا کردن گربه در آن ساده‌تر شود. یا مثلا یک عدد «9» را در نظر بگیرید که در یک تصویر کمی چرخیده یا کج است. در این حالت، چرخاندن تصویر مشکل را حل می‌کند و دقت را در مدل ما افزایش می‌دهد. با چرخاندن یا روشن کردن تصویر، ما داریم کیفیت داده‌هایمان را افزایش می‌دهیم. به این کار تقویت داده می‌گویند.

تقویت داده‌ها

شبکه‌های عصبی بازگشتی

1) نورون‌های بازگشتی

یک نورون بازگشتی نورونی است که خروجی آن t بار به خودش بازمیگردد. اگر به نمودار زیر نگاه کنید، خروجی نورون t بار به عنوان ورودی به خودش بازگشته است. این کار مانند این می‌ماند که t نورون متفاوت را به هم وصل کرده باشیم. مزیت اصلی این نورون این است که خروجی جامع‌تری را ارائه می‌دهد.

نورون‌های بازگشتی

2) (RNN (Recurrent Neural Network

شبکه‌های عصبی بازگشتی (Recurrent Neural Network) برای داده‌های ترتیبی استفاده می‌شوند که در آن‌ها از خروجی قبلی، برای پیش‌بینی خروجی بعدی استفاده می‌شود. در این حالت، شبکه‌ها در خودشان حلقه‌های تکرار دارند. این حلقه‌ها که در نورون‌های مخفی قرار دارند، بهشان این امکان را می‌دهند تا اطلاعات ورودی‌های قبلی را برای مدتی ذخیره کنند تا بتوانند خروجی‌های بعدی را پیش‌بینی کنند. خروجی لایه‌ی مخفی مجددا t بار به لایه‌ی مخفی ارسال می‌شود. این حالت تصویری شبیه به تصویر بالا است. خروجی یک نورون بازگشتی تنها زمانی به لایه‌ی بعدی ارسال می‌شود که تعداد تکرار آن تمام شده باشد. در این حالت، خروجی جامع‌تر است و اطلاعات قبلی برای مدت بیشتری نگه‌داری می‌شوند.
در نهایت، خطاها براساس این بازگشت‌ها تکثیر به عقب می‌شوند تا وزن‌ها را بروزرسانی کنند.

به اینکار «تکثیر رو به عقب در زمان» (Back propagation through time یا به اختصار BPTT) می‌گویند.

3) مساله‌ی Vanishing Gradient

مساله‌ی Vanishing Gradient در شرایطی رخ می‌دهد که شیب حاصل شده از تابع فعال‌سازی خیلی کوچک باشد. در زمان تکثیر رو به عقب که وزن‌ها در این شیب‌های کوچک ضرب‌ می‌شوند، معمولا به مقداری بسیار کوچک می‌رسند و هرچه در شبکه جلوتر می‌روند، در اصطلاح «ناپدید» می‌شوند. این امر باعث می‌شود که شبکه بسیاری از مقادیر را فراموش کند. این مساله در شبکه‌های عصبی بازگشتی مشکل‌ساز می‌شوند که در آن‌ها به یاد داشتن طولانی مدت اطلاعات بسیار مهم است.

4) مساله‌ی Exploding Gradient

این مساله کاملا برعکس مساله‌ی Vanishing Gradient است. در اینجا شیب حاصل از تابع فعال‌سازی زیادی بزرگ است. باعث می‌شود که در هنگام تکثیر به عقب، وزن یک گره‌ی خاص نسبت به بقیه گره‌ها بیش از اندازه بزرگ شود. این مساله به راحتی قابل حل است، تنها کافی‌است که مقدار شیب را کوتاه کنیم تا از حد خاصی نگذرد.

اگر مایل به کسب اطلاعات بیشتر در این زمینه باشید، شاید آموزش‌های زیر بتوانند برایتان مقید باشند:

#

بر اساس رای ۶۳ نفر
آیا این مطلب برای شما مفید بود؟
اگر بازخوردی درباره این مطلب دارید یا پرسشی دارید که بدون پاسخ مانده است، آن را از طریق بخش نظرات مطرح کنید.
منابع:
analyticsvidhya
۱۳ دیدگاه برای «اصطلاحات یادگیری عمیق — راهنمای کاربردی»

ممنون از توضیحات کاملتون. برای من خیلی مفید بود

ینی حقیقتا لذت بردم. عالی بود عالی. من برای پروژه دانشگام به این کلمات برخوردم و اینجا تونستم خیلی عالی درکشون کنم تا بتونم توی ارائه م قشنگتر موضوع رو انتقال بدم. حقیقتا ممنون از زحماتتون.

به نظرم متن خوبی بودش و توی برگردون کلمات نویسنده خوب کار کرده بود. هرچند کسی که توی این زمینه کار نکرده باشه کمی این مفاهیم ناآشنا شاید باشد.

عالی بود
مختصر و مفید

سلام
یه سوال ؟
اگه ما 20000 داده داشته باشیم batch ما 10 باشه یعنی دیتا به 10 بسته 2000تایی تقسیم شده؟
ممنون

اگر منظور از 10، سایز بچ هستش، نه. یعنی 2000 تا مینی بچ دارید که هر کدوم 10 تا داده دارند.
اگر منظور از 10، 10 تا بچ باشه، بله.
در ضمن در این حالت به این میگویم مینی بچ نه بچ.

عالی بود????
خیلی ممنون

عالی بود. واقعا نیاز بیشتری به اینجور اطلاعات راجع به یادگیری عمیق هست. ممنون

سلام
برای دانش ابتدایی از شبکه عصبی و شروع آن مطالب بسیار مفید است. تشکر

سلام.کاش رفرنس این مطالب هم می‌گذاشتید تا استفاده بیشتری ببریم.ممنون.

در زیر پست منبع رو ذکر کردند:

https://www.analyticsvidhya.com/blog/2017/05/25-must-know-terms-concepts-for-beginners-in-deep-learning/

جای این گونه از مطالب در وب پارسی خالی هست
ممنون از شما

عالی و بی نظیر بود. خوشحالم که چنین مطالب مفید و تخصصی رو به زبان فارسی میشه پیدا کرد.

نظر شما چیست؟

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *