ساخت شبکه عصبی در پایتون — Neural Network با Python به زبان ساده

۷۷۳۴ بازدید
آخرین به‌روزرسانی: ۲۳ اردیبهشت ۱۴۰۲
زمان مطالعه: ۵ دقیقه
دانلود PDF مقاله
ساخت شبکه عصبی در پایتون — Neural Network با Python به زبان ساده

بهترین راه برای درک مفهوم و چگونگی عملکرد «شبکه عصبی» (Neural Network)، ساخت آن است. در این مطلب، روش ساخت یک شبکه عصبی با بهره‌گیری از «زبان برنامه‌نویسی پایتون» (Python Programming Language) آموزش داده شده است. شبکه‌های عصبی (NN) که به آن‌ها «شبکه‌های عصبی مصنوعی» (Artificial Neural Networks | ANN) نیز گفته می‌شود، یکی از الگوریتم‌های یادگیری در «یادگیری ماشین» (Machine Learning) به شمار می‌آید که براساس مفهوم زیستی شبکه‌های عصبی بنا نهاده شده است. در این مقاله سعی داشته‌ایم به‌طور جامع به ساخت شبکه عصبی در پایتون بپردازیم.

997696

مقدمه‌ای بر ساخت شبکه عصبی در پایتون

«اندرو بولزیوک» (Andrey Bulezyuk) کارشناس یادگیری ماشین آلمانی و دارای سال‌ها تجربه، در این رابطه می‌گوید: «شبکه‌های عصبی انقلابی در یادگیری ماشین محسوب می‌شوند، زیرا قادر به مدل‌سازی کارآمد انتزاعات پیچیده در طیف وسیعی از رشته‌ها و صنایع هستند». اساسا، یک شبکه عصبی ترکیبی از مولفه‌های زیر است:

  • یک لایه ورودی که داده‌ها را دریافت می‌کند
  • یک لایه پنهان
  • یک لایه خروجی
  • وزن‌های بین لایه‌ها
  • یک تابع فعال‌سازی تعمدی برای هر لایه پنهان (در این مطلب از تابع فعال‌سازی سیگموئید استفاده شده است.)

چندین نوع شبکه عصبی وجود دارد. در این راهنمای ساخت شبکه عصبی در پایتون یک «شبکه عصبی پیشخور» (Feedforward Neural Network) یا «شبکه عصبی پرسپترون» (Perception Neural Networks) ساخته خواهد شد. این نوع از شبکه عصبی مصنوعی داده‌ها را مستقیما از جلو به عقب بازپخش می‌کند. آموزش نورون‌های پیش‌خور اغلب نیازمند «بازگشت به عقب یا انتشار معکوس» (back-propagation) است که شبکه‌ای با مجموعه‌های متناظر ورودی‌ها و خروجی‌ها محسوب می‌شود. هنگامی که داده‌های ورودی به «نورون» (neuron) انتقال پیدا کردند، پردازش می‌شوند و یک خروجی تولید می‌شود. در تصویر زیر، نموداری که ساختار یک شبکه عصبی ساده را نمایش می‌دهد آورده شده است.

شبکه عصبی ساده

بهترین راه برای درک اینکه شبکه‌های عصبی چگونه کار می‌کنند، فراگیری این است که چگونه می‌توان یک شبکه عصبی در پایتون را از پایه بدون استفاده از هرگونه کتابخانه‌ای ساخت. در این مطلب، چگونگی ساخت یک شبکه عصبی با پایتون به بیان ساده ارائه می‌شود.

طرح مسئله ساخت شبکه عصبی در پایتون

در جدول زیر مساله موجود نشان داده شده است.

شبکه عصبی ساده

اکنون، یک شبکه عصبی در پایتون که می‌تواند مقدار خروجی را برای مجموعه داده‌های جدید به درستی پیش‌بینی کند ساخته خواهد شد. همانطور که از جدول مشهود است، مقدار خروجی همیشه مساوی با اولین مقدار در قسمت ورودی خواهد بود. بنابراین، انتظار می‌رود مقدار خروجی برای شرایط جدید (New Situation) برابر با ۱ باشد. در ادامه این مساله بررسی می‌شود که آیا می‌توان از کد پایتونی استفاده کرد که نتیجه مشابهی داشته باشد.

ساخت کلاس شبکه عصبی

در این بخش، هدف ساخت یک کلاس NeuralNetwork در پایتون به منظور آموزش دادن نورون‌ها برای ارائه پیش‌بینی صحیح است. این کلاس همچنین دارای دیگر «توابع کمک کننده» (helper functions) نیز هست.

با وجود اینکه از یک کتابخانه شبکه عصبی در پایتون برای ساخت این شبکه عصبی ساده استفاده نمی‌شود، کتابخانه NumPy برای کمک به انجام محاسبات «ایمپورت» می‌شود. کتابخانه دارای چهار متد مهم زیر است:

  • exp: برای تولید «تابع نمایی» (natural exponential)
  • array: برای تولید یک ماتریس
  • dot: برای ضرب ماتریس‌ها
  • random: برای تولید اعداد تصادفی (توجه به این نکته نیز لازم است که از اعداد تصادفی برای حصول اطمینان از توزیع کارآمد آن‌ها استفاده می‌شود.)

اعمال تابع سیگموئید

در اینجا از تابع «سیگموئید» (Sigmoid) استفاده خواهد شد که یک منحنی مشخصه S شکل به عنوان تابع فعال‌سازی برای شبکه عصبی در پایتون ترسیم می‌کند.

تابع سیگموئید

این تابع هر مقدار را به یک مقدار از ۰ تا ۱ نگاشت می‌کند و کمک می‌کند تا مجموع وزنی ورودی‌ها «نرمال‌سازی» (normalize) شوند. بعد از آن، مشتق تابع سیگموئید برای کمک به محاسبه تنظیمات اساسی وزن‌ها گرفته می‌شود. خروجی تابع سیگموئید می‌تواند برای تولید مشتق آن مورد استفاده قرار بگیرد. برای مثال، اگر متغیر خروجی برابر با «x» است، مشتق آن برابر با «(x * (1-x» خواهد بود.

در واقع، اگر خروجی تابع سیگموئید متغیر x باشد، می‌توان مشتق «تابع سیگموئید» را با استفاده از این خروجی محاسبه کرد. آنچه در اینجا هم بیان شده، بر همین مفهوم دلالت دارد. یعنی، اگر خروجی تابع سیگموئید متغیر x باشد، مشتق خود تابع سیگموئید برابر با مقدار بیان شده است. ‌به بیان ریاضی، اگر فرض کنیم تابع سیگموئید x=11+ey x = \frac{1}{1+e^{-y}} است، مشتق آن برابر با x˙=ey(1+ey)2 \dot{x} = \frac{e^{-y} }{(1 + e ^ {-y})^2} خواهد بود. با کمی‌ ساده‌سازی، خواهیم دید که x˙=x(1x) \dot{x} = x (1-x) .

آموزش دادن مدل

در این گام به شبکه عصبی در پایتون آموزش داده می‌شود که پیش‌بینی دقیقی انجام دهد. هر ورودی یک وزن (مثبت یا منفی) خواهد داشت. این امر دلالت بر آن دارد که یک ورودی دارای عدد بزرگی از وزن‌های مثبت یا عدد بزرگی از وزن‌های منفی، نتیجه خروجی را بیشتر تحت تاثیر قرار خواهد داد.

این نکته را نیز باید به خاطر داشت که مقداردهی اولیه وزن‌ها با تخصیص یک عدد تصادفی به هر وزن به وقوع خواهد پیوست. در ادامه روال فرآیند آموزش مورد استفاده در این مساله شبکه عصبی در پایتون بیان شده است.

  1. ورودی از «مجموعه داده آموزش» (training dataset) گرفته، برخی تنظیمات بر مبنای وزن آن‌ها انجام و سپس با استفاده از متدی که خروجی شبکه عصبی مصنوعی را محاسبه می‌کند انتقال داده می‌شوند.
  2. نرخ خطای بازگشت به عقب محاسبه می‌شود. در این شرایط، این مقدار تفاوت بین خروجی پیش‌بینی شده نورون‌ها و خروجی مورد انتظار از مجموعه داده آموزش است.
  3. برپایه میزان خطای دریافت شده، تنظیمات وزن کوچکی با استفاده از «فرمول مشتق وزنی خطا» (Error Weighted Derivative Formula) انجام می‌شود.
  4. این فرآیند به طور دلخواه ۱۵۰۰ بار تکرار می‌شود (این مقدار منتخب نویسنده این مطلب است).

از تابع «T» برای ترانهادن ماتریس از موقعیت افقی به عمودی استفاده شده است. بنابراین، اعداد به صورت زیر ذخیره می‌شوند. در نهایت، وزن نورون‌ها برای مجموعه داده آموزش فراهم شده بهینه‌سازی می‌شود. در نتیجه، اگر نورون ساخته شده تا درباره شرایط جدیدی فکر کند، که شبیه شرایط پیشین است، می‌تواند یک پیش‌بینی دقیق انجام دهد. این همان شیوه‌ای است که بازشگت به عقب انجام می‌شود.

بسته‌بندی

در نهایت، کلاس شبکه عصبی در پایتون مقداردهی اولیه می‌شود و کدها اجرا خواهند شد.

در ادامه، کل کدهای لازم برای ساخت شبکه عصبی در پایتون آورده شده است.

1import numpy as np
2
3class NeuralNetwork():
4    
5    def __init__(self):
6        # seeding for random number generation
7        np.random.seed(1)
8        
9        #converting weights to a 3 by 1 matrix with values from -1 to 1 and mean of 0
10        self.synaptic_weights = 2 * np.random.random((3, 1)) - 1
11
12    def sigmoid(self, x):
13        #applying the sigmoid function
14        return 1 / (1 + np.exp(-x))
15
16    def sigmoid_derivative(self, x):
17        #computing derivative to the Sigmoid function
18        return x * (1 - x)
19
20    def train(self, training_inputs, training_outputs, training_iterations):
21        
22        #training the model to make accurate predictions while adjusting weights continually
23        for iteration in range(training_iterations):
24            #siphon the training data via  the neuron
25            output = self.think(training_inputs)
26
27            #computing error rate for back-propagation
28            error = training_outputs - output
29            
30            #performing weight adjustments
31            adjustments = np.dot(training_inputs.T, error * self.sigmoid_derivative(output))
32
33            self.synaptic_weights += adjustments
34
35    def think(self, inputs):
36        #passing the inputs via the neuron to get output   
37        #converting values to floats
38        
39        inputs = inputs.astype(float)
40        output = self.sigmoid(np.dot(inputs, self.synaptic_weights))
41        return output
42
43
44if __name__ == "__main__":
45
46    #initializing the neuron class
47    neural_network = NeuralNetwork()
48
49    print("Beginning Randomly Generated Weights: ")
50    print(neural_network.synaptic_weights)
51
52    #training data consisting of 4 examples--3 input values and 1 output
53    training_inputs = np.array([[0,0,1],
54                                [1,1,1],
55                                [1,0,1],
56                                [0,1,1]])
57
58    training_outputs = np.array([[0,1,1,0]]).T
59
60    #training taking place
61    neural_network.train(training_inputs, training_outputs, 15000)
62
63    print("Ending Weights After Training: ")
64    print(neural_network.synaptic_weights)
65
66    user_input_one = str(input("User Input One: "))
67    user_input_two = str(input("User Input Two: "))
68    user_input_three = str(input("User Input Three: "))
69    
70    print("Considering New Situation: ", user_input_one, user_input_two, user_input_three)
71    print("New Output data: ")
72    print(neural_network.think(np.array([user_input_one, user_input_two, user_input_three])))
73    print("Wow, we did it!")

خروجی حاصل از اجرای کد بالا به صورت زیر است.

ساخت شبکه عصبی

در این مطلب چگونگی ساخت یک شبکه عصبی در پایتون آموزش داده شد. نورون با تخصیص دادن وزن‌های تصادفی به خودش آغاز به کار می‌کند و خود را با استفاده از «مثال‌های آموزش» (Training Examples)، آموزش می‌دهد. در نتیجه، اگر با یک موقعیت جدید [1,0,0] به شکه عصبی ارائه شود، مقدار 0.9999584 را بازمی‌گرداند. همانطور که پیش‌تر و در بالا بیان شد، پاسخ مورد انتظار برای چنین شرایطی برابر با ۱ است و بنابراین پاسخ ارائه شده توسط شبکه عصبی بسیار نزدیک به این مقدار است. نباید فراموش کرد که تابع سیگموئید مقادیر خروجی بین ۰ و ۱ دارد.

البته، در اینجا تنها از شبکه تک نورونی برای انجام یک وظیفه ساده استفاده شده است. پرسشی که در این وهله به ذهن خطور می‌کند آن است که در صورت کنار هم قرار گرفتن چندین هزار شبکه عصبی چه اتفاقی می‌افتد و آیا با این کار می‌توان چگونگی عملکرد ذهن انسان را به صورت ۱۰۰ درصدی شبیه‌سازی کرد؟

اگر نوشته بالا برای شما مفید بوده، آموزش‌های زیر نیز به شما پیشنهاد می‌شوند:

^^

بر اساس رای ۶۲ نفر
آیا این مطلب برای شما مفید بود؟
اگر بازخوردی درباره این مطلب دارید یا پرسشی دارید که بدون پاسخ مانده است، آن را از طریق بخش نظرات مطرح کنید.
منابع:
kdnuggets
۶ دیدگاه برای «ساخت شبکه عصبی در پایتون — Neural Network با Python به زبان ساده»

درود بر شما و تشکر از این مقاله عالی
فقط یک سئوال داشتم ، آیا این کد پایتون و نوشتن یک ANN از Backpropagation BP استفاده شده؟ ممنون

با سلام و احترام؛‌

بله. نرخ خطای «پس انتشار» در این پیاده‌سازی، محاسبه شده است.

از همراهی شما با مجله فرادرس، بسیار خوشنودیم.

سلام من یک پروژه انجام دادم با480هزاداده …حرفه ای نیستم و به زحمت تموم کردم ماشین بردارپشتیبان بود در مورد خرابی یا سالم بودن اعضای یک سازه یعنی دو کلاسه بود کارم…..حالا همین نتایج رو میخوام با نزدیکترین همسایگی یاmlp هم به دست بیارم و با هم قیاس کنم.به نظرتون نزدیکترین همسایگی با این تعداد داده کار میکنه یا به مشکل میخورم؟

با سلام
منظور شما از عبارت مقابل چیه ؟ ” اگر متغیر خروجی برابر با «x» است، مشتق آن برابر با «(x * (1-x» خواهد بود. ”

منظورتون مشتقه یا انتگرال ؟

با سلام؛

از همراهی شما با مجله فرادرس سپاس‌گزاریم. متن صحیح است . اگر خروجی تابع سیگموئید متغیر x باشد، می‌توان مشتق «تابع سیگموئید» را با استفاده از این خروجی محاسبه کرد. آنچه در اینجا هم بیان شده، بر همین مفهوم دلالت دارد. یعنی، اگر خروجی تابع سیگموئید متغیر x باشد، مشتق خود تابع سیگموئید برابر با مقدار بیان شده است.

‌به بیان ریاضی، اگر فرض کنیم تابع سیگموئید x=11+ey x = \frac{1}{1+e^{-y}} است، مشتق آن برابر با x˙=ey(1+ey)2 \dot{x} = \frac{e^{-y} }{(1 + e ^ {-y})^2} خواهد بود. با کمی‌ ساده‌سازی، خواهیم دید که x˙=x(1x) \dot{x} = x (1-x) .

سپاس‌گزارم.

سلام
با تشکر از شما که بخاطر نوشتن این مطلب
اگه ممکنه مثال های بیشتری برای یادگیری بیشتر بنویسید

نظر شما چیست؟

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *