شبکه عصبی مصنوعی و پیاده‌سازی در پایتون — راهنمای کاربردی

۸۵۸ بازدید
آخرین به‌روزرسانی: ۸ خرداد ۱۴۰۲
زمان مطالعه: ۱۰ دقیقه
شبکه عصبی مصنوعی و پیاده‌سازی در پایتون — راهنمای کاربردی

اغلب با واژه «شبکه عصبی مصنوعی» (Artificial Neural Network) برخورد کرده‌ایم و به نظر می‌رسد که باید این مفهوم به شکلی با شبکه عصبی موجودات زنده در ارتباط باشد. شبکه عصبی مصنوعی را به اختصار گاهی ANN نیز می‌نامند. ساختار اصلی مغز و شبکه‌های عصبی طبیعی از «نورون» (Neuron) یا «سلول عصبی» تشکیل شده است. هر نورون در موجودات زنده از سه بخش اصلی تشکیل شده است. ۱- جسم یاخته‌ای (سلول)، ۲- دندریت، ۳- آکسون. سلول عصبی به شکل یک درخت است که در آن دندریت اطلاعات را از طریق سرشاخه‌هایی از سلول‌های عصبی دیگر دریافت می‌کند و به جسم سلولی (یاخته) می‌دهد. نتیجه تحلیل سلول عصبی توسط آکسون انتقال یافته و بوسیله سرشاخه‌های به نام «سیناپس» (Synapse) به سلول‌هایی از نوع عصبی، عضلانی یا حسی ارسال می‌شود.

997696

Neuron-figure-notext

با الگو گرفتن از این سلول‌ها، شبکه‌های عصبی مصنوعی نیز در دو دهه است که ظهور کرده‌اند و البته کاربردهای زیادی بخصوص در «بهینه‌سازی» (Optimization) و «هوش مصنوعی» (Artificial Inelegance) دارند. در این نوشتار به بررسی شبکه عصبی مصنوعی آشنا خواهیم شد و بوسیله مفاهیم و مبانی اولیه ریاضی سعی می‌کنیم از آن برای حل مسائل بهره ببریم. به منظور پیاده‌سازی محاسبات در شبکه عصبی از زبان برنامه‌نویسی پایتون استفاده خواهیم کرد.

برای آشنایی با انواع شبکه عصبی و کاربردهای آن‌ها، بهتر است مطلب شبکه‌های عصبی مصنوعی – از صفر تا صد را مطالعه کنید. همچنین خواندن مطالب مرتبط با  هوش مصنوعی در نوشتار فراگیری مفاهیم هوش مصنوعی — مجموعه مقالات جامع وبلاگ فرادرس نیز خالی از لطف نیست.

شبکه عصبی مصنوعی (ANN)

با الگو گرفتن از ساختار یک سلول و شبکه عصبی طبیعی، می‌توان یک سلول و شبکه عصبی مصنوعی ساخت. در تصویرهای زیر مقایسه‌ای بین سلول‌ عصبی طبیعی و مصنوعی صورت گرفته است.

در تصویر اول، خلاصه‌ای از شکل یک سلول عصبی طبیعی دیده می‌شود که براساس آن ساختار یک سلول عصبی مصنوعی ایجاد شده که در تصویر دوم قابل مشاهده است.

neuron_biology_abstraction
تصویر اول- نمایش اسختار یک سلول عصبی طبیعی
neuron_neural_network
تصویر دوم- سلول عصبی مصنوعی

همانطور که دیده می‌شود، یک سلول عصبی مصنوعی ساختار بسیار ساده‌ای دارد. سیگنال یا داده‌های ورودی دارای دو مشخصه هستند. مقدار متغیر و وزن یا اهمیت آن مقدار. ورودی یک سلول عصبی مصنوعی حاصلضرب مقدارها در وزن‌های مربوطه است. معمولا ورودی‌ها به بردار مقدارها و بردار وزن‌ها در نظر گرفته می‌شوند.

زمانی که یک سینگال یا ورودی به سلول وارد می‌شود، با ورودی‌های دیگر تجمیع شده و براساس تابعی محاسباتی (که معمولا یکی از انواع «تابع زیان» (Loss Fucntion) در نظر گرفته می‌شود)، مقدار خروجی حاصل می‌شود. ممکن است برای مثال تابع محاسباتی جمع باشد. این کار درون سلول عصبی صورت می‌گیرد. تابع خروجی یا «تابع فعال‌سازی» (Activation Function) براساس این محاسبه مقدار خروجی را تعیین می‌کند. یکی از معمول‌ترین توابع فعال سازی، «تابع باینری» (Binary Function) است که به صورت یک «تصمیم صفر و یک» (Binary Decision) خواهد بود. تصویر زیر این مراحل را به خوبی نشان می‌دهد.

در اینجا wiw_i وزن و xix_i هر ورودی هستند. تابع محاسبه شده در پرسپترون نیز می‌تواند به صورت جمع وزنی مقادیر باشد. در صورتی که این جمع از مقدار خاصی بیشتر شود، مقدار تابع فعال‌سازی برابر با ۱ و در غیر اینصورت برابر با صفر خواهد بود. البته جمله bb در محاسبه سلول پرسپترون به همراه یک مقدار اریبی (Bias) مثل bb ظاهر شده است.

Φ(X)={1wx+b>s0otherwise\large \Phi(X)=\begin{cases}1 & wx +b >s\\0 & \texttt{otherwise}\end{cases}

بنابراین اگر یک شبکه عصبی مصنوعی را ترکیبی از سلول‌های عصبی مصنوعی در نظر بگیریم، ساختار آن را می‌توانیم به صورت زیر تصور کنیم.

simple_ANN
شبکه عصبی ساده

در ادامه به بررسی یک شبکه عصبی ساده و پیاده‌سازی آن در پایتون به منظور تشخیص و خوشه‌بندی دو گروه داده خواهیم پرداخت.

پیاده‌سازی شبکه عصبی در پایتون

به منظور آشنایی با نحوه عملکرد یک شبکه عصبی و ارتباط بین سلول‌های عصبی (پرسپترون) از یک مثال با کدهای پایتون برای ایجاد و محاسبه عملگر AND در محاسبات دودویی استفاده می‌کنیم. فرض کنید دو ورودی Input1 و Input2 به شبکه وارد شده و قرار است ساختاری به مانند زیر به عنوان خروجی در Output ایجاد شود. این دقیقا همان جدول ارزش برای ترکیب عطفی گزاره‌های منطقی است.

and input output

از کدهایی زیر به این منظور استفاده شده است. توجه داشته باشید که در اینجا به ورودی‌ها هیچ وزنی داده نشده است در نتیجه همه ورودی‌ها اهمیت یکسانی (وزنی برابر با 0.5) دارند. بنابراین اگر هر مقدار باینری (۰ یا ۱) به عنوان Input1 و Input2 به سلول عصبی خورانده شود در مقدار وزن 0.5 ضرب شده و حاصل جمع آن‌ها محاسبه می‌شود. اگر این مجموع از 0.5 کوچکتر باشد، جواب صفر و در غیراینصورت جواب یا خروجی ۱ خواهد بود.

همانطور که در کد قابل مشاهده است، تعیین وزن‌ها در بخش __def__init صورت گرفته است. همچنین استفاده از وزن‌ها و محاسبه ورودی‌ها در بخش ــdef__call قابل مشاهده است. همچنین تابع فعال‌سازی نیز در قسمت staticmethod@ قابل تشخیص است. مجموعه این بخش‌ها یک کلاس پایتون به نام Perceptron را تشکیل می‌دهد.

1import numpy as np
2class Perceptron:
3    
4    def __init__(self, input_length, weights=None):
5        if weights is None:
6            self.weights = np.ones(input_length) * 0.5
7        else:
8            self.weights = weights
9        
10    @staticmethod
11    def unit_step_function(x):
12        if x > 0.5:
13            return 1
14        return 0
15        
16    def __call__(self, in_data):
17        weighted_input = self.weights * in_data
18        weighted_sum = weighted_input.sum()
19        return Perceptron.unit_step_function(weighted_sum)
20    
21p = Perceptron(2, np.array([0.5, 0.5]))
22for x in [np.array([0, 0]), np.array([0, 1]), 
23          np.array([1, 0]), np.array([1, 1])]:
24    y = p(np.array(x))
25    print(x, y)

با توجه به ورودی‌ها که توسط حلقه for ایجاد شده است، محاسبات در شبکه عصبی صورت گرفته و نتیجه اجرای کد در متغیر y ثبت شده است. در انتها نیز با دستور print ورود‌ی‌ها و خروجی نمایش داده شده‌اند. با اجرای این کد خروجی به صورت زیر خواهد بود.

1[0 0] 0
2[0 1] 0
3[1 0] 0
4[1 1] 1

تفکیک و تشخیص دو گروه به کمک شبکه عصبی

در ادامه با کد و برنامه‌ای کار خواهیم کرد که به کمک شبکه عصبی، قادر به تشخیص دو خوشه یا دو کلاس از اشیاء در فضای دو بُعدی است. نقاطی که در تصویر زیر می‌بینید اعضای خوشه‌ها یا کلاس‌ها را نشان می‌دهند.

linear_separation

نکته: در اینجا معادله خط مورد نظر را با رگرسیون و مدل خطی اشتباه نگیرید. در رگرسیون هدف برآورد و مشخص کردن پارامترهایی است که به کمک آن نقاط قابل پیش‌بینی هستند ولی در این مسئله، موضوع مربوط به خطی است که بیشترین تفکیک را بین کلاس‌ها ایجاد می‌کند.

قرار است پارامترهای معادله یک خط به عنوان خط تفکیک کننده توسط شبکه عصبی شناسایی و برآورد شود. در اینجا خط L را که وظیفه تفکیک را به عهده دارد، به نام «مرز‌ تصمیم» (Decision Boundary) می‌شناسیم.

line_separation groups

کدهایی که در ادامه مشاهده می‌کنید به این منظور نوشته شده است. مشخص است که قسمتی از کد قبلی در اینجا هم دیده می‌شود. وزن هر مشاهده در این برنامه به صورت زیر در نظر گرفته شده است.

w۱=w2=0.5 \large w_۱= w_2=0.5

1import numpy as np
2from collections import Counter
3class Perceptron:
4    
5    def __init__(self, input_length, weights=None):
6        if weights==None:
7            self.weights = np.random.random((input_length)) * 0.5
8        self.learning_rate = 0.1
9        
10    @staticmethod
11    def unit_step_function(x):
12        if x < 0:
13            return 0
14        return 1
15        
16    def __call__(self, in_data):
17        weighted_input = self.weights * in_data
18        weighted_sum = weighted_input.sum()
19        return Perceptron.unit_step_function(weighted_sum)
20    
21    def adjust(self, 
22               target_result, 
23               calculated_result,
24               in_data):
25        error = target_result - calculated_result
26        for i in range(len(in_data)):
27            correction = error * in_data[i] *self.learning_rate
28            self.weights[i] += correction 
29     
30def above_line(point, line_func):
31    x, y = point
32    if y > line_func(x):
33        return 1
34    else:
35        return 0
36  
37points = np.random.randint(1, 100, (100, 2))
38p = Perceptron(2)
39def lin1(x):
40    return  x
41for point in points:
42    p.adjust(above_line(point, lin1), 
43             p(point), 
44             point)
45evaluation = Counter()
46for point in points:
47    if p(point) == above_line(point, lin1):
48        evaluation["correct"] += 1
49    else:
50        evaluation["wrong"] += 1
51print(evaluation.most_common())
52# the following line is only needed,
53# if you use "ipython notebook":
54#matplotlib inline 
55from matplotlib import pyplot as plt
56cls = [[], []]
57for point in points:
58    cls[above_line(point, lin1)].append(tuple(point))
59colours = ("r", "b")
60for i in range(2):
61    X, Y = zip(*cls[i])
62    plt.scatter(X, Y, c=colours[i])
63    
64X = np.arange(-3, 120)
65    
66plt.plot(X, lin1(X), label="line1")
67plt.legend()
68plt.show()

خروجی و نمودار حاصل از اجرای این برنامه در ادامه قابل مشاهده است.

1[('correct', 99), ('wrong', 1)]

no bias equal weights

حال فرض کنید که برای نقاط، وزن‌ها به صورت زیر تعریف شده باشند.

w=۲x1 \large w= ۲x-1

این امر نشان می‌دهد که برای مقدارهای بزرگتر از 0.5 وزن افزایش داشته ولی برای مقدارهای کوچکتر از آن، وزن منفی خواهد بود. پس انتظار داریم نیمی از نقطه‌ها بالا و نیمی نیز در پایین خط قرار گیرند.

1import numpy as np
2from collections import Counter
3class Perceptron:
4    
5    def __init__(self, input_length, weights=None):
6        if weights==None:
7            self.weights = np.random.random((input_length)) * 2 - 1
8        self.learning_rate = 0.1
9        
10    @staticmethod
11    def unit_step_function(x):
12        if x < 0:
13            return 0
14        return 1
15        
16    def __call__(self, in_data):
17        weighted_input = self.weights * in_data
18        weighted_sum = weighted_input.sum()
19        return Perceptron.unit_step_function(weighted_sum)
20    
21    def adjust(self, 
22               target_result, 
23               calculated_result,
24               in_data):
25        error = target_result - calculated_result
26        for i in range(len(in_data)):
27            correction = error * in_data[i] *self.learning_rate
28            self.weights[i] += correction 
29     
30def above_line(point, line_func):
31    x, y = point
32    if y > line_func(x):
33        return 1
34    else:
35        return 0
36  
37points = np.random.randint(1, 100, (100, 2))
38p = Perceptron(2)
39def lin1(x):
40    return  x 
41for point in points:
42    p.adjust(above_line(point, lin1), 
43             p(point), 
44             point)
45evaluation = Counter()
46for point in points:
47    if p(point) == above_line(point, lin1):
48        evaluation["correct"] += 1
49    else:
50        evaluation["wrong"] += 1
51print(evaluation.most_common())

از آنجایی که تولید اعداد به صورت تصادفی است ممکن است با هر بار اجرای این برنامه خروجی‌های متفاوتی دریافت کنید. ولی برای مثال یکی از حالت‌هایی گوناگون را نتیجه اجرای برنامه است، در ادامه آورده‌ایم.

1('correct', 93), ('wrong', 7)]

این خروجی نشان می‌دهد که حدود ۷ مورد از نقاط توسط خط، به درستی در گروه خود قرار نگرفته‌اند و میزان کارایی الگوریتم و معادله خط در تشخیص نقاط حدود ۹۳ درصد است. با توجه به شرایط مسئله و وزن‌های مثبت و منفی، برای معادله خط باید رابطه زیر بین نقاط در نظر گرفته شود تا حاصل جمع (که همان تابع فعال‌سازی است) اریبی نداشته باشد.

xiwi=0 \large \sum x_iw_i=0

برای مثال اگر x1x_1 را با وزن w1w_1 و x2x_2 را را وزن w2w_2 در نظر بگیریم، خواهیم داشت.

x2=w1w2x1\large x_2=-\dfrac{w_1}{w_2}x_1

بنابراین چون معادله یک خط به صورت y=mx+by=mx+b نوشته می‌شود، معادله خط جداکننده برای این مشاهدات از مرکز مختصات عبور خواهد کرد ولی شیب آن تقریبا برابر با 1.02 است. حال فرض کنید که وزن‌ها متفاوت باشند. در این صورت نسبت آن‌ها برابر با یک نخواهد بود. در اینجا وزن‌ها براساس رابطه زیر بدست می‌آید.

wi=2xi1\large w_i=2x_i-1

همانطور که در ادامه می‌بینید، همان محاسبات قبلی به همراه خطوطی از کدهای جدید وجود دارد. این کد البته نمودار مربوط به نقاط را هم ترسیم می‌کند. توجه داشته باشید که این خطوط را در ادامه کد قبلی قرار داده شده و اجرا شوند.

1# the following line is only needed,
2# if you use "ipython notebook":
3%matplotlib inline 
4from matplotlib import pyplot as plt
5cls = [[], []]
6for point in points:
7    cls[above_line(point, lin1)].append(tuple(point))
8colours = ("r", "b")
9for i in range(2):
10    X, Y = zip(*cls[i])
11    plt.scatter(X, Y, c=colours[i])
12    
13X = np.arange(-3, 120)
14    
15m = -p.weights[0] / p.weights[1]
16print(m)
17plt.plot(X, m*X, label="ANN line")
18plt.plot(X, lin1(X), label="line1")
19plt.legend()
20plt.show()

خروجی به صورت زیر و به همراه نمودار خواهد بود. همانطور که دیده می‌شود دو خط ترسیم شده و برای دو شکل از معادله خط نمودار ظاهر شده است. عددی که در زیر مشاهده می‌کنید شیب خطی است که شبکه عصبی جدید برای داده‌ها مشخص کرده است. همانطور که مشخص است این شیب کمی با مقدار ۱ متفاوت است.

11.11082111934

ANN and line1

در ادامه به بررسی کدی می‌پردازیم که براساس وزن‌های مختلف در شبکه عصبی، محاسبات را انجام می‌دهد. کد‌هایی که در ادامه قابل مشاهده‌اند به منظور تولید داده‌ها در دو کلاس و با وزن‌های متفاوت ولی بدون اریبی (عرض از مبدا) نوشته شده‌اند.

1import numpy as np
2from matplotlib import pyplot as plt
3npoints = 50
4X, Y = [], []
5# class 0
6X.append(np.random.uniform(low=-2.5, high=2.3, size=(npoints,)) )
7Y.append(np.random.uniform(low=-1.7, high=2.8, size=(npoints,)))
8# class 1
9X.append(np.random.uniform(low=-7.2, high=-4.4, size=(npoints,)) )
10Y.append(np.random.uniform(low=3, high=6.5, size=(npoints,)))
11learnset = []
12for i in range(2):
13    # adding points of class i to learnset
14    points = zip(X[i], Y[i])
15    for p in points:
16        learnset.append((p, i))
17colours = ["b", "r"]
18for i in range(2):
19    plt.scatter(X[i], Y[i], c=colours[i])
20from collections import Counter
21class Perceptron:
22    
23    def __init__(self, input_length, weights=None):
24        if weights==None:
25            self.weights = np.random.random((input_length)) * 2 - 1
26        self.learning_rate = 0.1
27        
28    @staticmethod
29    def unit_step_function(x):
30        if x < 0:
31            return 0
32        return 1
33        
34    def __call__(self, in_data):
35        weighted_input = self.weights * in_data
36        weighted_sum = weighted_input.sum()
37        return Perceptron.unit_step_function(weighted_sum)
38    
39    def adjust(self, 
40               target_result, 
41               calculated_result,
42               in_data):
43        error = target_result - calculated_result
44        for i in range(len(in_data)):
45            correction = error * in_data[i] *self.learning_rate
46            self.weights[i] += correction 
47     
48  
49p = Perceptron(2)
50for point, label in learnset:
51    p.adjust(label, 
52             p(point), 
53             point)
54evaluation = Counter()
55for point, label in learnset:
56    if p(point) == label:
57        evaluation["correct"] += 1
58    else:
59        evaluation["wrong"] += 1
60print(evaluation.most_common())
61colours = ["b", "r"]
62for i in range(2):
63    plt.scatter(X[i], Y[i], c=colours[i])
64XR = np.arange(-8, 4)  
65m = -p.weights[0] / p.weights[1]
66print(m)
67plt.plot(XR, m*XR, label="decision boundary")
68plt.legend()
69plt.show()

پس از به کارگیری شبکه عصبی و اجرای برنامه، برای تفکیک این نقاط، میزان دقت تشخیص و شیب خط به صورت زیر است. به نظر می‌رسد که مدل ایجاد شده دارای دقت کافی نیست.

1[('correct', 77), ('wrong', 23)]
23.10186712936

decision boundary

همانطور که به نظر می‌رسد، مدل مورد نظر نتوانسته به خوبی خوشه‌ها را پیش‌بینی کند زیرا نقطه‌های آبی در حول مرکز با مختصات (0,0) پراکنده هستند. بنابراین وجود اریبی اینجا ضروری است تا شبکه عصبی، بهتر خوشه‌ها را از یکدیگر تفکیک کند. در نتیجه به معادله خطی احتیاج داریم که دارای عرض از مبدا باشد.

شبکه عصبی تک لایه‌ با میزان اریبی

همانطور که گفته شد، bb نشانگر عرض از مبدا یا محلی است که خط ترسیم شده محور عمودی را قطع می‌کند. ولی در قسمت قبلی مدل خطی که ایجاد کردیم از مرکز مختصات می‌گذشت در نتیجه عرض از مبدا برای آن صفر بود.

برای چنین حالتی می‌توانیم میزان اریبی را نیز مشخص کرده و مدل جدیدی را برای داده‌ها لحاظ کنیم. تصویر زیر یک شبکه عصبی با وجود اریبی به اندازه bb را نشان می‌دهد.

simple_ANN_bias

در این حالت رابطه‌ای که باید در پرسپترون شبکه عصبی لحاظ کرد به صورت زیر است.

bw+x1w1+x2w2=0\large bw+x_1w_1+x_2w_2=0

به این ترتیب بین طول و عرض نقاط خط تفکیک کننده باید رابطه زیر برقرار باشد.

 x2=w1w2x1w3w2b\large  x_2=-\dfrac{w_1}{w_2}x_1-\dfrac{w_3}{w_2}b

در کد زیر یک کلاس پرسپترون با وزن‌های مختلف و البته اریبی نوشته شده است. اصول و نحوه عملکرد درست به مانند حالت قبل است به جز اینکه در میزان وزن‌دهی و اریبی تفاوت وجود دارد. همانطور که مشخص است از توزیع یکنواخت (Uniform Distribution) که با تابع np.random.uniform مشخص شده، برای تولید اعداد تصادفی استفاده شده است. در ضمن از تابع سیگموئید (Sigmoid) که با sigmoid_function معرفی شده، به عنوان تابع فعال‌سازی استفاده شده است.

1import numpy as np
2from matplotlib import pyplot as plt
3npoints = 50
4X, Y = [], []
5# class 0
6X.append(np.random.uniform(low=-2.5, high=2.3, size=(npoints,)) )
7Y.append(np.random.uniform(low=-1.7, high=2.8, size=(npoints,)))
8# class 1
9X.append(np.random.uniform(low=-7.2, high=-4.4, size=(npoints,)) )
10Y.append(np.random.uniform(low=3, high=6.5, size=(npoints,)))
11learnset = []
12for i in range(2):
13    # adding points of class i to learnset
14    points = zip(X[i], Y[i])
15    for p in points:
16        learnset.append((p, i))
17colours = ["b", "r"]
18for i in range(2):
19    plt.scatter(X[i], Y[i], c=colours[i])
20    
21import numpy as np
22from collections import Counter
23class Perceptron:
24    
25    def __init__(self, input_length, weights=None):
26        if weights==None:
27            # input_length + 1 because bias needs a weight as well
28            self.weights = np.random.random((input_length + 1)) * 2 - 1
29        self.learning_rate = 0.05
30        self.bias = 1
31    
32    @staticmethod
33    def sigmoid_function(x):
34        res = 1 / (1 + np.power(np.e, -x))
35        return 0 if res < 0.5 else 1
36        
37    def __call__(self, in_data):
38        weighted_input = self.weights[:-1] * in_data
39        weighted_sum = weighted_input.sum() + self.bias *self.weights[-1]
40        return Perceptron.sigmoid_function(weighted_sum)
41    
42    def adjust(self, 
43               target_result, 
44               calculated_result,
45               in_data):
46        error = target_result - calculated_result
47        for i in range(len(in_data)):
48            correction = error * in_data[i]  *self.learning_rate
49            #print("weights: ", self.weights)
50            #print(target_result, calculated_result, in_data, error, correction)
51            self.weights[i] += correction 
52        # correct the bias:
53        correction = error * self.bias * self.learning_rate
54        self.weights[-1] += correction 
55     
56  
57p = Perceptron(2)
58for point, label in learnset:
59    p.adjust(label, 
60             p(point), 
61             point)
62evaluation = Counter()
63for point, label in learnset:
64    if p(point) == label:
65        evaluation["correct"] += 1
66    else:
67        evaluation["wrong"] += 1
68print(evaluation.most_common())
69colours = ["b", "r"]
70for i in range(2):
71    plt.scatter(X[i], Y[i], c=colours[i])
72XR = np.arange(-8, 4)  
73m = -p.weights[0] / p.weights[1]
74b = -p.weights[-1]/p.weights[1]
75print(m, b)
76plt.plot(XR, m*XR + b, label="decision boundary")
77plt.legend()
78plt.show()

خروجی و نمودار ترسیم شده در این حالت به صورت زیر خواهد بود.

1[('correct', 89), ('wrong', 11)]
2(-4.4747085666259885, -5.9570317327705196)

همانطور که دیده می‌شود، دقت تفکیک نقطه‌ها بسیار بهبود یافته است. شیب و عرض از مبدا برای خط تفکیک کننده نیز منفی است و مدل حدود ۹۰٪ موفق بوده است.

decision boundry with bais

اگر نوشته بالا برای شما مفید بوده است، آموزش‌های زیر نیز به شما پیشنهاد می‌شوند:

^^

بر اساس رای ۹ نفر
آیا این مطلب برای شما مفید بود؟
اگر بازخوردی درباره این مطلب دارید یا پرسشی دارید که بدون پاسخ مانده است، آن را از طریق بخش نظرات مطرح کنید.
نظر شما چیست؟

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *