داده کاوی، هوش مصنوعی ۱۴۷۱ بازدید

در قسمت‌های پیشین از مجموعه مطالب «هوش مصنوعی چیست؟» به تاریخچه و مبانی، مسائل، رویکردها و کاربردهای این حوزه پرداخته شد. در این بخش، مباحث فلسفی و اخلاقی مطرح پیرامون این موضوع مورد بررسی قرار خواهد گرفت. سه پرسش فلسفی که در رابطه با هوش مصنوعی همواره مطرح است در ادمه بیان شده‌اند.

  1. آیا هوش مصنوعی عمومی امکان‌پذیر است؟ آیا یک ماشین می‌تواند هر مساله‌ای را که توسط انسان قابل حل است، با استفاده از هوشمندی حل کند؟
  2. آیا ماشین‌های هوشمند خطرناک هستند؟ چگونه می‌توان اطمینان حاصل کرد که ماشین‌ها با اخلاق رفتار می‌کنند و به صورت اخلاقی مورد استفاده قرار می‌گیرند؟
  3. آیا یک ماشین می‌تواند ذهن، آگاهی و وضعیت ذهنی، دقیقا به شکلی که انسان از این موارد بهره می‌برد داشته باشد؟ آیا ماشین می‌تواند احساسات داشته باشد و به این ترتیب از حقوق خاصی برخوردار شود؟ آیا یک ماشین می‌تواند تعمدا باعث آسیب شود؟

محدودیت‌های هوش عمومی مصنوعی

آیا یک ماشین می‌تواند هوشمند باشد؟ آیا می‌تواند «فکر» کند؟

«کنوانسیون ادب» آلن تورینگ

نیازی نیست ما تصمیم بگیریم که یک ماشین «فکر» کند؛ تنها نیاز است تصمیم بگیریم که یک ماشین می‌تواند به اندازه یک انسان هوشمند باشد.

آلن تورینگ

وجود این رویکرد در مسائل فلسفی مرتبط با هوش مصنوعی، مبانی آزمون تورینگ را شکل می‌دهد.

طرحی از آزمون تورینگ

پروپوزال دارتموث

هر جنبه‌ای از یادگیری و یا هر ویژگی دیگری از هوشمندی را می‌توان به شکل دقیقی تشریح کرد تا یک ماشین بتواند آن را شبیه‌سازی کند.

این فرضیه در پروپوزال کنفرانس دارتموث در سال ۱۹۵۶ چاپ شد. رویداد مذکور، جایگاهی برای فعال‌ترین پژوهشگران هوش مصنوعی است.

پنج نفر از شرکت‌کنندگان رویداد تابستانی سال ۱۹۵۶ دارتموث

نظریه سیستم نمادین فیزیکی سیمون و نیوول

یک سیستم نمادین فیزیکی ابزارهای لازم مناسب برای فعالیت‌های هوش عمومی را دارد.

«نیوول» (Newell) و «سیمون» (Simon) چنین استدلال می‌کنند که هوش در بر گیرنده عملیات روی نمادها است. این در حالیست که «هوبرت درایفوس» (Hubert Dreyfus) استدلالی عکس این دارد و بیان می‌کند که تخصص‌های انسانی بستگی به ضمیر ناخودآگاه و داشتن «احساس» برای موقعیت‌های گوناگون و نه دستکاری آگاهانه نمادها و دانش نمادین صریح دارد.

استدلال گودلیان

«کورت گودل» (Gödel)، جان لوکاس (در سال ۱۹۶۱ | John Lucas) و راجر پن‌روز (در استدلالی مشروح‌تر طی سال ۱۹۸۹ | Roger Penrose) بر اساس یک استدلال بسیار فنی بیان کرده‌اند که ریاضیدان‌های انسانی همواره می‌توانند حقیقت عبارت گودل خود را ببینند و بنابراین دارای توانایی محاسباتی فراتر از ماشین مکانیکی تورینگ هستند. با این حال، اجماع مدرن در جامعه علمی و ریاضیاتی در «استدلال‌های گودل» شکست می‌خورد.

استدلال مغز مصنوعی

مغز می‌تواند به وسیله ماشین‌ها شبیه‌سازی شود و به دلیل هوشمند بودن مغز واقعی، نوع شبیه‌سازی شده آن نیز باید هوشمند باشد. بدین ترتیب، ماشین‌ها می‌توانند هوشمند باشند. «هانس موراوک» (Hans Moravec)، «ری کرزویل» (Ray Kurzweil) و برخی دیگر از پژوهشگران چنین استدلال می‌کنند که از لحاظ فناوری، کپی مغز به‌طور مستقیم روی سخت‌افزار و نرم‌افزار امکان‌پذیر است و درست مانند شرایطی که شبیه‌سازی انجام می‌شود، این کپی نیز اساسا با نسخه اصلی مغز یکسان خواهد بود.

اثر هوش مصنوعی

ماشین‌ها در حال حاضر هوشمند هستند، اما شاهدان در تشخیص این امر شکست می‌خورند. هنگامی که «دیپ بلو» (Deep Blue)، «گری کاسپاروف» (Garry Kasparov) قهرمان شطرنج جهان را شکست داد، ماشین در حال عملکرد هوشمندانه بود. اگرچه، ناظران به‌طور معمول رفتار یک برنامه هوش مصنوعی را با این استدلال که در نهایت هوشمندی واقعی نیست تنزل می‌دهند.

بنابراین، هوشمندی «واقعی» هرگونه رفتار هوشمندی است که افراد می‌توانند انجام بدهند ولی ماشین‌ها همچنان توانایی آن را ندارند. به این امر «اثر هوش مصنوعی» (AI Effect) گفته می‌شود. در واقع، مفهوم این پدیده عبارت است از: «هوش مصنوعی هر آنچه است که تاکنون به وقوع نپیوسته».

ریسک‌های بالقوه و استدلال اخلاقی

استفاده گسترده از هوش مصنوعی می‌تواند عواقب ناخواسته خطرناک یا نامطلوبی را به همراه داشته باشد. دانشمندان «موسسه آینده زندگی» (Future of Life Institute)، مجموعه‌ای از اهداف کوتاه مدت را برای مشاهده اثر هوش مصنوعی بر اقتصاد، قانون، اخلاق و چگونگی کاهش مخاطرات امنیتی تعریف کرده‌اند.

این در حالیست که دانشمندان پیشنهاد داده‌اند که بهینه‌سازی توابع، و کمینه‌سازی خطرات امنیتی احتمالی با بهره‌گیری از فناوری‌های جدید در بلند مدت انجام شود. ماشین‌های دارای هوشمندی این پتانسل را دارند که از هوشمندی خود برای اتخاذ تصمیم‌های اخلاقی استفاده کنند. از جمله پژوهش‌های انجام شده در این حوزه می‌توان به «اخلاق ماشین»، «عامل‌های اخلاقی مصنوعی» و «مطالعه هوش مصنوعی بدجنس در مقابل هوش مصنوعی دوست» اشاره کرد.

خطر انحصار

توسعه هوش مصنوعی کامل می‌تواند پایانی برای رقابت‌های انسانی باشد. با توسعه هوش مصنوعی توسط انسان‌ها، این عامل‌ها می‌توانند خود را خاموش و روشن کرده و همچنین خود را با نرخ فزاینده‌ای بازطراحی کنند. انسان‌ها، که به دلیل سرعت تکامل پایین خود محدود شده‌اند، در چنین شرایطی توانایی رقابت ندارند و با این عامل‌های هوشمند جایگزین خواهند شد.

استیون هاوکینگ

یک نگرانی عمومی پیرامون ساخت و توسعه هوش مصنوعی، تهدید بالقوه‌ای است که می‌تواند برای بشریت داشته باشد. این نگرانی اخیرا و پس از آنکه چهره‌های شاخصی مانند استیون هاوکینگ، بیل گیتس و ایلان ماسک درباره آن سخن به میان آوردند، توجهات زیادی را به خود جلب کرد.

گروهی از غول‌های برجسته فناوری مانند پیتر تیل، خدمات وب آمازون و ایلان ماسک مبلغ یک میلیارد به شرکت ناسودبر OpenAI اهدا کرده‌اند که هدف آن حمایت مسئولانه از هوش مصنوعی است. عقاید کارشناسان هوش مصنوعی ترکیبی است، و شکاف قابل توجهی بین نگرانی‌ها و مسائل غیر نگران کننده این حوزه بین پژوهشگران به ویژه در زمینه توانمندتر بودن عامل‌های هوشمند از انسان‌ها وجود دارد.

«نیک بوستروم» (Nick Bostrom) در کتاب «ابرهوشمندی: مسیر، خطرها و استراتژی‌ها»، استدلالی مبنی بر این ارائه می‌کند که هوش مصنوعی می‌تواند تهدیدی برای نوع بشر باشد. او چنین استدلال می‌کند که هوش مصنوعی مناسب، اگر بر اساس اهداف عمل کند، رفتار همگرایی مانند کسب منابع یا محافظت از خود در مقابل خاموش شدن نشان خواهد داد. اگر این اهداف هوش مصنوعی از خود انسانیت نشان ندهند (یک مثال از این امر هوش مصنوعی است که به آن گفته شده ارقام عدد پی را تا جای ممکن محاسبه کن) ممکن است برای کسب اهداف خود و منابع بیشتر یا جلوگیری از خاموش شدن تا ابد، به انسان‌ها آسیب بزند.

برای به واقعیت پیوستن چنین خطری، باید این فرضیه که هوش مصنوعی قدرتی فراتر و تفکری بالاتر از انسان دارد به وقوع بپیوندد. جمعیت کمی از دانشمندان معتقدند این امر آنقدر نزدیک باشد که ارزش بحث کردن داشته باشد. دیگر  مباحث حول محور انسان‌ها، ارزشمند بودن ذاتی یا همگرایی انسان‌ها از دید هوش مصنوعی است. نگرانی‌های موجود پیرامون هوش مصنوعی منجر به کمک‌ها و سرمایه‌گذاری‌های زیاد در این حوزه شده است.

در ژانویه ۲۰۱۵، ایلان ماسک ۱۰ میلیون دلار به موسسه «آینده زندگی» برای سرمایه‌گذاری در پژوهش‌های تصمیم‌گیری هوش مصنوعی اهدا کرد. هدف این موسسه «رشد خردی که با آن فناوری مدیریت شود» است. همچنین، ماسک از شرکت‌هایی که به توسعه هوش مصنوعی می‌پردازند مانند ذهن عمیق گوگل و «ویکاریوس» (Vicarious) صرفا با بیان اینکه «چشم از تغییراتی که در حوزه هوش مصنوعی به وقوع می‌پیوندد بر ندارند، زیرا من باور دارم خروجی خطرناکی در راه است» ،حمایت مالی کرده.

توسعه هوش مصنوعی نظامی دیگر نگرانی موجود در این حوزه است. در حال حاضر بیش از ۵۰ کشور در حال پژوهش پیرامون ربات‌های جنگی هستند که از این جمله می‌توان به ایالات متحده آمریکا، چین، روسیه و انگلستان اشاره کرد. بسیاری از افرادی که نگران خطرات هوش مصنوعی ابرهوشمند هستند، خواهان آنند که استفاده از سربازهای مصنوعی محدود شود.

کاهش ارزش انسانی

«جوزف وایزنباوم» (Joseph Weizenbaum) در مطلبی که در رابطه با هوش مصنوعی و اخلاق نوشته، بیان می‌کند که کاربردهای هوش مصنوعی در تعریف، نمی‌توانند توانایی تفکر واقعی انسان را به‌طور موفق شبیه‌سازی کنند و استفاده از هوش مصنوعی در زمینه‌هایی مانند خدمات مشتریان یا روان‌درمانی حرکتی عمیقا گمراهانه است. وایزنباوم همچنین نگران آن است که پژوهشگران هوش مصنوعی (و برخی فیلسوفان) به ذهن انسان به چشم یک برنامه کامپیوتری و نه چیزی بیشتر نگاه کنند (موقعیتی که در حال حاضر تحت عنوان نظریه محاسباتی ذهن مطرح است). برای وایزنباوم این نقاط بیم آن را می‌دهند که زندگی انسان بی‌ارزش است.

کاهش تقاضا برای نیروی کار انسانی

رابطه بین خودکارسازی و استخدام پیچیده است. در عین اینکه خودکارسازی، مشاغل پیشین را از بین می‌برد، از طریق اثرات میکرو-اقتصادی و ماکرو-اقتصادی منجر به ساخت فرصت‌های شغلی جدید نیز می‌شود. برخلاف موج‌های پیشین خودکارسازی، این بار بسیاری از مشاغل طبقه متوسط ممکن است توسط هوش مصنوعی حذف شوند.

در مطلبی که در هفته‌نامه خبری و بین‌المللی اکونومیست منتشر شد، آمده: «نگرانی از اینکه هوش مصنوعی می‌تواند کاری با مشاغل یقه سفید (کارهای کارمندی) کند که قدرت بخار با مشاغل یقه آبی (کارگرها) در طول انقلاب صنعتی کرد را باید به شدت جدی گرفت». تخمین ذهنی پژوهشگران گوناگون از این خطر اشکال متنوعی دارد. برای مثال، «مایکل آزبورن» (Michael Osborne) و «کارل بندیکت فری» (Carl Benedikt Frey) تخمین زده‌اند که ۴۷٪ مشاغل آمریکا دارای ریسک بالایی از خودکارسازی هستند. مشاغل دارای ریسک بالا از پارالگال‌ها گرفته تا فست‌فودها را شامل می‌شوند.

این در حالیست که این ریسک برای متخصصان مرتبط با مراقبت از سلامت فردی گرفته تا روحانیات نیز افزایش یافته است. «مارتین فورد» (Martin Ford) و دیگر پژوهشگران، گامی فراتر از این رفته و چنین استدلال می‌کنند که گستره وسیعی از مشاغل معمولی، تکراری و قابل پیش‌بینی (برای هوش مصنوعی) از بین خواهند رفت.

فورد هشدار می‌دهد که این مشاغل ممکن است در دو دهه آینده خودکارسازی شوند و همچنین مشاغل جدید ممکن است برای افراد با توانایی متوسط حتی در صورت آموزش دادن نیز انجام‌پذیر نباشد. در اکونومیست پیرامون همین مبحث آمده که: «در فناوری‌های پیشین گرایش به افزایش نیروی کار و نه کاهش آن وجود داشت، در حالیکه به نظر می‌رسد در حال حاضر وضعیت متفاوت باشد، البته هوش مصنوعی قلمرویی ناشناخته است.»

عامل‌های هوشمند اخلاقی

یکی از پرسش‌های مطرح در حوزه عامل‌های هوشمند، آن است که یک ماشین چطور باید در مقابل انسان‌ها و دیگر عامل‌های هوش مصنوعی به‌صورت اخلاقی برخورد کند. این مساله توسط «وندل والاچ» (Wendell Wallach) در کتابی با عنوان «ماشین‌های اخلاقی» (Moral Machines) مطرح شده که در آن مفهوم عامل‌های هوشمند اخلاقی (Artificial Moral Agents | AMA) مورد بررسی قرار گرفته است.

برای والاچ، AMA بخشی از چشم‌انداز پژوهشی هوش مصنوعی است که دو پرسش اصلی آن را هدایت می‌کند، این دو پرسش عبارتند از «آیا بشریت می‌خواهد که کامپیوترها تصمیم‌های اخلاقی اتخاذ کنند؟» و «آیا ربات‌ها واقعا می‌توانند با اخلاق باشند؟». والاچ بر این پرسش متمرکز است که آیا ماشین‌ها می‌توانند رفتار اخلاقی متناسب با محدودیت‌های مد نظر جامعه انسانی پیرامون ساخت و توسعه عامل‌های هوشمند اخلاقی داشته باشند؟

اخلاق ماشین

مبحث اخلاق ماشین معطوف به دادن اصول اخلاقی به ماشین‌ها و یا فرآیندی جهت کشف راهکاری برای حل معضلاتی که آن‌ها با آن مواجهند است. این راهکار عامل هوشمند را قادر به داشتن عملکرد مسئولانه اخلاقی در تصمیم‌سازی اخلاقی می‌سازد. این زمینه در سمپوزیوم اخلاق ماشینی AAAI در پاییز سال ۲۰۱۵ بدین شکل مطرح شد: «پژوهش‌های پیشین که به ارتباط بین فناوری و اخلاق معطوف بودند به‌طور گسترده بر مسئولیت‌پذیری و استفاده غیرمسئولانه از فناوری توسط انسان‌ها تمرکز داشتند، و همچنین، افرادی وجود داشتند که علاقمند به بررسی این امر بودند که نوع بشر چگونه با ماشین‌ها برخورد می‌کند.

در کلیه شرایط، تنها انسان‌ها در استدلال اخلاقی مشارکت داشته‌اند. زمان آن رسیده که دستکم به برخی از ماشین‌ها ابعاد اخلاقی داده شود. شناخت عواقب اخلاقی و رفتاری که ماشین را در بر می‌گیرد، همانند توسعه‌های اخیر و بالقوه به وقوت پیوسته در زمینه خودمختاری، این امر را الزام آور می‌کند.

علاوه بر هک کامپیوتری، ویژگی‌های نرم‌افزاری، حریم خصوصی، و دیگر مسائل نیز به‌طور طبیعی وابسته به اخلاق کامپیوتری هستند. اخلاق ماشینی معطوف به رفتار ماشین‌ها در مقابل کاربران انسانی و دیگر انواع ماشین‌ها است. پژوهش در اخلاق ماشینی کلید تسکین نگرانی‌ها در رابطه با سیستم‌های خودکار است (می‌توان چنین استدلال کرد که مفهوم ماشین‌های مستقل و فاقد چنین ابعاد اخلاقی، ریشه همه نگرانی‌های موجود پیرامون هوش ماشینی است).

به‌علاوه، تحقیق و بررسی پیرامون اخلاق ماشینی می‌تواند کشف مساله را با نظریه‌های اخلاقی کنونی امکان‌پذیر ساخته و تفکرات درباره اخلاق را ارتقا دهد. اخلاق ماشینی گاهی با عنوان ماشین اخلاقی، اخلاق محاسباتی یا محاسبات اخلاقی نیز نامیده می‌شود. گستره وسیعی از چشم‌اندازها در این زمینه نوظهور در اثر گردآوری شده با عنوان «اخلاق ماشین» براساس محتوای سمپوزیوم «AAAI Fall 2005 Symposium on Machine Ethics» موجود است.

هوش مصنوعی بدجنس و اخلاقی

«چارلز تی.رابین» (Charles T. Rubin)، دانشمند علوم سیاسی، بر این باور است که هیچ تضمینی مبنی بر طراحی «خیرخواهانه» هوش مصنوعی و داشتن رفتار خیرخوانه توسط عامل هوشمند وجود ندارد. او چنین استدلال می‌کند که هر خیرخواهی ارتقا یافته مناسبی ممکن است از بدجنسی قابل تمایز نباشد. انسان‌ها نباید فرض کنند که ماشین‌ها یا ربات‌ها با آن‌ها رفتار مطلوبی دارند، زیرا هیچ دلیلی از پیش وجود ندارد که بر اساس آن باور کرد که این عامل‌های هوشمند برای سیستم اخلاقی انسانی (که با تکامل در زیست‌شناسی انسانی همراه است) دلسوز هستند.

نرم‌افزارهای فراهوشمند ممکن است تصمیمی مبنی بر حمایت از وجود سلسله انسانیت اتخاذ نکنند، و متوقف کردن این تفکر در آن‌ها بسیار دشوار خواهد بود. این مساله اخیرا در آثار و نشریات دانشگاهی به عنوان منبع اصلی خطر برای شهری‌سازی، بشریت و سیاره زمین تشریح شده است.

استیون هاوکینگ – فیزیکدان -، بیل گیتس – بنیان‌گذار مایکروسافت – و ایلان ماسک – بنیان‌گذار اسپیس ایکس-، نگرانی‌های خود پیرامون احتمال اینکه هوش مصنوعی قابلیت‌هایی را در بر بگیرد که انسان‌ها نمی‌توانند آن‌ها را کنترل کنند ابزار کرده‌اند. هاوکینگ این مساله را با عنوان «طلسم پایان رقابت‌های بشر» نظریه‌پردازی کرده است. یکی از پیشنهادات برای مواجهه با این مساله، حصول اطمینان از این امر است که هوش مصنوعی اولین هوش عمومی از نوع «هوش مصنوعی دوستانه» است و در آینده قادر به کنترل هوش‌های مصنوعی است که متعاقبا ساخته و توسعه داده خواهند شد.

برخی از پژوهشگران در واکنش به این رویکرد، این پرسش را طرح می‌کنند که آیا چنین نگرشی واقعا می‌تواند جایگاهی داشته باشد؟ «رودنی بروکز» (Rodney Brooks)، پژوهشگر پیشرو در حوزه هوش مصنوعی چنین می‌نویسد: «من فکر می‌کنم هرگونه نگرانی از اینکه در حال توسعه هوش مصنوعی بدجنس هستیم دستکم طی چند صد سال آتی اشتباه است. من باور دارم چنین نگرانی‌هایی از این خطای بنیادین نشات می‌گیرد که نمی‌توان تفاوت بین پیشرفت‌های اخیر در جنبه خاصی از هوش مصنوعی و عظمت و پیچیدگی ساخت هوش هیجانی ذهنی را تمییز داد».

آگاهی، احساسات و ذهن ماشینی

اگر یک سیستم هوش مصنوعی همه جنبه‌های کلیدی هوش انسانی را تکثیر کند، آیا این سیستم احساساتی نیز خواهد بود؟ آیا ذهنی دارد که تجربه خودآگاهی داشته باشد؟ این سوال ارتباط نزدیکی با این مساله فلسفی دارد که ذات انسان هوشیار است، و به مساله دشوار خودآگاهی باز می‌گردد.

محاسبه‌گرایی و کاربردی بودن

«محاسبه‌گرایی» (Computationalism)، موقعیتی در فلسفه ذهن است که ذهن یا مغز انسان (یا هر دو) در آن یک سیستم پردازش اطلاعات محسوب می‌شوند. در این رویکرد، تفکر شکلی از محاسبات محسوب می‌شود. محسابه‌گرایی چنین استدلال می‌کند که رابطه بین ذهن و بدن چیزی مشابه یا یکسان با رابطه بین نرم‌افزار و سخت‌افزار است و بنابراین امکان دارد راهکاری برای مساله ذهن-بدن باشد. این موقعیت فلسفی را «جان سرل» (John Searle)، هوش مصنوعی قوی نامیده و در رابطه با آن می‌گوید: کامپیوترهای برنامه‌ریزی شده به شکل مناسب با ورودی‌ها و خروجی‌های صحیح، ممکن است ذهنی دقیقا مانند انسان‌ها داشته باشند. سرل این ادعا را با استدلال اتاق چینی که خواهان نگاه کردن به درون کامپیوتر و پیدا کردن چیستی ذهن است تحکیم می‌کند.

حقوق ربات‌ها

«مری شلی» (Mary Shelley)، در کتاب «فرانکنشتاین» (Frankenstein) یک مساله اساسی از اخلاق هوش مصنوعی را طرح می‌کند. شلی در رابطه با این مساله اساسی چنین می‌نویسد: «اگر یک ماشین دارای هوش قابل ساخت باشد، می‌تواند احساس هم داشته باشد؟ اگر می تواند احساس کند، آیا از حقوق انسانی برابری با انسان‌ها برخوردار است؟». ایده این مساله در فیلم‌های علمی-تخیلی جدید مانند «هوش مصنوعی» به تصویر کشیده شده است. در این فیلم، ماشین‌های انسان‌نما دارای توانایی احساس کردن هستند.

این مساله در حال حاضر با عنوان «حقوق ربات‌ها» شناخته شده و توسط اشخاص و مراکزی مانند «موسسه‌ای برای آینده» به رسمیت شناخته می‌شود. این در حالیست که برخی پژوهشگران وجود چنین بحث‌هایی را زودهنگام می‌دانند. برخی منتقدان ترابشریت چنین استدلال می‌کنند که هرگونه حقوق مفروضی برای ربات‌ها مبتنی بر طرحی همچون حقوق انسان‌ها و حیوانات خواهد بود. این موضوع در مستندی با عنوان «Plug & Pray» که سال ۲۰۱۰ منتشر شد مورد بحث قرار گرفته است.

ابرهوشمندی

آیا محدودیتی بر میزان هوشمند بودن ربات‌ها یا ربات-انسان‌ها وجود دارد؟ می‌تواند وجود داشته باشد؟ فراهوشمند، فوق هوشمند و ماورای هوشمند یک عامل فرضی است که دارای هوشی فراتر از هوشمندترین و قدرتمندترین ذهن انسانی است. فراهوشمندی می‌تواند درجه یا شکلی از هوشمندی باشد که توسط یک عامل قابل دستیابی است.

تکینگی فناوری

اگر پژوهش‌های انجام شده و در حال انجام در حوزه هوش مصنوعی قوی منجر به تولید یک نرم‌افزار به اندازه مناسب هوشمند شود، ممکن است این عامل قادر به باز‌برنامه‌ریزی و بهبود خود باشد. نرم‌افزار بهبود یافته می‌تواند حتی در بهبود خودش نیز بهتر از انسان عمل کند. این امر منجر به «خودبهبودی بازگشتی» (recursive self-improvement) می‌شود. بدین ترتیب، هوشمندی جدید ممکن است به‌طور قابل توجهی افزایش یافته و به طرز چشم‌گیری از انسان پیشی بگیرد. «ورنر وینج» (Vernor Vinge)، ریاضی‌دان، مهندس کامپیوتر، پدیدآور، و رمان‌نویس (کتاب‌های علمی و تخیلی)، این سناریو را «تکینگی» نامیده است.

«تکینگی فناوری» (technological singularity) هنگامی به وقوع می‌پیوندد که تسریع در پیشرفت فناوری منجر به اثری شود که هوش مصنوعی از ظرفیت ذهنی انسان پیشی بگیرد و در نتیجه، تمدن بشری را کنترل کند، به‌طور اساسی تغییر و یا حتی به آن پایان دهد. به دلیل آنکه درک چنین هوشمندی غیر ممکن است، تکینگی فناوری واقعه‌ای فراتر از آن است که رویدادهای پس از آن قابل پیش‌بینی، فهم و عمق‌سنجی باشند. ری کرزویل، از قانون «مور» (Moore’s law) (که پیشرفت بی‌وقفه در فناوری‌های دیجیتال را پیش‌بینی می‌کند) استفاده و محاسبه می‌کند که کامپیوترهای دسکتاپ تا سال ۲۰۲۹ قدرتی مشابه مغز انسان خواهند داشت. او همچنین پیش‌بینی می‌کند که تکینگی در سال ۲۰۴۵ به وقوع بپیوندد.

ترابشریت

یک روز از خواب برمی‌خیزی تا مغز جدید خود را که عملکرد لوب جدیدی دارد کشف کنی. این لوب پنهانی و کمکی به پرسش‌هایت با اطلاعاتی فراتر از قلمرو مغز خودت پاسخ می‌دهد، مجموعه اقدامات محتمل و قابل انجام را پیشنهاد می‌کند و پرسش‌هایی را طرح می‌کند که به تو در یافتن حقایق مرتبط کمک می‌کند. تو به سرعت آنچنان به لوب جدید تکیه می‌کنی که دیگر از نحوه عملکرد آن شگفت‌زده نخواهی شد. تو فقط از این لوب استفاده می کنی. این رویای هوش مصنوعی است.

مجله بایت، آپریل ۱۹۸۵

هانس موراوک – خالق ربات‌های هوشمند -، «کوین وارویک» (Kevin Warwick) – پژوهشگر سایبرنتیک – و ری کرزویل – مخترع -، پیش‌بینی کرده‌اند که انسان‌ها و ماشین‌ها در آینده در موجوداتی به نام سایبورگ یکپارچه می‌شوند که از هر دو آن‌ها توانمندتر و قدرتمندتر است. این ایده، «ترابشریت» (transhumanism) نام دارد و ریشه‌های آن به آنچه «آلدوس هاکسلی» (Aldous Huxley)، «رابرت اتینگر» (Robert Ettinger) و آثار علمی-تخیلی مانند «شبح درون پوسته» (Ghost in the Shell) و «تل ماسه» (Dune) به تصویر کشیده‌اند باز می‌گردد.

«ادوارد فردکین» (Edward Fredkin)، چنین استدلال می‌کند که هوش مصنوعی گام بعدی در تکامل است. این ایده اولین بار توسط «ساموئل باتلر» (Samuel Butler) در مقاله «داروین در میان ماشین‌ها» (Darwin among the Machines) که در سال ۱۸۳۶ منتشر شد مطرح و توسط «جورج دایسن» (George Dyson) در کتابی با همین نام گسترش یافت.

اگر نوشته بالا برای شما مفید بوده، آموزش‌های زیر نیز به شما پیشنهاد می‌شوند:

^^

بر اساس رای ۷ نفر
آیا این مطلب برای شما مفید بود؟
شما قبلا رای داده‌اید!
اگر بازخوردی درباره این مطلب دارید یا پرسشی دارید که بدون پاسخ مانده است، آن را از طریق بخش نظرات مطرح کنید.

«الهام حصارکی»، فارغ‌التحصیل مقطع کارشناسی ارشد مهندسی فناوری اطلاعات، گرایش سیستم‌های اطلاعات مدیریت است. او در زمینه هوش مصنوعی و داده‌کاوی، به ویژه تحلیل شبکه‌های اجتماعی، فعالیت می‌کند.

نظر شما چیست؟

نشانی ایمیل شما منتشر نخواهد شد.

مشاهده بیشتر