هوش مصنوعی چیست؟ ــ بخش ششم: فلسفه و اخلاق
در قسمتهای پیشین از مجموعه مطالب «هوش مصنوعی چیست؟» به تاریخچه و مبانی، مسائل، رویکردها و کاربردهای این حوزه پرداخته شد. در این بخش، مباحث فلسفی و اخلاقی مطرح پیرامون این موضوع مورد بررسی قرار خواهد گرفت. سه پرسش فلسفی که در رابطه با هوش مصنوعی همواره مطرح است در ادمه بیان شدهاند.
- آیا هوش مصنوعی عمومی امکانپذیر است؟ آیا یک ماشین میتواند هر مسالهای را که توسط انسان قابل حل است، با استفاده از هوشمندی حل کند؟
- آیا ماشینهای هوشمند خطرناک هستند؟ چگونه میتوان اطمینان حاصل کرد که ماشینها با اخلاق رفتار میکنند و به صورت اخلاقی مورد استفاده قرار میگیرند؟
- آیا یک ماشین میتواند ذهن، آگاهی و وضعیت ذهنی، دقیقا به شکلی که انسان از این موارد بهره میبرد داشته باشد؟ آیا ماشین میتواند احساسات داشته باشد و به این ترتیب از حقوق خاصی برخوردار شود؟ آیا یک ماشین میتواند تعمدا باعث آسیب شود؟
محدودیتهای هوش عمومی مصنوعی
آیا یک ماشین میتواند هوشمند باشد؟ آیا میتواند «فکر» کند؟
«کنوانسیون ادب» آلن تورینگ
نیازی نیست ما تصمیم بگیریم که یک ماشین «فکر» کند؛ تنها نیاز است تصمیم بگیریم که یک ماشین میتواند به اندازه یک انسان هوشمند باشد.
آلن تورینگ
وجود این رویکرد در مسائل فلسفی مرتبط با هوش مصنوعی، مبانی آزمون تورینگ را شکل میدهد.
پروپوزال دارتموث
هر جنبهای از یادگیری و یا هر ویژگی دیگری از هوشمندی را میتوان به شکل دقیقی تشریح کرد تا یک ماشین بتواند آن را شبیهسازی کند.
این فرضیه در پروپوزال کنفرانس دارتموث در سال ۱۹۵۶ چاپ شد. رویداد مذکور، جایگاهی برای فعالترین پژوهشگران هوش مصنوعی است.
نظریه سیستم نمادین فیزیکی سیمون و نیوول
یک سیستم نمادین فیزیکی ابزارهای لازم مناسب برای فعالیتهای هوش عمومی را دارد.
«نیوول» (Newell) و «سیمون» (Simon) چنین استدلال میکنند که هوش در بر گیرنده عملیات روی نمادها است. این در حالیست که «هوبرت درایفوس» (Hubert Dreyfus) استدلالی عکس این دارد و بیان میکند که تخصصهای انسانی بستگی به ضمیر ناخودآگاه و داشتن «احساس» برای موقعیتهای گوناگون و نه دستکاری آگاهانه نمادها و دانش نمادین صریح دارد.
استدلال گودلیان
«کورت گودل» (Gödel)، جان لوکاس (در سال ۱۹۶۱ | John Lucas) و راجر پنروز (در استدلالی مشروحتر طی سال ۱۹۸۹ | Roger Penrose) بر اساس یک استدلال بسیار فنی بیان کردهاند که ریاضیدانهای انسانی همواره میتوانند حقیقت عبارت گودل خود را ببینند و بنابراین دارای توانایی محاسباتی فراتر از ماشین مکانیکی تورینگ هستند. با این حال، اجماع مدرن در جامعه علمی و ریاضیاتی در «استدلالهای گودل» شکست میخورد.
استدلال مغز مصنوعی
مغز میتواند به وسیله ماشینها شبیهسازی شود و به دلیل هوشمند بودن مغز واقعی، نوع شبیهسازی شده آن نیز باید هوشمند باشد. بدین ترتیب، ماشینها میتوانند هوشمند باشند. «هانس موراوک» (Hans Moravec)، «ری کرزویل» (Ray Kurzweil) و برخی دیگر از پژوهشگران چنین استدلال میکنند که از لحاظ فناوری، کپی مغز بهطور مستقیم روی سختافزار و نرمافزار امکانپذیر است و درست مانند شرایطی که شبیهسازی انجام میشود، این کپی نیز اساسا با نسخه اصلی مغز یکسان خواهد بود.
اثر هوش مصنوعی
ماشینها در حال حاضر هوشمند هستند، اما شاهدان در تشخیص این امر شکست میخورند. هنگامی که «دیپ بلو» (Deep Blue)، «گری کاسپاروف» (Garry Kasparov) قهرمان شطرنج جهان را شکست داد، ماشین در حال عملکرد هوشمندانه بود. اگرچه، ناظران بهطور معمول رفتار یک برنامه هوش مصنوعی را با این استدلال که در نهایت هوشمندی واقعی نیست تنزل میدهند.
بنابراین، هوشمندی «واقعی» هرگونه رفتار هوشمندی است که افراد میتوانند انجام بدهند ولی ماشینها همچنان توانایی آن را ندارند. به این امر «اثر هوش مصنوعی» (AI Effect) گفته میشود. در واقع، مفهوم این پدیده عبارت است از: «هوش مصنوعی هر آنچه است که تاکنون به وقوع نپیوسته».
ریسکهای بالقوه و استدلال اخلاقی
استفاده گسترده از هوش مصنوعی میتواند عواقب ناخواسته خطرناک یا نامطلوبی را به همراه داشته باشد. دانشمندان «موسسه آینده زندگی» (Future of Life Institute)، مجموعهای از اهداف کوتاه مدت را برای مشاهده اثر هوش مصنوعی بر اقتصاد، قانون، اخلاق و چگونگی کاهش مخاطرات امنیتی تعریف کردهاند.
این در حالیست که دانشمندان پیشنهاد دادهاند که بهینهسازی توابع، و کمینهسازی خطرات امنیتی احتمالی با بهرهگیری از فناوریهای جدید در بلند مدت انجام شود. ماشینهای دارای هوشمندی این پتانسل را دارند که از هوشمندی خود برای اتخاذ تصمیمهای اخلاقی استفاده کنند. از جمله پژوهشهای انجام شده در این حوزه میتوان به «اخلاق ماشین»، «عاملهای اخلاقی مصنوعی» و «مطالعه هوش مصنوعی بدجنس در مقابل هوش مصنوعی دوست» اشاره کرد.
خطر انحصار
توسعه هوش مصنوعی کامل میتواند پایانی برای رقابتهای انسانی باشد. با توسعه هوش مصنوعی توسط انسانها، این عاملها میتوانند خود را خاموش و روشن کرده و همچنین خود را با نرخ فزایندهای بازطراحی کنند. انسانها، که به دلیل سرعت تکامل پایین خود محدود شدهاند، در چنین شرایطی توانایی رقابت ندارند و با این عاملهای هوشمند جایگزین خواهند شد.
استیون هاوکینگ
یک نگرانی عمومی پیرامون ساخت و توسعه هوش مصنوعی، تهدید بالقوهای است که میتواند برای بشریت داشته باشد. این نگرانی اخیرا و پس از آنکه چهرههای شاخصی مانند استیون هاوکینگ، بیل گیتس و ایلان ماسک درباره آن سخن به میان آوردند، توجهات زیادی را به خود جلب کرد.
گروهی از غولهای برجسته فناوری مانند پیتر تیل، خدمات وب آمازون و ایلان ماسک مبلغ یک میلیارد به شرکت ناسودبر OpenAI اهدا کردهاند که هدف آن حمایت مسئولانه از هوش مصنوعی است. عقاید کارشناسان هوش مصنوعی ترکیبی است، و شکاف قابل توجهی بین نگرانیها و مسائل غیر نگران کننده این حوزه بین پژوهشگران به ویژه در زمینه توانمندتر بودن عاملهای هوشمند از انسانها وجود دارد.
«نیک بوستروم» (Nick Bostrom) در کتاب «ابرهوشمندی: مسیر، خطرها و استراتژیها»، استدلالی مبنی بر این ارائه میکند که هوش مصنوعی میتواند تهدیدی برای نوع بشر باشد. او چنین استدلال میکند که هوش مصنوعی مناسب، اگر بر اساس اهداف عمل کند، رفتار همگرایی مانند کسب منابع یا محافظت از خود در مقابل خاموش شدن نشان خواهد داد. اگر این اهداف هوش مصنوعی از خود انسانیت نشان ندهند (یک مثال از این امر هوش مصنوعی است که به آن گفته شده ارقام عدد پی را تا جای ممکن محاسبه کن) ممکن است برای کسب اهداف خود و منابع بیشتر یا جلوگیری از خاموش شدن تا ابد، به انسانها آسیب بزند.
برای به واقعیت پیوستن چنین خطری، باید این فرضیه که هوش مصنوعی قدرتی فراتر و تفکری بالاتر از انسان دارد به وقوع بپیوندد. جمعیت کمی از دانشمندان معتقدند این امر آنقدر نزدیک باشد که ارزش بحث کردن داشته باشد. دیگر مباحث حول محور انسانها، ارزشمند بودن ذاتی یا همگرایی انسانها از دید هوش مصنوعی است. نگرانیهای موجود پیرامون هوش مصنوعی منجر به کمکها و سرمایهگذاریهای زیاد در این حوزه شده است.
در ژانویه ۲۰۱۵، ایلان ماسک ۱۰ میلیون دلار به موسسه «آینده زندگی» برای سرمایهگذاری در پژوهشهای تصمیمگیری هوش مصنوعی اهدا کرد. هدف این موسسه «رشد خردی که با آن فناوری مدیریت شود» است. همچنین، ماسک از شرکتهایی که به توسعه هوش مصنوعی میپردازند مانند ذهن عمیق گوگل و «ویکاریوس» (Vicarious) صرفا با بیان اینکه «چشم از تغییراتی که در حوزه هوش مصنوعی به وقوع میپیوندد بر ندارند، زیرا من باور دارم خروجی خطرناکی در راه است» ،حمایت مالی کرده.
توسعه هوش مصنوعی نظامی دیگر نگرانی موجود در این حوزه است. در حال حاضر بیش از ۵۰ کشور در حال پژوهش پیرامون رباتهای جنگی هستند که از این جمله میتوان به ایالات متحده آمریکا، چین، روسیه و انگلستان اشاره کرد. بسیاری از افرادی که نگران خطرات هوش مصنوعی ابرهوشمند هستند، خواهان آنند که استفاده از سربازهای مصنوعی محدود شود.
کاهش ارزش انسانی
«جوزف وایزنباوم» (Joseph Weizenbaum) در مطلبی که در رابطه با هوش مصنوعی و اخلاق نوشته، بیان میکند که کاربردهای هوش مصنوعی در تعریف، نمیتوانند توانایی تفکر واقعی انسان را بهطور موفق شبیهسازی کنند و استفاده از هوش مصنوعی در زمینههایی مانند خدمات مشتریان یا رواندرمانی حرکتی عمیقا گمراهانه است. وایزنباوم همچنین نگران آن است که پژوهشگران هوش مصنوعی (و برخی فیلسوفان) به ذهن انسان به چشم یک برنامه کامپیوتری و نه چیزی بیشتر نگاه کنند (موقعیتی که در حال حاضر تحت عنوان نظریه محاسباتی ذهن مطرح است). برای وایزنباوم این نقاط بیم آن را میدهند که زندگی انسان بیارزش است.
کاهش تقاضا برای نیروی کار انسانی
رابطه بین خودکارسازی و استخدام پیچیده است. در عین اینکه خودکارسازی، مشاغل پیشین را از بین میبرد، از طریق اثرات میکرو-اقتصادی و ماکرو-اقتصادی منجر به ساخت فرصتهای شغلی جدید نیز میشود. برخلاف موجهای پیشین خودکارسازی، این بار بسیاری از مشاغل طبقه متوسط ممکن است توسط هوش مصنوعی حذف شوند.
در مطلبی که در هفتهنامه خبری و بینالمللی اکونومیست منتشر شد، آمده: «نگرانی از اینکه هوش مصنوعی میتواند کاری با مشاغل یقه سفید (کارهای کارمندی) کند که قدرت بخار با مشاغل یقه آبی (کارگرها) در طول انقلاب صنعتی کرد را باید به شدت جدی گرفت». تخمین ذهنی پژوهشگران گوناگون از این خطر اشکال متنوعی دارد. برای مثال، «مایکل آزبورن» (Michael Osborne) و «کارل بندیکت فری» (Carl Benedikt Frey) تخمین زدهاند که ۴۷٪ مشاغل آمریکا دارای ریسک بالایی از خودکارسازی هستند. مشاغل دارای ریسک بالا از پارالگالها گرفته تا فستفودها را شامل میشوند.
این در حالیست که این ریسک برای متخصصان مرتبط با مراقبت از سلامت فردی گرفته تا روحانیات نیز افزایش یافته است. «مارتین فورد» (Martin Ford) و دیگر پژوهشگران، گامی فراتر از این رفته و چنین استدلال میکنند که گستره وسیعی از مشاغل معمولی، تکراری و قابل پیشبینی (برای هوش مصنوعی) از بین خواهند رفت.
فورد هشدار میدهد که این مشاغل ممکن است در دو دهه آینده خودکارسازی شوند و همچنین مشاغل جدید ممکن است برای افراد با توانایی متوسط حتی در صورت آموزش دادن نیز انجامپذیر نباشد. در اکونومیست پیرامون همین مبحث آمده که: «در فناوریهای پیشین گرایش به افزایش نیروی کار و نه کاهش آن وجود داشت، در حالیکه به نظر میرسد در حال حاضر وضعیت متفاوت باشد، البته هوش مصنوعی قلمرویی ناشناخته است.»
عاملهای هوشمند اخلاقی
یکی از پرسشهای مطرح در حوزه عاملهای هوشمند، آن است که یک ماشین چطور باید در مقابل انسانها و دیگر عاملهای هوش مصنوعی بهصورت اخلاقی برخورد کند. این مساله توسط «وندل والاچ» (Wendell Wallach) در کتابی با عنوان «ماشینهای اخلاقی» (Moral Machines) مطرح شده که در آن مفهوم عاملهای هوشمند اخلاقی (Artificial Moral Agents | AMA) مورد بررسی قرار گرفته است.
برای والاچ، AMA بخشی از چشمانداز پژوهشی هوش مصنوعی است که دو پرسش اصلی آن را هدایت میکند، این دو پرسش عبارتند از «آیا بشریت میخواهد که کامپیوترها تصمیمهای اخلاقی اتخاذ کنند؟» و «آیا رباتها واقعا میتوانند با اخلاق باشند؟». والاچ بر این پرسش متمرکز است که آیا ماشینها میتوانند رفتار اخلاقی متناسب با محدودیتهای مد نظر جامعه انسانی پیرامون ساخت و توسعه عاملهای هوشمند اخلاقی داشته باشند؟
اخلاق ماشین
مبحث اخلاق ماشین معطوف به دادن اصول اخلاقی به ماشینها و یا فرآیندی جهت کشف راهکاری برای حل معضلاتی که آنها با آن مواجهند است. این راهکار عامل هوشمند را قادر به داشتن عملکرد مسئولانه اخلاقی در تصمیمسازی اخلاقی میسازد. این زمینه در سمپوزیوم اخلاق ماشینی AAAI در پاییز سال ۲۰۱۵ بدین شکل مطرح شد: «پژوهشهای پیشین که به ارتباط بین فناوری و اخلاق معطوف بودند بهطور گسترده بر مسئولیتپذیری و استفاده غیرمسئولانه از فناوری توسط انسانها تمرکز داشتند، و همچنین، افرادی وجود داشتند که علاقمند به بررسی این امر بودند که نوع بشر چگونه با ماشینها برخورد میکند.
در کلیه شرایط، تنها انسانها در استدلال اخلاقی مشارکت داشتهاند. زمان آن رسیده که دستکم به برخی از ماشینها ابعاد اخلاقی داده شود. شناخت عواقب اخلاقی و رفتاری که ماشین را در بر میگیرد، همانند توسعههای اخیر و بالقوه به وقوت پیوسته در زمینه خودمختاری، این امر را الزام آور میکند.
علاوه بر هک کامپیوتری، ویژگیهای نرمافزاری، حریم خصوصی، و دیگر مسائل نیز بهطور طبیعی وابسته به اخلاق کامپیوتری هستند. اخلاق ماشینی معطوف به رفتار ماشینها در مقابل کاربران انسانی و دیگر انواع ماشینها است. پژوهش در اخلاق ماشینی کلید تسکین نگرانیها در رابطه با سیستمهای خودکار است (میتوان چنین استدلال کرد که مفهوم ماشینهای مستقل و فاقد چنین ابعاد اخلاقی، ریشه همه نگرانیهای موجود پیرامون هوش ماشینی است).
بهعلاوه، تحقیق و بررسی پیرامون اخلاق ماشینی میتواند کشف مساله را با نظریههای اخلاقی کنونی امکانپذیر ساخته و تفکرات درباره اخلاق را ارتقا دهد. اخلاق ماشینی گاهی با عنوان ماشین اخلاقی، اخلاق محاسباتی یا محاسبات اخلاقی نیز نامیده میشود. گستره وسیعی از چشماندازها در این زمینه نوظهور در اثر گردآوری شده با عنوان «اخلاق ماشین» براساس محتوای سمپوزیوم «AAAI Fall 2005 Symposium on Machine Ethics» موجود است.
هوش مصنوعی بدجنس و اخلاقی
«چارلز تی.رابین» (Charles T. Rubin)، دانشمند علوم سیاسی، بر این باور است که هیچ تضمینی مبنی بر طراحی «خیرخواهانه» هوش مصنوعی و داشتن رفتار خیرخوانه توسط عامل هوشمند وجود ندارد. او چنین استدلال میکند که هر خیرخواهی ارتقا یافته مناسبی ممکن است از بدجنسی قابل تمایز نباشد. انسانها نباید فرض کنند که ماشینها یا رباتها با آنها رفتار مطلوبی دارند، زیرا هیچ دلیلی از پیش وجود ندارد که بر اساس آن باور کرد که این عاملهای هوشمند برای سیستم اخلاقی انسانی (که با تکامل در زیستشناسی انسانی همراه است) دلسوز هستند.
نرمافزارهای فراهوشمند ممکن است تصمیمی مبنی بر حمایت از وجود سلسله انسانیت اتخاذ نکنند، و متوقف کردن این تفکر در آنها بسیار دشوار خواهد بود. این مساله اخیرا در آثار و نشریات دانشگاهی به عنوان منبع اصلی خطر برای شهریسازی، بشریت و سیاره زمین تشریح شده است.
استیون هاوکینگ - فیزیکدان -، بیل گیتس - بنیانگذار مایکروسافت - و ایلان ماسک - بنیانگذار اسپیس ایکس-، نگرانیهای خود پیرامون احتمال اینکه هوش مصنوعی قابلیتهایی را در بر بگیرد که انسانها نمیتوانند آنها را کنترل کنند ابزار کردهاند. هاوکینگ این مساله را با عنوان «طلسم پایان رقابتهای بشر» نظریهپردازی کرده است. یکی از پیشنهادات برای مواجهه با این مساله، حصول اطمینان از این امر است که هوش مصنوعی اولین هوش عمومی از نوع «هوش مصنوعی دوستانه» است و در آینده قادر به کنترل هوشهای مصنوعی است که متعاقبا ساخته و توسعه داده خواهند شد.
برخی از پژوهشگران در واکنش به این رویکرد، این پرسش را طرح میکنند که آیا چنین نگرشی واقعا میتواند جایگاهی داشته باشد؟ «رودنی بروکز» (Rodney Brooks)، پژوهشگر پیشرو در حوزه هوش مصنوعی چنین مینویسد: «من فکر میکنم هرگونه نگرانی از اینکه در حال توسعه هوش مصنوعی بدجنس هستیم دستکم طی چند صد سال آتی اشتباه است. من باور دارم چنین نگرانیهایی از این خطای بنیادین نشات میگیرد که نمیتوان تفاوت بین پیشرفتهای اخیر در جنبه خاصی از هوش مصنوعی و عظمت و پیچیدگی ساخت هوش هیجانی ذهنی را تمییز داد».
آگاهی، احساسات و ذهن ماشینی
اگر یک سیستم هوش مصنوعی همه جنبههای کلیدی هوش انسانی را تکثیر کند، آیا این سیستم احساساتی نیز خواهد بود؟ آیا ذهنی دارد که تجربه خودآگاهی داشته باشد؟ این سوال ارتباط نزدیکی با این مساله فلسفی دارد که ذات انسان هوشیار است، و به مساله دشوار خودآگاهی باز میگردد.
محاسبهگرایی و کاربردی بودن
«محاسبهگرایی» (Computationalism)، موقعیتی در فلسفه ذهن است که ذهن یا مغز انسان (یا هر دو) در آن یک سیستم پردازش اطلاعات محسوب میشوند. در این رویکرد، تفکر شکلی از محاسبات محسوب میشود. محسابهگرایی چنین استدلال میکند که رابطه بین ذهن و بدن چیزی مشابه یا یکسان با رابطه بین نرمافزار و سختافزار است و بنابراین امکان دارد راهکاری برای مساله ذهن-بدن باشد. این موقعیت فلسفی را «جان سرل» (John Searle)، هوش مصنوعی قوی نامیده و در رابطه با آن میگوید: کامپیوترهای برنامهریزی شده به شکل مناسب با ورودیها و خروجیهای صحیح، ممکن است ذهنی دقیقا مانند انسانها داشته باشند. سرل این ادعا را با استدلال اتاق چینی که خواهان نگاه کردن به درون کامپیوتر و پیدا کردن چیستی ذهن است تحکیم میکند.
حقوق رباتها
«مری شلی» (Mary Shelley)، در کتاب «فرانکنشتاین» (Frankenstein) یک مساله اساسی از اخلاق هوش مصنوعی را طرح میکند. شلی در رابطه با این مساله اساسی چنین مینویسد: «اگر یک ماشین دارای هوش قابل ساخت باشد، میتواند احساس هم داشته باشد؟ اگر می تواند احساس کند، آیا از حقوق انسانی برابری با انسانها برخوردار است؟». ایده این مساله در فیلمهای علمی-تخیلی جدید مانند «هوش مصنوعی» به تصویر کشیده شده است. در این فیلم، ماشینهای انساننما دارای توانایی احساس کردن هستند.
این مساله در حال حاضر با عنوان «حقوق رباتها» شناخته شده و توسط اشخاص و مراکزی مانند «موسسهای برای آینده» به رسمیت شناخته میشود. این در حالیست که برخی پژوهشگران وجود چنین بحثهایی را زودهنگام میدانند. برخی منتقدان ترابشریت چنین استدلال میکنند که هرگونه حقوق مفروضی برای رباتها مبتنی بر طرحی همچون حقوق انسانها و حیوانات خواهد بود. این موضوع در مستندی با عنوان «Plug & Pray» که سال ۲۰۱۰ منتشر شد مورد بحث قرار گرفته است.
ابرهوشمندی
آیا محدودیتی بر میزان هوشمند بودن رباتها یا ربات-انسانها وجود دارد؟ میتواند وجود داشته باشد؟ فراهوشمند، فوق هوشمند و ماورای هوشمند یک عامل فرضی است که دارای هوشی فراتر از هوشمندترین و قدرتمندترین ذهن انسانی است. فراهوشمندی میتواند درجه یا شکلی از هوشمندی باشد که توسط یک عامل قابل دستیابی است.
تکینگی فناوری
اگر پژوهشهای انجام شده و در حال انجام در حوزه هوش مصنوعی قوی منجر به تولید یک نرمافزار به اندازه مناسب هوشمند شود، ممکن است این عامل قادر به بازبرنامهریزی و بهبود خود باشد. نرمافزار بهبود یافته میتواند حتی در بهبود خودش نیز بهتر از انسان عمل کند. این امر منجر به «خودبهبودی بازگشتی» (recursive self-improvement) میشود. بدین ترتیب، هوشمندی جدید ممکن است بهطور قابل توجهی افزایش یافته و به طرز چشمگیری از انسان پیشی بگیرد. «ورنر وینج» (Vernor Vinge)، ریاضیدان، مهندس کامپیوتر، پدیدآور، و رماننویس (کتابهای علمی و تخیلی)، این سناریو را «تکینگی» نامیده است.
«تکینگی فناوری» (technological singularity) هنگامی به وقوع میپیوندد که تسریع در پیشرفت فناوری منجر به اثری شود که هوش مصنوعی از ظرفیت ذهنی انسان پیشی بگیرد و در نتیجه، تمدن بشری را کنترل کند، بهطور اساسی تغییر و یا حتی به آن پایان دهد. به دلیل آنکه درک چنین هوشمندی غیر ممکن است، تکینگی فناوری واقعهای فراتر از آن است که رویدادهای پس از آن قابل پیشبینی، فهم و عمقسنجی باشند. ری کرزویل، از قانون «مور» (Moore's law) (که پیشرفت بیوقفه در فناوریهای دیجیتال را پیشبینی میکند) استفاده و محاسبه میکند که کامپیوترهای دسکتاپ تا سال ۲۰۲۹ قدرتی مشابه مغز انسان خواهند داشت. او همچنین پیشبینی میکند که تکینگی در سال ۲۰۴۵ به وقوع بپیوندد.
ترابشریت
یک روز از خواب برمیخیزی تا مغز جدید خود را که عملکرد لوب جدیدی دارد کشف کنی. این لوب پنهانی و کمکی به پرسشهایت با اطلاعاتی فراتر از قلمرو مغز خودت پاسخ میدهد، مجموعه اقدامات محتمل و قابل انجام را پیشنهاد میکند و پرسشهایی را طرح میکند که به تو در یافتن حقایق مرتبط کمک میکند. تو به سرعت آنچنان به لوب جدید تکیه میکنی که دیگر از نحوه عملکرد آن شگفتزده نخواهی شد. تو فقط از این لوب استفاده می کنی. این رویای هوش مصنوعی است.
مجله بایت، آپریل ۱۹۸۵
هانس موراوک - خالق رباتهای هوشمند -، «کوین وارویک» (Kevin Warwick) - پژوهشگر سایبرنتیک - و ری کرزویل - مخترع -، پیشبینی کردهاند که انسانها و ماشینها در آینده در موجوداتی به نام سایبورگ یکپارچه میشوند که از هر دو آنها توانمندتر و قدرتمندتر است. این ایده، «ترابشریت» (transhumanism) نام دارد و ریشههای آن به آنچه «آلدوس هاکسلی» (Aldous Huxley)، «رابرت اتینگر» (Robert Ettinger) و آثار علمی-تخیلی مانند «شبح درون پوسته» (Ghost in the Shell) و «تل ماسه» (Dune) به تصویر کشیدهاند باز میگردد.
«ادوارد فردکین» (Edward Fredkin)، چنین استدلال میکند که هوش مصنوعی گام بعدی در تکامل است. این ایده اولین بار توسط «ساموئل باتلر» (Samuel Butler) در مقاله «داروین در میان ماشینها» (Darwin among the Machines) که در سال ۱۸۳۶ منتشر شد مطرح و توسط «جورج دایسن» (George Dyson) در کتابی با همین نام گسترش یافت.
اگر نوشته بالا برای شما مفید بوده، آموزشهای زیر نیز به شما پیشنهاد میشوند:
- یادگیری ماشین و بازشناسی الگو
- مجموعه آموزشهای هوش محاسباتی
- آموزش هوش مصنوعی
- آموزش هوش مصنوعی – تکمیلی
- ۵ سریال با موضوع هوش مصنوعی که حتماً باید ببینید
^^