کد خبر: ۱۷۷۷۸۹
تاریخ انتشار: ۰۰:۳۰ - ۲۶ آذر ۱۳۹۶ - 2017December 17
پوتین رییس جمهوری روسیه معتقد است، کشور پیش‌رو در توسعه هوش مصنوعی آینده جهان را در دست خواهد داشت،
 شفا آنلاین>اجتماعی>  همین چند روز پیش سی‌‌ِن‌ان تیتر زد که:«کره‌ی شمالی را فراموش کنید، هوش‌مصنوعی جنگ‌جهانی سوم را آغاز خواهد کرد.» این نخستین هشداری نیست که درباره هوش مصنوعی صادر شده است. پیش از بیل گیتس و استفان هاوکینگ هم نسبت به خطرات این پدیده هشدار داده بودند.

به گزارش شفا آنلاین:پوتین رییس جمهوری روسیه معتقد است، کشور پیش‌رو در توسعه هوش مصنوعی آینده جهان را در دست خواهد داشت، اما اگر هوش مصنوعی اختیار را در دست بگیرد چطور؟ آیا باید از ترس این رخداد توسعه هوش مصنوعی را متوقف کرد؟  همان‌طور که «سم هریس» نویسنده آمریکایی، فیلسوف عصب‌پژوه، وبلاگ ​نویس در یکی از سخنرانی‌هایش می‌گوید؛ زمانی که یک فناوری جدید معرفی می‌شود دیگر نمی‌توان آن را مخفی کرد یا به حالت قبل از اختراع برگرداند. او ادعا می‌کند که نمی‌توان جلوی آهنگ پیشرفت را گرفت، حتی اگر بشریت بتواند به صورت دسته‌جمعی چنین تصمیمی بگیرد. بنابراین گسترش و توسعه هوش مصنوعی از نظر هریس گریز ناپذیر است. واقعیت هم همین است، همین چندی پیش بود که بیشتر از 100 متخصص فناوری و هوش مصنوعی نسبت به توسعه ربات‌های قاتل هشدار دادند. این نامه که با تلاش « ایلان ماسک» تهیه شده بود، نشان داد متوقف کردن هوش مصنوعی کاری غیر ممکن است و باید برای قانون‌گذاری و ایجاد محدودیت در برخی زمینه‌ها تلاش کرد. تلاش برای اجتناب از این‌که هوش مصنوعی تبدیل به قاتل ما شود و یا همچون فیلم ماتریکس ما را تبدیل به برده ربات‌ها کند. شاید ایجادمحدودیت و قانون‌گذاری از این جهت کارساز باشد، اما آیا این محدودیت‌ها در روابط انسان و ربات هم کارساز خواهد بود؟

افول انسانیت

چند روز پیش خبری منتشر مبنی بر این‌که یک ربات هوشمند، مراقبت و نگهبانی از کمپ بی‌خانمان‌ها را در سان‌فرانسیسکو بر عهده گرفته است. از اتفاق یا عامدانه این ربات هوشمند دقیقا به شکل ربات‌های نگهبان فیلم روبوکاپ ساخته شده‌اند. این شاید طلیعه عصر سرکوب رباتیک باشد، اما اتفاق اصلی مدت‌ها قبل افتاده است؛ افول انسانیت. مثلا در بسیاری از کشورها شما برای دسترسی به سیستم درمانی باید از کد بیمه و تلفن‌های گویا استفاده کنید. ماشین در این سیستم‌ها پاسخ‌گوی شما است و شما با انسانی طرف نیستید که موقعیت ویژه خودتان را برایش شرح دهید. احساس همدردی از روابط اینچنینی رخت بربسته است. حالا در مورد ربات پایشگر کمپ بی خانمان‌ها هم همین است، بی خانمان‌ها از این پس با نگهبانی روبرو هستند، که صرفا دستورات را اجرا می‌کند، اینجا هم از همدردی خبری نیست. بنابراین شاید در شروع کار ما به صورت نشان داده شده در فیلم ماتریکس تبدیل به ابزار تولید برق برای ماشین‌ها نشویم، اما حداقل در آغاز خبری از درک و رابطه انسانی نیست. شاید این اتفاق با پیشرفت و توسعه هوش مصنوعی رخ بدهد، اما مسلما سازندگان سلاح‌های رباتیک، این ویژگی را در ربات‌هایشان نخواهند گنجاند.

پیش به سوی تکینگی

اما گنجاندن احساس در ربات‌ها زمانی است که ما یک هوش مصنوعی واحد داشته باشیم، این زمانی است که به آن تکینیگی می‌گویند، موقعیتی که تمام هوش تولید شده در یک قالب واجد جمع می‌شود. این اتفاق خطرناکی است؛ چنین دست‌آوردی ممکن است برای ما خوب باشد اما ممکن برای ما گران تمام شود. برای مثال ری کرزویل ادعا می‌کند که: « هوش‌مصنوعی فناوری اساسی در دستیابی پیشرفت است. برای تشخیص این وعده یک الزام اخلاقی داریم، البته باید خطرات آن را هم کنترل کنیم.» از نظر او بشریت وقت زیادی برای توسعه‌ی راهبردهای اخلاقی و استانداردهای نظم‌دهنده دارد اما بسیاری معتقدند از همین حالا باید شروع کرد. بحث‌های اخلاقی درباره تصمیم‌گیری‌های ماشین‌های خودران نمونه‌ای از این نیاز مبرم است. هم‌چنانکه جهان به سمت مرزهای منتقدان و هواداران هوش‌مصنوعی بر سر یک چیز توافق دارند: انفجار هوش‌مصنوعی، دنیا را فراتر از تصورات تغییر خواهد داد. حالا این ما هستیم که باید راهی بیابیم که این تغییرات به نفع ما باشد، حتی شاید لازم باشد ربات‌هایی بسیازیم که از خودمان برای ما دلسوزتر باشند و در مواقع لزوم از دستوراتی که به ضرر انسانیت است، سرپیچی کنند. اما این تصویری رویایی است و هرچه باشد، آینده تاریک جهان ماتریکس با هوش مصنوعی نزدیک‌تر به نظر می‌رسد، اما هنوز فرصت باقی است، فصت برای این‌که قرص آبی را انتخاب کنیم، یا قرص قرمز را.
نظرشما
نام:
ایمیل:
* نظر: