پوتین رییس جمهوری روسیه معتقد است، کشور پیشرو در توسعه هوش مصنوعی آینده جهان را در دست خواهد داشت،
شفا آنلاین>اجتماعی>
همین چند روز پیش سیِنان تیتر زد که:«کرهی شمالی را فراموش کنید، هوشمصنوعی جنگجهانی سوم را آغاز خواهد کرد.» این نخستین هشداری نیست که درباره هوش مصنوعی صادر شده است. پیش از بیل گیتس و استفان هاوکینگ هم نسبت به خطرات این پدیده هشدار داده بودند.
به گزارش
شفا آنلاین:پوتین رییس جمهوری روسیه معتقد است، کشور پیشرو در توسعه هوش مصنوعی آینده جهان را در دست خواهد داشت، اما اگر هوش مصنوعی اختیار را در دست بگیرد چطور؟ آیا باید از ترس این رخداد توسعه هوش مصنوعی را متوقف کرد؟ همانطور که «سم هریس» نویسنده آمریکایی، فیلسوف عصبپژوه، وبلاگ نویس در یکی از سخنرانیهایش میگوید؛ زمانی که یک فناوری جدید معرفی میشود دیگر نمیتوان آن را مخفی کرد یا به حالت قبل از اختراع برگرداند. او ادعا میکند که نمیتوان جلوی آهنگ پیشرفت را گرفت، حتی اگر بشریت بتواند به صورت دستهجمعی چنین تصمیمی بگیرد. بنابراین گسترش و توسعه هوش مصنوعی از نظر هریس گریز ناپذیر است. واقعیت هم همین است، همین چندی پیش بود که بیشتر از 100 متخصص فناوری و هوش مصنوعی نسبت به توسعه رباتهای قاتل هشدار دادند. این نامه که با تلاش « ایلان ماسک» تهیه شده بود، نشان داد متوقف کردن هوش مصنوعی کاری غیر ممکن است و باید برای قانونگذاری و ایجاد محدودیت در برخی زمینهها تلاش کرد. تلاش برای اجتناب از اینکه هوش مصنوعی تبدیل به قاتل ما شود و یا همچون فیلم ماتریکس ما را تبدیل به برده رباتها کند. شاید ایجادمحدودیت و قانونگذاری از این جهت کارساز باشد، اما آیا این محدودیتها در روابط انسان و ربات هم کارساز خواهد بود؟
افول انسانیت
چند روز پیش خبری منتشر مبنی بر اینکه یک ربات هوشمند، مراقبت و نگهبانی از کمپ بیخانمانها را در سانفرانسیسکو بر عهده گرفته است. از اتفاق یا عامدانه این ربات هوشمند دقیقا به شکل رباتهای نگهبان فیلم روبوکاپ ساخته شدهاند. این شاید طلیعه عصر سرکوب رباتیک باشد، اما اتفاق اصلی مدتها قبل افتاده است؛ افول انسانیت. مثلا در بسیاری از کشورها شما برای دسترسی به سیستم درمانی باید از کد بیمه و تلفنهای گویا استفاده کنید. ماشین در این سیستمها پاسخگوی شما است و شما با انسانی طرف نیستید که موقعیت ویژه خودتان را برایش شرح دهید. احساس همدردی از روابط اینچنینی رخت بربسته است. حالا در مورد ربات پایشگر کمپ بی خانمانها هم همین است، بی خانمانها از این پس با نگهبانی روبرو هستند، که صرفا دستورات را اجرا میکند، اینجا هم از همدردی خبری نیست. بنابراین شاید در شروع کار ما به صورت نشان داده شده در فیلم ماتریکس تبدیل به ابزار تولید برق برای ماشینها نشویم، اما حداقل در آغاز خبری از درک و رابطه انسانی نیست. شاید این اتفاق با پیشرفت و توسعه هوش مصنوعی رخ بدهد، اما مسلما سازندگان سلاحهای رباتیک، این ویژگی را در رباتهایشان نخواهند گنجاند.
پیش به سوی تکینگی
اما گنجاندن احساس در رباتها زمانی است که ما یک هوش مصنوعی واحد داشته باشیم، این زمانی است که به آن تکینیگی میگویند، موقعیتی که تمام هوش تولید شده در یک قالب واجد جمع میشود. این اتفاق خطرناکی است؛ چنین دستآوردی ممکن است برای ما خوب باشد اما ممکن برای ما گران تمام شود. برای مثال ری کرزویل ادعا میکند که: « هوشمصنوعی فناوری اساسی در دستیابی پیشرفت است. برای تشخیص این وعده یک الزام اخلاقی داریم، البته باید خطرات آن را هم کنترل کنیم.» از نظر او بشریت وقت زیادی برای توسعهی راهبردهای اخلاقی و استانداردهای نظمدهنده دارد اما بسیاری معتقدند از همین حالا باید شروع کرد. بحثهای اخلاقی درباره تصمیمگیریهای ماشینهای خودران نمونهای از این نیاز مبرم است. همچنانکه جهان به سمت مرزهای منتقدان و هواداران هوشمصنوعی بر سر یک چیز توافق دارند: انفجار هوشمصنوعی، دنیا را فراتر از تصورات تغییر خواهد داد. حالا این ما هستیم که باید راهی بیابیم که این تغییرات به نفع ما باشد، حتی شاید لازم باشد رباتهایی بسیازیم که از خودمان برای ما دلسوزتر باشند و در مواقع لزوم از دستوراتی که به ضرر انسانیت است، سرپیچی کنند. اما این تصویری رویایی است و هرچه باشد، آینده تاریک جهان ماتریکس با هوش مصنوعی نزدیکتر به نظر میرسد، اما هنوز فرصت باقی است، فصت برای اینکه قرص آبی را انتخاب کنیم، یا قرص قرمز را.