ربات مرگ؛ آینده انسان، استیفن هاوکینگ

مسابقه تسلیحاتی جهانی برای بکارگیری سلاح‌های خودکار مبتنی بر هوش مصنوعی در آینده مسلماً رونق بیشتری می‌یابد مگر توسعه آنها از هم‌اکنون منع گردد. «الون موسک» میلیاردر، «استیفن هاوکینگ» فیزیکدان و دیگر چهره‌های فن‌آوری مدرن جهان نامه سرگشاده‌ای امضا کرده و در مورد خطر آغاز یک مسابقه تسلیحاتی بر محور تکنولوژی هوش مصنوعی هشدار می‌دهند، مگر سازمان ملل از بکارگیری سلاح‌هایی ممانعت بعمل آورد که «انسان کنترل معنی‌داری بر آنها ندارد».

Killer robots نامه مزبور در ژولای 2015 در کنفرانس بین‌المللی هوش مصنوعی در بوئنوس آیرس آرژانتین ارائه شد. دغدغه کلیدی انسان امروز این است: انسان با استفاده از تکنولوژی هوش مصنوعی یک مسابقه تسلیحاتی راه بیاندازد؟ یا از آغاز آن جلوگیری بعمل آورد؟ اگر ارتش‌های مختلف دنبال توسعه سلاح هوشمند باشند، مسابقه تسلیحاتی در مقیاس جهانی اجتناب‌ناپذیر خواهد بود. نقطه پایان آن نیز معلوم است: «سلاح‌‌های خودکار، کلاشنیکف عصر آینده». امضاکنندگان معتقدند که خطر ربات مرگ بمراتب بالاتر از سلاح هسته‌ای است. سلاح‌های خودکار بدون دخالت انسان هدف را انتخاب و با آن برخورد می‌کنند. این ماشین‌ها قادرند انسان‌هایی را که معیار از پیش تعریف‌شده‌ای را بروز می‌دهند، شناسایی کرده و آنها را از بین ببرند. موشک هدایت‌شونده و پهپاد (هواپیمای فاقد ‌سرنشین) جزو این سلاح‌ها نیستند زیرا هدف آنها توسط انسان تعیین می‌شود. ظاهراً هوش مصنوعی به نقطه‌ای رسیده که بکارگیری این گونه سیستم‌ها در سال‌های آینده (و نه حتی دهه‌ها) حتمی است. سلاح‌ خودکار را بعد از کشف باروت و توسعه سلاح هسته‌ای، انقلاب سوم در تکامل جنگ‌افزارها می‌دانند.

خطر ماشین‌های مرگ خودکار

هر روزه آدم مصنوعی‌ها کارکرد جدیدی می‌یابند که از راندن خودکار اتومبیل تا رباط‌های سکسی و موارد پیشرفته‌تر را شامل می‌شود. آیا رژه ماشین‌های مسلح بدون کنترل انسان، منظرگاه خیالی و آخرالزمانی آینده نزدیک سیاره ما خواهد بود؟ نمونه هوش مصنوعی که انسان را تهدید می‌کند در فیلم‌های تخیلی علمی مثل «ماتریس» و «2001، ادیسه فضایی» به تصویر کشیده شده ‌است. واهمه از آدم مصنوعی چیزی نیست که تنها بر پرده سینما افتاده باشد! محققین هوش مصنوعی معتقدند که می‌توان هوش مصنوعی را براحتی در حوزه توسعه سلاح‌های مدرن بکار برد. به باور نویسندگان، سلاح خودکار مبتنی بر هوش مصنوعی مثل هواپیمای بدون سرنشین که قادر به جستجوی انسان‌ها و کشتن آنها بر اساس «یک الگوریتم تشخیص صورت» است، چندی طول نمی‌کشد که برای ما انسان‌ها تبدیل به یک مشکل جدی می‌شود.

هواپیماهای بدون سرنشین از بروز خسارات انسانی در میدان نبرد برای ارتش متجاوز جلوگیری می‌کند، ولی اشاره به یکی دو نکته کلیدی خالی از لطف نیست: «ربات‌های خودکار در همان لحظه نخست، حد تحمل آغاز برخورد را پایین می‌آورند! بعلاوه سلاح‌های خودکار در اختیار هر و همه قدرت‌های نظامی روی زمین قرار دارند زیرا تهیه و اداره آنها هزینه بالایی ندارد و مواد مورد نیاز آن را براحتی می‌توان تأمین کرد. دیری نخواهد کشید که آدمکش‌ها، تروریست‌ها و بداندیشان جهان در بازار سیاه آن را خریداری می‌کنند و از ‌آنها در راستای اهداف شریرانه خود سود می‌برند»

سلاح‌های خودکار برای وظایفی از قبیل «آدمکشی»، «به هم ریختن پایداری ملت‌ها»، «‌مقهور کردن ملت‌ها» و «کشتار انتخابی یک گروه قومی خاص» ایدآل می‌باشند. به همین دلیل نویسندگان نامه معتقدند که یک مسابقه تسلیحاتی برای هوش مصنوعی نظامی برای بشریت مفید نیست. این نخستین بار نیست که علوم و تکنولوژی به هشدار در مورد خطر هوش مصنوعی می‌پردازد. در سال 2014 هاوکینگ گفته بود که توسعه هوش مصنوعی نقطه پایانی بر نژاد و نوع بشر خواهد بود. هم هاوکینگ و هم موسک در ژانویه 2015 در نامه دیگری توسعه هوش مصنوعی را خطر بزرگی دانستند «مگر انسان اطمینان داشته باشد که این سیستم‌ها کاری را انجام می‌دهند که ما از آنها می‌خواهیم»

هاوکینگ، هوش مصنوعی و پایان بشریت

زمانی استیفن هاوکینگ در گفتگو با بی‌بی‌سی اعلام داشت که توسعه هوش مصنوعی نقطه پایان بشریت خواهد بود. او مبتلا به نوعی بیماری پیشرونده عصبی از نوع اسکلروزیس است و برای ایجاد ارتباط با دیگران از میکروفون مخصوصی استفاده می‌کند و هنگام تکلم آن را بر گلوی خود می‌گذارد. اخیراً از یک سیستم تکلم مبتنی بر هوش مصنوعی استفاده می‌کند. سیستمی که یاد میگیرد هاوکینگ چگونه می‌اندیشد و لذا در مورد کلماتی که پس از آن استفاده می‌کند ملاحظات، تصوراتی دارد و اندیشه‌هایی در آن شکل می‌گیرد.

اخیراً مفهوم ماشین مصنوعی از طریق فیلم‌هایی معرفی شده که کنترل جامعه بشر را به عهده می‌گیرند: فیلم «2001، ‌اودیسه فضایی» استنلی کوبریک تا شخصیت آرنولد شوایتزنگر در فیلم «ترمیناتور». «ری کورتزویل» مخترع و آینده‌کاو مشهور و مدیر بخش مهندسی گوگل به نقطه‌ای از زمان بنام «نقطه تکین» (Singularity) اشاره می‌کند که هوش مصنوعی از هوش انسان فراتر میرود. به نظر او زمان آن قبل از 2045 است. دیگران زمان آن را دورتر می‌دانند. هاوکینگ تا کنون چند بار از خطر بالقوه هوش مصنوعی سخن گفته است. زمانی او و فیزیکدان مشهور «ماکس تگمارک» و «فرانک ویلژک» از دانشگاه MIT و دانشمند علوم کامپیوتر «استوارت راسل» از دانشگاه کالیفرنیا پیش‌بینی کرده بودند: «خلق هوش مصنوعی بزرگ‌ترین حادثه تاریخ بشر است. متأسفانه آخرین آن نیز خواهد بود». «الون موسک» سرمایه‌دار نیز معتقد است:

«انسانیت باید در برابر هوش مصنوعی دقت کافی بعمل آورد». او ملت‌ها و مسئولین بین‌المللی را به توجه خاص در این حوزه دعوت می‌کند: «لازم است در برابر هوش مصنوعی دقت بالایی داشته باشیم زیرا بطور بالقوه خطرناک‌تر از موشک‌های هسته‌ای هستند» موسک و «مارک زوکربرگ» بنیانگذار فیس‌بوک و «اشتون نوچر» هنرپیشه مشترکاً یک سرمایه‌گذاری 40 میلیون دلاری در یک شرکت هوش مصنوعی داشته‌اند که در مورد «مغز مصنوعی» کار می‌کند.

ترس بیجا!؟

خبرگان دیگر موافق این نظریه نیستند که هوش مصنوعی زندگی و حیات بشر را در معرض خطر قرار می‌دهد. «چارلی اوریتز» رئیس هوش مصنوعی در یک شرکت نرم‌افزاری ماساچوست آن را «اغراق‌آمیز» می‌داند. ترس از هوش مصنوعی بر این اساس است که هر چه آنها با هوش‌تر می‌شوند تمایل آنها به کنترل و آشوب‌طلبی افزایش می‌یابد: «من مخالف این فکر می‌کنم. هر چه ما باهوش‌تر باشیم، به عنوان یک نژاد و نوع انسانی با هم مهربان‌تر بوده و در صلح بسر می‌بریم و با دیگر افراد بهتر رفتار می‌کنیم» او توسعه یک ماشین فوق هوشمند را دور از دسترس می‌داند ولی فکر می‌‌کند که در آینده رخ دهد: «قبل از اینکه کامپیوترها در چنین سطحی قرار گیرند، ‌لازم است کار زیادی روی آنها انجام شود»

http://www.livescience.com/51664-stephen-hawking-elon-musk-ai-weapons.html

http://www.livescience.com/48972-stephen-hawking-artificial-intelligence-threat.html

استفاده از مطالب سايت با ذكر منبع مجاز است                   مرتضی بیکی                                                                        ferimora@gmail.com                 تماس با سايت |