نامه هشدارآمیز دانشمندان درباره استفاده از هوش مصنوعی جنگها

نامه هشدارآمیز دانشمندان درباره استفاده از هوش مصنوعی جنگها
نگارش از Euronews
هم‌رسانی این مطلبنظرها
هم‌رسانی این مطلبClose Button

بتازگی دهها تن از دانشمندان “نامه سرگشاده ای“http://futureoflife.org/AI/open_letter_autonomous_weapons چاپ کرده اند و در آن در مورد خطر پدید آمدن

آگهی

بتازگی دهها تن از دانشمندان نامه سرگشاده ای چاپ کرده اند و در آن در مورد خطر پدید آمدن سلاحهای مستقل از اراده انسانی در زمینه روباتها و هوش مصنوعی هشدار داده اند.

این نامه توسط بسیاری دانشمندان و متخصصان در امور تکنولوژی از جمله استیون هاوکینگ، نوام چامسکی و ایلان ماسک امضا شده است.

.elonmusk</a>, <a href="https://twitter.com/Steven_Hawking">Steven_Hawking & stevewoz</a> just called for a ban on killer robots <a href="http://t.co/et2LTWwxkm">http://t.co/et2LTWwxkm</a> <a href="https://twitter.com/hashtag/ai?src=hash">#ai</a> <a href="https://twitter.com/hashtag/ijcai15?src=hash">#ijcai15</a> <a href="http://t.co/1uzHNQwFIu">pic.twitter.com/1uzHNQwFIu</a></p>&mdash; The Memo (TheMemo) 28 Juillet 2015

نویسندگان نامه هشدار داده اند که بواسطه پیشرفت علم و تکنولوژی، ابزارهای جنگی که بدون نیاز به دخالت هوش انسانی، توانایی شرکت در عملیات نظامی را دارند در فاصله زمانی نه چندان دور در چند سال آینده پدید خواهند آمد. بدین ترتیب، پس از پدید آمدن باروت و سلاحهای هسته ای، اینک سلاحهای هوشمند انقلاب سوم در گاهشمار جنگ را رقم خواهند زد.

در این نامه همچنین به فواید سلاحهای هوشمند از جمله عدم درگیر شدن عامل انسانی و خطرها و عواقب استفاده از اینگونه سلاحها اشاره شده است. راه یافتن این جنگ افزار در بازارهای سیاه و یا استفاده دیکتاتورها، تروریستها و جنگ سالاران از آنها، از جمله این پیامدهاست.

نویسندگان نامه چنین نتیجه می گیرند که در صورت جلوگیری نکردن از ساخت سلاحهای هوشمند، این سلاحها «کلاشنیکوف های آینده» خواهند شد.

با این حال، امضا کنندگان این نامه که برخی شان در زمینه هوش مصنوعی و فن آوری ساخت روبات فعالیت می کنند، هوش مصنوعی را نفی نکرده اند: «راههای بسیاری وجود دارد که هوش مصنوعی بدون ایجاد سلاحهای تازه کشتار جمعی می تواند میدانهای نبرد را برای انسانها، بویژه غیر نظامیان امن تر سازد.»

اما بسیاری از متخصصان علم روبات با این نظر همساز نیستند. رادنی بروکس، سازنده و پژوهشگر روبات در ماه نوامبر سال پیش در وبلاگش به این موضوع اشاره کرده بود که هوش مصنوعی نه یک تهدید که یک ابزار به شمار می آید: «گمان می کنم این نگرانی ناشی از یک اشتباه بنیادین است که نمی تواند بین پیشرفتهای اخیر در زمینه هوش مصنوعی و عظمت و پیچیدگی هوش ارادی حساس تفاوت قائل شود.»

رادنی بروکس بر خلاف امضا کنندگان نامه گشاده، برای هوش مصنوعی فاجعه ای را در افق آینده متصور نیست: «برای اینکه هوش مصنوعی از اراده برخوردار باشد تا بتواند بد ذات باشد، نیازمند دستانی ماهر یا ابزارهای دیگری است که بتواند بر مردم چیره شود. همچنین هوش مصنوعی باید درک عمیقی از انسانها داشته باشد تا بتواند از آنها در زیرکی پیشه گیرد…برای رسیدن به چنین هوش مصنوعی، نیازمند کار شبانه روزی هزاران دانشمند و مهندس و احتمالا قرنها زمان هستیم.»

علم امروز شاید شکاف و دو دستگی اصلی میان دو گروه از پژوهشگران و دانشمندان باشد: دسته ای که نگران از پدید آمدن “فرانکشتاین” افسانه ای از پی دستاوردهای تازه تکنولوژی است و دسته ای دیگر که با اطمینان افسار علم را در دستان خود می بینند. این بحث کلاسیک میان دانشمندان که خود دهه ها قدمت دارد، اکنون در شرایطی که تهدیدهای گروههای تروریستی و افراطی، نگرانی های جهانی را برانگیخته، اهمیت بیشتری پیدا کرده است.

هم‌رسانی این مطلبنظرها

مطالب مرتبط

اتحادیه اروپا: شرکت‌های فناوری دیجیتال جعل عمیق برساخته هوش مصنوعی را شناسایی کنند

رسیدن به کلاس یک جهانی تا ۲۰۲۷؛ مقام نظامی آمریکا: ارتش چین در حال چینش لازم برای حمله به تایوان است

پرواز موفقیت‌آمیز تاکسی‌پرنده در چین؛ پکن به حمل‌ونقل هوایی در ارتفاع پایین می‌اندیشد