خانهاخبار
ایلان ماسک: اگر هوش مصنوعی را مهار نکنیم با خطر جدی برای بشریت مواجه خواهیم بود

ایلان ماسک: اگر هوش مصنوعی را مهار نکنیم با خطر جدی برای بشریت مواجه خواهیم بود

هوش مصنوعی یکی از فناوری‌ها مهم عصر حاضر است که بحث‌های زیادی به راه انداخته. برخی از بزرگان دنیای علم معتقدند که این فناوری می‌تواند کمک بزرگی برای بشر باشد، اما بعضی دیگر با تردید به آینده این فناوری می‌نگرند و معتقدند که ممکن است آینده نسل بشر را به خطر بیاندازند.
۱۳۹۶/۴/۳۱

دیدگاه ایلان ماسک درباره هوش مصنوعی تقریبا برای همه ما شناخته شده است. ماسک کار بر روی هوش مصنوعی را به «احضار روح» تشبیه کرده است و گاه و بی‌گاه هشدار داده است که این فناوری خطری در ارتباط با حیات انسان را پیش روی ما قرار می‌دهد. در یک گردهمایی متشکل از فرمان‌داران آمریکا در اوایل هفته‌ای که گذشت، او باز هم این عبارات را تکرار کرد، اما بر این موضوع هم تاکید نمود که آن‌چه اکنون می‌گوید حتی بسیار مهم‌تر است: این که نیاز است دولت‌ها از همین الان هوش مصنوعی را تحت کنترل بگیرند. ماسک به شرکت کنندگان در جلسه تابستانی انجمن ملی  فرمان‌داران اعلام کرد:

من هوش مصنوعی پیشرو را به نمایش گذاشتم و معتقدم مردم باید واقعا درباره آن نگران باشند. همچنان زنگ خطر را به صدا درخواهم آورد، اما تا زمانی که مردم نبینند ربات‌ها در خیابان راه می‌روند و آدم می‌کشند، نمی‌دانند چگونه واکنش نشان دهند زیرا بسیار لطیف به نظر می‌رسند.

image

این مدیر عامل محبوب دنیای فناوری معتقد است که راه حل، مهار کردن هوش مصنوعی است. او می‌گوید که هوش مصنوعی یکی از موضوعات نادری است که باید به جای انفعالی عمل کردن در مهار آن، کنش‌گر رفتار کنیم زیرا معتقدم زمانی که در مهار هوش مصنوعی واکنش دهیم بسیار دیر شده است. او در ادامه سخنانش به این موضوع اشاره کرد که آن چه در حال حاضر به عنوان مدل فعلی کنترل می‌بیند، که در آن حکومت‌ها تنها زمانی دست به اقدام می‌زنند که اتفاقات بدی رخ داده باشد، یک راه‌کار نامناسب و ناکافی برای هوش مصنوعی است زیرا این تکنولوژی خطری اساسی برای حیات تمدن بشری است.

مانند همیشه، ایلان ماسک درباره نوعی از هوش مصنوعی که شرکت‌هایی مانند گوگل، اوبر و مایکروسافت از آن استفاده می‌کنند، سخنی به میان نیاورد ولی آن‌چه به طور عمومی به عنوان هوش مصنوعی شناخته می‌شود نوعی از هوش الکترونیک است که در آن خودآگاهی و سطح بالایی از هوشمندی به طور مستقل دیده می‌شود، مانند مواردی که در فیلم‌های علمی- تخیلی دیده‌ایم. او و بسیاری دیگر از محققان حوزه هوش مصنوعی باور دارند که کار بر روی مورد اول می‌تواند به مورد دوم منجر شود، اما تعداد زیادی افراد در جامعه علمی وجود دارند که به وقوع چنین اتفاقی مشکوک هستند، به‌ویژه در طول عمر ما(نسل حاضر).

image

آن‌چه که محققان درباره آن نگران هستند، نحوه شکل‌گیری  یک نوع هوش مصنوعی ضعیف و «احمق» است که قابلیت سو استفاده را داشته باشد. دیوید ها، یکی از محققانی که با گوگل Brain کار می‌کند در توییتی به سخنان ماسک پاسخ داده و اعلام کرده که او بیش از حد درباره یادگیری ماشینی مورد استفاده برای فعالیت‌های غیر اخلاقی انسانی نگران است و نگرانی او از واقعیت تهدید سطح بالای هوش مصنوعی هم بسیار فراتر است.

فرانچسکو شولت، خالق پلتفرم شبکه‌ عصبی عمیق Keras هم پاسخ داد که در حالی‌که هوش مصنوعی برخی از خطرات مربوط به حیات را وخیم‌تر می‌کند، مشخص نیست که بتواند خطر جدیدی هم خلق کند. او می‌گوید:

تقریبا بزرگ‌ترین خطر کنترل جمعیت زیاد با هدف تبلیغات ارتش ربات‌هاست. گرچه یادگیری ماشینی هم یک نیاز نیست.

کاربردهای فعلی هوش مصنوعی بسیار هیجان انگیز‌تر از آن است که ماسک اظهار می‌کند، اما نه مانند خطراتی که از سوی Skynet وجود دارد، این‌ خطرات مشکلات واقعی و سریعی به وجود می‌آورند. الگورتیم‌های ساخته شده برای یادگیری ماشینی اکنون در حوزه‌های سوال برانگیزی در آمریکا حال گسترش هستند، مانند کمک به محکوم کردن مجرمان. به علاوه محققان هشدار دادند که بی‌علاقه بودن حکومت ترامپ به هوش مصنوعی (و به طور کلی به علم) این معنی را می‌دهد که بسیاری از جنبه‌های مخاطره آمیز این حوزه آن‌گونه که باید حفاظت نمی‌شوند.

image

اخبار مشابه

برای ثبت نظر خود وارد حساب کاربری شوید.

دیدگاه‌ها (2 نظر)

محسن

۱۳۹۶/۴/۳۱
تو خوبی:)؟

yashar2080

۱۳۹۶/۴/۳۱
شما نگران نباش ما یه کمپانی به اسم سام هنگ داریم بلایی سر هوش مصنوعی میاره که تا ابد جوری هنگ کنه که کسی عمرا استفادش کنه.... باور نمیکنین نمونش همون بیکسبی... مثلا هوش مصنوعیه:)))))))