دیدگاه ایلان ماسک درباره هوش مصنوعی تقریبا برای همه ما شناخته شده است. ماسک کار بر روی هوش مصنوعی را به «احضار روح» تشبیه کرده است و گاه و بی‌گاه هشدار داده است که این فناوری خطری در ارتباط با حیات انسان را پیش روی ما قرار می‌دهد. در یک گردهمایی متشکل از فرمان‌داران آمریکا در اوایل هفته‌ای که گذشت، او باز هم این عبارات را تکرار کرد، اما بر این موضوع هم تاکید نمود که آن‌چه اکنون می‌گوید حتی بسیار مهم‌تر است: این که نیاز است دولت‌ها از همین الان هوش مصنوعی را تحت کنترل بگیرند. ماسک به شرکت کنندگان در جلسه تابستانی انجمن ملی  فرمان‌داران اعلام کرد:

تبلیغات

من هوش مصنوعی پیشرو را به نمایش گذاشتم و معتقدم مردم باید واقعا درباره آن نگران باشند. همچنان زنگ خطر را به صدا درخواهم آورد، اما تا زمانی که مردم نبینند ربات‌ها در خیابان راه می‌روند و آدم می‌کشند، نمی‌دانند چگونه واکنش نشان دهند زیرا بسیار لطیف به نظر می‌رسند.

این مدیر عامل محبوب دنیای فناوری معتقد است که راه حل، مهار کردن هوش مصنوعی است. او می‌گوید که هوش مصنوعی یکی از موضوعات نادری است که باید به جای انفعالی عمل کردن در مهار آن، کنش‌گر رفتار کنیم زیرا معتقدم زمانی که در مهار هوش مصنوعی واکنش دهیم بسیار دیر شده است. او در ادامه سخنانش به این موضوع اشاره کرد که آن چه در حال حاضر به عنوان مدل فعلی کنترل می‌بیند، که در آن حکومت‌ها تنها زمانی دست به اقدام می‌زنند که اتفاقات بدی رخ داده باشد، یک راه‌کار نامناسب و ناکافی برای هوش مصنوعی است زیرا این تکنولوژی خطری اساسی برای حیات تمدن بشری است.

مانند همیشه، ایلان ماسک درباره نوعی از هوش مصنوعی که شرکت‌هایی مانند گوگل، اوبر و مایکروسافت از آن استفاده می‌کنند، سخنی به میان نیاورد ولی آن‌چه به طور عمومی به عنوان هوش مصنوعی شناخته می‌شود نوعی از هوش الکترونیک است که در آن خودآگاهی و سطح بالایی از هوشمندی به طور مستقل دیده می‌شود، مانند مواردی که در فیلم‌های علمی- تخیلی دیده‌ایم. او و بسیاری دیگر از محققان حوزه هوش مصنوعی باور دارند که کار بر روی مورد اول می‌تواند به مورد دوم منجر شود، اما تعداد زیادی افراد در جامعه علمی وجود دارند که به وقوع چنین اتفاقی مشکوک هستند، به‌ویژه در طول عمر ما(نسل حاضر).

آن‌چه که محققان درباره آن نگران هستند، نحوه شکل‌گیری  یک نوع هوش مصنوعی ضعیف و «احمق» است که قابلیت سو استفاده را داشته باشد. دیوید ها، یکی از محققانی که با گوگل Brain کار می‌کند در توییتی به سخنان ماسک پاسخ داده و اعلام کرده که او بیش از حد درباره یادگیری ماشینی مورد استفاده برای فعالیت‌های غیر اخلاقی انسانی نگران است و نگرانی او از واقعیت تهدید سطح بالای هوش مصنوعی هم بسیار فراتر است.

فرانچسکو شولت، خالق پلتفرم شبکه‌ عصبی عمیق Keras هم پاسخ داد که در حالی‌که هوش مصنوعی برخی از خطرات مربوط به حیات را وخیم‌تر می‌کند، مشخص نیست که بتواند خطر جدیدی هم خلق کند. او می‌گوید:

تقریبا بزرگ‌ترین خطر کنترل جمعیت زیاد با هدف تبلیغات ارتش ربات‌هاست. گرچه یادگیری ماشینی هم یک نیاز نیست.

کاربردهای فعلی هوش مصنوعی بسیار هیجان انگیز‌تر از آن است که ماسک اظهار می‌کند، اما نه مانند خطراتی که از سوی Skynet وجود دارد، این‌ خطرات مشکلات واقعی و سریعی به وجود می‌آورند. الگورتیم‌های ساخته شده برای یادگیری ماشینی اکنون در حوزه‌های سوال برانگیزی در آمریکا حال گسترش هستند، مانند کمک به محکوم کردن مجرمان. به علاوه محققان هشدار دادند که بی‌علاقه بودن حکومت ترامپ به هوش مصنوعی (و به طور کلی به علم) این معنی را می‌دهد که بسیاری از جنبه‌های مخاطره آمیز این حوزه آن‌گونه که باید حفاظت نمی‌شوند.