دیدگاه ایلان ماسک درباره هوش مصنوعی تقریبا برای همه ما شناخته شده است. ماسک کار بر روی هوش مصنوعی را به «احضار روح» تشبیه کرده است و گاه و بیگاه هشدار داده است که این فناوری خطری در ارتباط با حیات انسان را پیش روی ما قرار میدهد. در یک گردهمایی متشکل از فرمانداران آمریکا در اوایل هفتهای که گذشت، او باز هم این عبارات را تکرار کرد، اما بر این موضوع هم تاکید نمود که آنچه اکنون میگوید حتی بسیار مهمتر است: این که نیاز است دولتها از همین الان هوش مصنوعی را تحت کنترل بگیرند. ماسک به شرکت کنندگان در جلسه تابستانی انجمن ملی فرمانداران اعلام کرد:
من هوش مصنوعی پیشرو را به نمایش گذاشتم و معتقدم مردم باید واقعا درباره آن نگران باشند. همچنان زنگ خطر را به صدا درخواهم آورد، اما تا زمانی که مردم نبینند رباتها در خیابان راه میروند و آدم میکشند، نمیدانند چگونه واکنش نشان دهند زیرا بسیار لطیف به نظر میرسند.
این مدیر عامل محبوب دنیای فناوری معتقد است که راه حل، مهار کردن هوش مصنوعی است. او میگوید که هوش مصنوعی یکی از موضوعات نادری است که باید به جای انفعالی عمل کردن در مهار آن، کنشگر رفتار کنیم زیرا معتقدم زمانی که در مهار هوش مصنوعی واکنش دهیم بسیار دیر شده است. او در ادامه سخنانش به این موضوع اشاره کرد که آن چه در حال حاضر به عنوان مدل فعلی کنترل میبیند، که در آن حکومتها تنها زمانی دست به اقدام میزنند که اتفاقات بدی رخ داده باشد، یک راهکار نامناسب و ناکافی برای هوش مصنوعی است زیرا این تکنولوژی خطری اساسی برای حیات تمدن بشری است.
مانند همیشه، ایلان ماسک درباره نوعی از هوش مصنوعی که شرکتهایی مانند گوگل، اوبر و مایکروسافت از آن استفاده میکنند، سخنی به میان نیاورد ولی آنچه به طور عمومی به عنوان هوش مصنوعی شناخته میشود نوعی از هوش الکترونیک است که در آن خودآگاهی و سطح بالایی از هوشمندی به طور مستقل دیده میشود، مانند مواردی که در فیلمهای علمی- تخیلی دیدهایم. او و بسیاری دیگر از محققان حوزه هوش مصنوعی باور دارند که کار بر روی مورد اول میتواند به مورد دوم منجر شود، اما تعداد زیادی افراد در جامعه علمی وجود دارند که به وقوع چنین اتفاقی مشکوک هستند، بهویژه در طول عمر ما(نسل حاضر).
آنچه که محققان درباره آن نگران هستند، نحوه شکلگیری یک نوع هوش مصنوعی ضعیف و «احمق» است که قابلیت سو استفاده را داشته باشد. دیوید ها، یکی از محققانی که با گوگل Brain کار میکند در توییتی به سخنان ماسک پاسخ داده و اعلام کرده که او بیش از حد درباره یادگیری ماشینی مورد استفاده برای فعالیتهای غیر اخلاقی انسانی نگران است و نگرانی او از واقعیت تهدید سطح بالای هوش مصنوعی هم بسیار فراتر است.
فرانچسکو شولت، خالق پلتفرم شبکه عصبی عمیق Keras هم پاسخ داد که در حالیکه هوش مصنوعی برخی از خطرات مربوط به حیات را وخیمتر میکند، مشخص نیست که بتواند خطر جدیدی هم خلق کند. او میگوید:
تقریبا بزرگترین خطر کنترل جمعیت زیاد با هدف تبلیغات ارتش رباتهاست. گرچه یادگیری ماشینی هم یک نیاز نیست.
کاربردهای فعلی هوش مصنوعی بسیار هیجان انگیزتر از آن است که ماسک اظهار میکند، اما نه مانند خطراتی که از سوی Skynet وجود دارد، این خطرات مشکلات واقعی و سریعی به وجود میآورند. الگورتیمهای ساخته شده برای یادگیری ماشینی اکنون در حوزههای سوال برانگیزی در آمریکا حال گسترش هستند، مانند کمک به محکوم کردن مجرمان. به علاوه محققان هشدار دادند که بیعلاقه بودن حکومت ترامپ به هوش مصنوعی (و به طور کلی به علم) این معنی را میدهد که بسیاری از جنبههای مخاطره آمیز این حوزه آنگونه که باید حفاظت نمیشوند.