طبق نظرسنجی از بازیکنان اصلی صنعت هوش مصنوعی نتیجه میگیریم که شرکتهای برتر تکنولوژی مانند آمازون و مایکروسافت جهان را در معرض خطر هوش مصنوعی قاتل قرار میدهند.
PAX، یک سازمان غیردولتی هلند ، بر اساس سه معیار، 50 شرکت را رتبه بندی کرد:
- اگر فنآوری در حال توسعه آن شرکت میتواند برای هوش مصنوعی قاتل استفاده شود.
- درگیری آنها با پروژههای نظامی.
- اگر آنها متعهد شدهاند که در آینده با برنامههای نظامی درگیر نشوند.
پیش از مطالعه این مطلب بخوانید:
- با خطرات هوش مصنوعی آشنا شوید !
- مایکروسافت دوره های آموزشی هوش مصنوعی برگزار می کند !!!
- گوگل از هوش مصنوعی برای ساخت صداهایی تا کنون شنیده نشده است استفاده می کند!
مایکروسافت و آمازون دنیا را به سمت نابودی خواهند برد
مایکروسافت و آمازون جز “پرخطرترین” شرکتهای فناوری هستند که جهان را در معرض خطر قرار میدهند، در حالی که گوگل بین شرکتهایی که اقدامات حفاظتی مناسبی را انجام میدهند، است. با توجه به شهرت این شرکت در جمع آوری دادههای دسته جمعی، رتبه بندی گوگل در بین ایمنترین شرکتهای فناوری ممکن است برای بعضی از افراد تعجب آور باشد. Mountain View همچنین درگیر قرارداد جنجالی “Project Maven” با پنتاگون شد.
Project Maven قراردادی بود که گوگل با پنتاگون برای تهیه فناوری هوش مصنوعی هواپیماهای بدون سرنشین نظامی انجام داد. چندین کارمند با عملکرد بالا در زمان انعقاد قرارداد استعفا دادند، در حالی که بیش از 4000 کارمند گوگل برگهای را امضا کردند و خواستار متوقف کردن مدیریت این پروژه شدند و دیگر هرگز خبری از “ساخت فناوری جنگ” نبود.
به دنبال واکنش جدی Maven، مدیر عامل گوگل، Sundar Pichai در وبلاگ خود قول داد که این شرکت فناوریها یا اسلحههایی را ایجاد نمیکند که باعث آسیب شود، یا هر چیز دیگری که میتواند برای نظارت بر نقض “هنجارهای پذیرفته شده بین المللی” یا “اصول کاملاً پذیرفته شده حقوق بین الملل و حقوق بشر” توسعه یابد، توسعه نخواهد داد.
گوگل از آن زمان سعی در بهبود تصویر عمومی خود در مورد تحولات هوش مصنوعی با مواردی مانند ایجاد یک هیئت مدیره اخلاقی اختصاصی داشته است، اما پس از حضور او به عنوان یک عضو در یک اندیشکده جناح راست و یک هواپیمای بدون سرنشین پهپادی، سریعاً از بین رفت.
فرانک اسلیپر، نویسنده اصلی گزارش منتشر شده در این هفته گفت: “چرا شرکتهایی مانند مایکروسافت و آمازون انکار نمیکنند که در حال حاضر این سلاحهای بسیار بحث برانگیز را تولید میکنند؟ که میتوانند بدون دخالت مستقیم انسانها تصمیم به کشتن مردم بگیرند؟”
مایکروسافت در گزارشی سه ماهه نوشت:
برخی از سناریوهای هوش مصنوعی مشکلات اخلاقی را نشان میدهند. اگر راه حلهای هوش مصنوعی را فعال کنیم و یا به دلیل تأثیر آنها بر حقوق بشر، حریم خصوصی، اشتغال یا سایر موضوعات اجتماعی، گزارشی ارائه دهیم، ممکن است آسیبهای تجاری جدی را تجربه کنیم. “
برخی از تجارب مایکروسافت در فن آوری قبلاً مشکل ساز بوده است، مانند ربات چت “Tay” که بعد از اینکه کاربران اینترنت از قابلیتهای یادگیری ماشین استفاده کردند، تبدیل به یک شخصیت نژاد پرست، جنسی و عموماً ناخوشایند شد.
مایکروسافت و آمازون در حال حاضر برای تامین زیرساختهای ابری برای ارتش آمریکا در حال پیشنهاد 10 میلیارد دلار هستند.
داون کایزر، رهبر پروژه PAX درباره سلاحهای خودمختار اظهار داشت: “شرکتهای فناوری باید آگاه باشند که فناوری آنها میتواند به توسعه سلاحهای خودمختار کشنده کمک کند. تنظیم سیاستهای واضح و در دسترس عموم یک استراتژی اساسی برای جلوگیری از وقوع این امر است.”
اگر نظری دارید خوشحال میشویم در بخش دیدگاهها برایمان بنویسید.