هوش مصنوعی

شرکت‌هایی مانند آمازون و مایکروسافت در حال “به خطر انداختن جهان” توسط AI قاتل هستند 

طبق نظرسنجی از بازیکنان اصلی صنعت هوش مصنوعی نتیجه می‌گیریم که شرکت‌های برتر تکنولوژی مانند آمازون و مایکروسافت جهان را در معرض خطر هوش مصنوعی قاتل قرار می‌دهند.

PAX، یک سازمان غیردولتی هلند ، بر اساس سه معیار، 50 شرکت را رتبه بندی کرد: 

  1. اگر فن‌آوری در حال توسعه آن شرکت می‌تواند برای هوش مصنوعی قاتل استفاده شود.
  2. درگیری آن‌ها با پروژه‌های نظامی.
  3. اگر آن‌ها متعهد شده‌اند که در آینده با برنامه‌های نظامی درگیر نشوند.

پیش از مطالعه این مطلب بخوانید: 


مایکروسافت و آمازون دنیا را به سمت نابودی خواهند برد

مایکروسافت و آمازون جز “پرخطرترین” شرکت‌های فناوری هستند که جهان را در معرض خطر قرار می‌دهند، در حالی که گوگل بین شرکت‌هایی که اقدامات حفاظتی مناسبی را انجام می‌دهند، است. با توجه به شهرت این شرکت در جمع آوری داده‌های دسته جمعی، رتبه بندی گوگل در بین ایمن‌ترین شرکت‌های فناوری ممکن است برای بعضی از افراد تعجب آور باشد. Mountain View همچنین درگیر قرارداد جنجالی “Project Maven” با پنتاگون شد.

Project Maven قراردادی بود که گوگل با پنتاگون برای تهیه فناوری هوش مصنوعی هواپیماهای بدون سرنشین نظامی انجام داد. چندین کارمند با عملکرد بالا در زمان انعقاد قرارداد استعفا دادند، در حالی که بیش از 4000 کارمند گوگل برگه‌ای را امضا کردند و خواستار متوقف کردن مدیریت این پروژه شدند و دیگر هرگز خبری از “ساخت فناوری جنگ” نبود.

به دنبال واکنش جدی Maven، مدیر عامل گوگل، Sundar Pichai در وبلاگ خود قول داد که این شرکت فناوری‌ها یا اسلحه‌هایی را ایجاد نمی‌کند که باعث آسیب شود، یا هر چیز دیگری که می‌تواند برای نظارت بر نقض “هنجارهای پذیرفته شده بین المللی” یا “اصول کاملاً پذیرفته شده حقوق بین الملل و حقوق بشر” توسعه یابد، توسعه نخواهد داد.

گوگل از آن زمان سعی در بهبود تصویر عمومی خود در مورد تحولات هوش مصنوعی با مواردی مانند ایجاد یک هیئت مدیره اخلاقی اختصاصی داشته است، اما پس از حضور او به عنوان یک عضو در یک اندیشکده جناح راست و یک هواپیمای بدون سرنشین پهپادی، سریعاً از بین رفت. 

فرانک اسلیپر، نویسنده اصلی گزارش منتشر شده در این هفته گفت: “چرا شرکت‌هایی مانند مایکروسافت و آمازون انکار نمی‌کنند که در حال حاضر این سلاح‌های بسیار بحث برانگیز را تولید می‌کنند؟ که می‌توانند بدون دخالت مستقیم انسان‌ها تصمیم به کشتن مردم بگیرند؟”

مایکروسافت در گزارشی سه ماهه نوشت:

برخی از سناریوهای هوش مصنوعی مشکلات اخلاقی را نشان می‌دهند. اگر راه حل‌های هوش مصنوعی را فعال کنیم و یا به دلیل تأثیر آن‌ها بر حقوق بشر، حریم خصوصی، اشتغال یا سایر موضوعات اجتماعی، گزارشی ارائه دهیم، ممکن است آسیب‌های تجاری جدی را تجربه کنیم. “

برخی از تجارب مایکروسافت در فن آوری قبلاً مشکل ساز بوده است، مانند ربات چت “Tay” که بعد از اینکه کاربران اینترنت از قابلیت‌های یادگیری ماشین استفاده کردند، تبدیل به یک شخصیت نژاد پرست، جنسی و عموماً ناخوشایند شد.

مایکروسافت و آمازون در حال حاضر برای تامین زیرساخت‌های ابری برای ارتش آمریکا در حال پیشنهاد 10 میلیارد دلار هستند.

داون کایزر، رهبر پروژه PAX درباره سلاح‌های خودمختار اظهار داشت: “شرکت‌های فناوری باید آگاه باشند که فناوری آن‌ها می‌تواند به توسعه سلاح‌های خودمختار کشنده کمک کند. تنظیم سیاست‌های واضح و در دسترس عموم یک استراتژی اساسی برای جلوگیری از وقوع این امر است.” 

اگر نظری دارید خوشحال می‌شویم در بخش دیدگاه‌ها برای‌مان بنویسید. 

مطالب مرتبط

0 0 رای ها
امتیاز شما به این مطلب
مشترک شدن
اطلاع از
0 دیدگاه
بازخورد داخلی
مشاهده همه نظرات
0
خوشحال میشیم نظرتونو بدونیمx