به گزارش گروه بینالملل باشگاه خبرنگاران جوان، به نقل از بیبیسی، شرکت گوگل اعلام کرد قراردادی را که در زمینه طراحی و توسعه هوش مصنوعی با وزارت دفاع آمریکا امضا کرده بود فسخ میکند.
علت لغو این قرارداد، مخالفت شدید کارکنان شرکت گوگل بیان شده است. آنان در توضیح این تصمیم گفته اند، همکاری و تعامل بر سر پروژهای با نام میدن (Maiden) به گفتهی برخی از محققان و کارشناسان شرکت گوگل، نخستین گام در جهت کاربرد هوش مصنوعی برای اهداف مرگبار به شمار میآید.
استاد هوش مصنوعی در دانشگاه نیو ساوث ولز با اشاره به تصمیم گوگل برای توقف همکاری با وزارت دفاع آمریکا گفت، این تصمیم بسیار مهم است و گوگل کار دستی انجام میدهد.
توبی والش دربارهی میل باطنی کارکنان گوگل برای همکاری در طرح وزارت دفاع آمریکا نیز گفت: «بسیاری از کارکنان شرکت گوگل چه پنهانی و چه آشکارا مخالفت خود را بیان میکنند و در تماسهایی که با من دارند دربارهی ناخرسندی از مشارکت گوگل در برنامههای هوش مصنوعی سخن میگویند که میتواند تصمیم بگیرد چه کسی زنده بماند و چه کسی بمیرد.»
بیشتر بخوانید: طومار کارمندان گوگل در اعتراض به همکاری با پنتاگون
والش در پاسخ به این پرسش که آیا هوش مصنوعی برای اهداف دفاعی کاربردی ندارد؟ گفت: «مدیریت گوگل اینگونه استدلال میکنند که از این علم باید برای نجات جان انسانها بهره گرفت. هوش مصنوعی با هدف تجزیه و تحلیل اطلاعات بروز و ظهور پیدا کرد و نیز برای بررسی حجم گستردهای از تصاویری که از هواپیماهای بدون سرنشین بدست میآید، کاربرد دارد. مشکل اینجاست که میتوان این فناوری را به گونهای تغییر داد که هواپیماهای بدون سرنشین برای خودشان تصمیم بگیرند.»
کارشناس ارشد هوش مصنوعی گفت: «نگرانی ویژهای در زمینهی سرکش و یاغی شدن هوش مصنوعی وجود ندارد بلکه این نگرانی هست که با کمک هوش مصنوعی جنگها شتاب بیشتری میگیرند و ما داریم حق تصمیمگیری را به ماشینهایی میدهیم که در واقع نمیتوانند برای اتخاذ تصمیم درست و اخلاقی اقدام کنند یا از قانون بشردوستانه بین المللی پیروی نمایند.»
والش افزود اینگونه نیست که هوش مصنوعی بتواند در گرفتن تصمیم مشروع و قانونی راه درست را در پیش بگیرد.
وی گفت: «هوش مصنوعی هم اکنون در میدانهای نبرد کاربرد بسیار محدودی دارد، اما رقابتی تسلیحاتی با هدف طراحی و توسعه این فناوری در جریان است. نگرانی دربارهی استفاده از فناوری پیشرفته هوش مصنوعی در میدان نبرد در آن است که این فناوری نمیتواند تصمیم بگیرد چه کسی را بکشد و چه کسانی زنده بمانند.»
بیشتر بخوانید: رباتهای قاتل، کابوس انسان قرن ۲۱
انتهای پیام/