واشنگتن پست در مقاله‌ای اشاره می‌کند که انسان باید اهداف خود از توسعه هوش مصنوعی و اطلاعاتی که به آن می‌دهد را دگرگون کند. 

نشریه واشنگتن پست در مقاله‌ای به قلم دو تن از کارکنان حوزه هوش مصنوعی، پیرامون این فناوری و تعریف اهداف اصلی آن می‌نویسد: اساسا طرح این پرسش که: «چه کسی در آینده هوش مصنوعی را کنترل خواهد کرد؟» از اساس غلط است؛ زیرا چالش پیش روی انسان برنده شدن در مسابقات تسلیحاتی هوش مصنوعی نیست. بلکه اطمینان از این است که هوش مصنوعی در خدمت منافع بشریت است یا خیر. این امر مستلزم رویکردی مشارکتی است که از مرز‌های ملی فراتر می‌رود. برای رسیدن به این هدف، ما نیازی به کنترل هوش مصنوعی نداریم، بلکه باید اطمینان حاصل کنیم که توسعه آن با اصول اخلاقی جهانی مطابقت دارد.

این مقاله واشنگتن‌پست در پاسخ به مقاله «سم آلتمن» مدیرعامل شرکت هوش مصنوعی «اوپن‌ای آی» نوشته شده است. سم آلتمن در مقاله خود به نام «چه کسی در آینده هوش مصنوعی را کنترل خواهد کرد» استدلال می‌کند که آمریکا به هر قیمتی شده باید تلاش برای پیروزی در این مسابقه تسلیحاتی هوش مصنوعی را تسریع بخشد و ادعا می‌کند که تسلط یافتن آمریکا بر سیستم‌های پیشرفته هوش مصنوعی برای حفظ دموکراسی در جهان بسیار مهم است!

در این جوابیه آمده است: در سال ۲۰۱۷ صد‌ها نفر از متخصصین هوش مصنوعی از جمله سم آلتمن، میثاق نامه (منشور) اصول و مبانی چگونگی مدیریت هوش مصنوعی را امضاء کردند. امضاء کنندگانِ این منشور متعهد به پرهیز از رقابت‌های هوش مصنوعی در عرصه‌های نظامی شدند! اظهارات اخیر سم آلتمن نقضِ میثاق نامه‌ای است که خود او امضاء کرده است. ضمن آنکه بنظر می‌رسد مدیر عامل «اوپن‌ای آی» مخاطراتِ هوش مصنوعی را برای بشریت فراموش کرده است.

واشنگتن پست در ادامه می‌نویسد: با افزایشِ نقش هوش مصنوعی در زندگی انسان‌ها، بتدریج رقابت‌ها برای تسلط بر آن شتاب می‌گیرد در حالیکه هشیاری و احتیاط ایجاب می‌کند در حوزه هوش مصنوعی بجای رقابت، همکاری مبنا قرار گیرد. نباید فراموش کنیم که همین نگرانی‌ها، متخصصین هوش مصنوعی را به تنظیم منشور و میثاق نامه اصول و مبانی چگونگی مدیریت هوش مصنوعی رهنمون ساخت.

 هدف اعلام شده برای استفاده از هوش مصنوعی عبارت است از بهره برداری از شیوه و فناوری نوین برای خدمت به بشریت! در این صورت بشریت از منافع هوش مصنوعی برخوردار خواهد شد، اما متقابلاً اگر هوش مصنوعی بصورتی درست توسعه نیابد آنگاه مخاطراتِ زیادی برای زندگی و معیشت میلیون‌ها نفر انسان ایجاد خواهد کرد. اگر بخواهیم صرفاً چند سناریوی خطرناک را نام ببریم می‌توان گفت هوش مصنوعی می‌تواند در بیوتروریسم، حملات گسترده و فراگیر سایبری یا حتی تشدید تنش و درگیری هسته‌ای استفاده شود. با در نظر گرفتن این مخاطرات، رقابت کردن بر سر رها کردن افسار هوش مصنوعی به نفع هیچ کس نخواهد بود. زیرا چنین رقابت‌هایی می‌تواند به اقدامات حاد، تشدید رویارویی‌ها و حتی خطرِ نابودیِ هسته‌ای منجر گردد.

این مقاله در انتها خاطر نشان می‌کند: شواهد تاریخی نشان می‌دهد در میانه رقابت تسلیحاتی، شانس کمی برای شکل‌گیری یک سیستم حکمرانی بین المللی دموکراتیک برای کنترل هوش مصنوعی وجود دارد؛ و اگر هوش مصنوعی عمومی واقعا ظهور کند، احمقانه است که فرض کنیم دولت‌های جهان می‌توانند آن را کنترل کنند، چه رسد به چند شرکت. سیستمی که در بسیاری از موارد از ما بهتر است، به سرعت در همه چیز بسیار بهتر از ما خواهد شد و می‌تواند بدون محدودیت خود را بهبود بخشد. چنین سیستمی یک ابزار نیست، بلکه یک گونه باهوش است. بنابراین، شتاب گرفتن فناوری هوش مصنوعی در صورتیکه ما انسان‌ها حفاظِ کافی برای آن درست نکنیم دیگر یک رقابت نیست بلکه در حکم یک خودکشی دسته جمعی خواهد بود. در فقدانِ قوانین و مقررات لازم، نبودِ شاخص‌های ایمنی و خلأ نظارت مناسب بر هوش مصنوعی احتمال دارد که هوش مصنوعی منجر به فاجعه‌ای مثلاً در حوزه رادیو اکتیو بشود. بطوریکه بعداً به این نتیجه برسیم که اصلاً بهتر بود از خیر مزایای هوش مصنوعی می‌گذشتیم! ما باید از حادثه «تری مایل آیلند» آمریکا که به خاطر فقدان اقدامات احتیاطی و آموزش منجر به فروپاشی هسته‌ای شد، درس بگیریم.

اخبار پیشنهادی
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.
آخرین اخبار