نظرسنجی‌ها نشان می‌دهد که ۴۳ درصد از افراد از رسیدن هوش مصنوعی به درک بشری می‌ترسند.

هوش مصنوعی اکنون به بخشی از زندگی روزمره است و در همه چیز از پیشنهاد‌های خرید گرفته تا سرگرمی و رسانه و حتی تولید آثار هنری دخیل هستند. باید این نکته را هم در نظر داشت که گستردگی هوش مصنوعی در حالی است که این صنعت در مراحل ابتدایی خود قرار دارد.

بر اساس گزارش slashgear، هوش مصنوعی ممکن است در آینده به ادراک بشری برسد و شاید همین الان هم کم و بیش رسیده باشد، اما اکنون این مسئله مطرح می‌شود که این اتفاق می‌تواند خبر خوبی باشد یا نگران کننده؟

اخیرا یکی از مهدسان هوش مصنوعی گوگل ادعا کرده بود که محصول هوش مصنوعی این شرکت به نام LaMDA هوشیار است. این ادعای او باعث شد که گوگل دست به اخراج وی بزند. در دیگر اخبار هوش مصنوعی، دولت چین ادعا می‌کند که یک برنامه هوش مصنوعی توسعه داده است که می‌تواند ذهن مردم را بخواند. این نرم افزار حالات چهره و الگو‌های امواج مغزی را تجزیه و تحلیل می‌کند تا بفهمد آیا یک فرد حقیقت را می‌گوید یا خیر.

با این حال، دانشمندان نگران این نیستند که برنامه‌ای با هوش مصنوعی با استفاده از کد مخفی با سایر برنامه‌های هوش مصنوعی رقابت کند و برنامه نابودی بشریت را بریزند. چیزی که واقعا آن‌ها را نگران می‌کند این است که چگونه کاربران اینترنت ممکن است از زبان هوش مصنوعی برای دور زدن بلوک‌های محتوا و تولید محتوای مخرب سوء استفاده کنند.

هوش مصنوعی و ادراک بشری

۴۳ درصد از افراد یک تحقیق از هوش مصنوعی با درک بشری می‌ترسند

از ۶۲۰ ساکن آمریکا که مورد بررسی قرار گرفتند، ۴۳ درصد ادعا می‌کنند که از چشم انداز و آینده هوش مصنوعی می‌ترسند. این افراد تنها نیستند، زیرا برخی از نام‌های آشنا در حوزه فناوری هم ترس‌های مشابهی را ابراز کرده‌اند.

ایلان ماسک احتمالاً مشهورترین فردی است که هوش مصنوعی را تهدیدی برای بشریت معرفی کرده است. مدیرعامل تسلا حتی تا آنجا پیش رفته است که هوش مصنوعی را خطری بزرگ‌تر از سلاح‌های هسته‌ای توصیف کرده و از سازمان ملل خواسته است که استفاده از آن را در جنگ ممنوع کند.

در مقابل، ۳۳ درصد از پاسخ دهندگان بر این باورند که چشم انداز هوش مصنوعی می‌تواند هیجان انگیز باشد. ۲۳.۳۹ درصد باقی مانده هم نظر مثبت یا منفی در این باره نداشته اند.


بیشتر بخوانید


 

اخبار پیشنهادی
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.
آخرین اخبار