فناوری‌ها علاوه بر فرصت‌هایی که ایجاد می‌کنند ممکن است در مواردی بسیار خطرناک باشند که در این گزارش ما به جنبه خطرناک فناوری‌ها اشاره می‌کنیم.

به گزارش gizmodo، کسانی که تمایل به تفکر آخرالزمانی دارند، می‌دانند که فناوری، در خالص‌ترین شکل خود، فاجعه تمدنی را به همراه دارد. با این حال ممکن است این سوال برای شما پیش بیاید که خطرناک‌ترین فناوری در حال ظهور چیست؟ برای جواب به این سوال با تعدادی از متخصصان تماس گرفتیم تا اطلاعات بیشتری را کسب کنیم.

نظارت بر محل کار

زیفر تکوت: دانشیار، حقوق، دانشگاه فوردهام

نظارت بر محل کار خصوصی و فرایند قدرت کارفرما-کارمند در حال حاضر وحشتناک است، زیرا به کارفرمایان اجازه می‌دهد با کارمندان مانند حیوان رفتار کنند. نظارت بر کارگران و کارمندان به کارفرمایان اجازه می‌دهد تا با سیستم‌های هشدار اولیه مخالفان را از بین ببرند.. تحقیقات قمار به کازینو‌ها آموخت که چگونه پروفایل‌های قمار را کنار هم قرار دهند تا جذابیت‌ها را شخصی‌سازی کنند تا بتوانند تا حد امکان از نقاط ضعف هر قمارباز سود ببرند. این فناوری که اکنون وارد نیروی کار شده است، در آستانه فراگیر شدن است، مگر اینکه آن را متوقف کنیم.

کمک هوش مصنوعی در تصمیم گیری

مایکل لیتمن: استاد، علوم کامپیوتر، دانشگاه براون

گزارش AI۱۰۰، ۲۰۲۱ که ماه گذشته منتشر شد، شامل بخشی از مهم‌ترین خطرات هوش مصنوعی بود. یکی از بزرگترین نگرانی‌های این گزارش در مورد هوش مصنوعی «تکنو حل‌گرایی» است، این نگرش که فناوری‌هایی مانند هوش مصنوعی می‌توانند برای حل هر مشکلی مورد استفاده قرار گیرند. قابلیتی که تصمیم گیری بسیاری از مردم را با هوش مصنوعی مرتبط می‌کند، این موضوع باعث می‌شود که سیستم‌ها به‌عنوان موجودی عینی و مفید پذیرفته شوند، حتی اگر به‌طور نامناسبی اعمال شوند و بر اساس نتایج تصمیم‌های تاریخی مغرضانه یا حتی تبعیض آمیز ما را کمک کنند.

در جواب به سوالات، بدون شفافیتی در مورد داده‌ها یا الگوریتم‌هایی که هوش مصنوعی آن‌ها را بازگو می‌کند، مردم ممکن است در مورد چگونگی اتخاذ تصمیم‌هایی که بر زندگی‌شان تأثیر دارد، در تاریکی رها شوند. سیستم‌های هوش مصنوعی در خدمت اطلاعات نادرست در اینترنت استفاده می‌شوند.

کمک هوش مصنوعی در تصمیم گیری

فناوری تشخیص چهره

دیوید شوموی جونز: استاد اپیدمیولوژی دانشگاه هاروارد

به وضوح رقبای زیادی برای عنوان خطرناک‌ترین فناوری نوظهور وجود دارد. CRISPR و سایر فناوری‌های ویرایش ژن می‌توانند ویرانی به بار آورند، اگرچه ممکن است نشان دهند که قدرت کمتری نسبت به آنچه که طرفدارانشان می‌گویند دارند. رسانه‌های اجتماعی قبلاً قدرت خود را در ایجاد آسیب‌های گسترده نشان داده اند. اما چیزی که بیش از همه مرا آزار دهنده است، در واقع به کارگیری گسترده تشخیص چهره در فناوری نظارت است. از بسیاری جهات این فناوری می‌تواند دارایی بزرگی برای جوامع باشد.

تشخیص چهره می‌تواند بسیاری از تراکنش‌ها را کارآمدتر کند. نیازی به نشان دادن کارت شناسایی یا کارت پرواز در فرودگاه نیست، یا نیازی به ارائه پرداخت در فروشگاه نیست (تا زمانی که تصویر شما به یک پلت فرم پرداخت آنلاین پیوند داده شده باشد). تشخیص چهره همچنین می‌تواند با افزایش احتمال شناسایی و دستگیری مظنونین جنایی، جامعه را ایمن‌تر کند. پس چگونه این فناوری‌ها می‌توانند خطرناک شوند؟ یک ترس وجودی است: حرکات ما دیگر خصوصی نخواهد بود. کسی همیشه این توانایی را خواهد داشت که بداند ما کجا هستیم و کجا بوده ایم. حتی اگر کسی از این اطلاعات سوء استفاده نکند، از دست دادن حریم خصوصی و ناشناس بودن برای من معنادار است.

فناوری تشخیص چهره

ترس دیگر این مورد سوء استفاده کردن از اطلاعات است. خطر سوء استفاده از اطلاعات واقعی است. هر کسی که به اطلاعات دسترسی داشته باشد، مطمئناً می‌تواند از آن برای اهداف پلید استفاده کند. افرادی که اطلاعات را در دست دارند می‌توانند با توانایی جدید خود برای نظارت بر اینکه کجا می‌رویم و چه کسانی را ملاقات می‌کنیم، و حتی پیش‌بینی کار‌های بعدی که ممکن است انجام دهیم.

محاسبات کوانتومی

رایان کالو: استاد حقوق، رئیس، رئیس و استاد گروه ویژه فناوری و جامعه و یکی از اعضای هیئت علمی آزمایشگاه سیاست فناوری و مرکز یک جامعه آگاه در دانشگاه واشنگتن

برای من خطرناک‌ترین فناوری نوظهور محاسبات کوانتومی است. به استثنای شکستن رمزگذاری، خطرات محاسبات کوانتومی چیز جدیدی نیست. در عوض، محاسبات کوانتومی تهدیدات حریم خصوصی و استقلال را که در عصر ابررایانه‌ها آغاز شد، تسریع می‌کند. با دسترسی به داده‌ها و قدرت پردازش کافی، سیستم‌های کامپیوتری امروزی به طور فزاینده‌ای قادر به استخراج اطلاعات خیلی نزدیک از ما هستند. من نگرانم که محاسبات کوانتومی همه اسرار ما را بر اساس اطلاعاتی که حتی فکر نمی‌کنیم پنهان کنیم حدس بزند.

زیست شناسی

امی وب: نویسنده و مدیر عامل موسسه Future Today.

خطرناک‌ترین فناوری در حال ظهور، زیست شناسی است. یا بهتر است بگوییم، زیست شناسی مصنوعی، که یک هدف منحصر به فرد دارد: دسترسی به سلول‌ها برای نوشتن کد‌های بیولوژیکی جدید. زیست شناسی مصنوعی رشته‌ای از علم است که مهندسی، هوش مصنوعی، ژنتیک و شیمی را برای طراحی مجدد قطعات و ارگانیسم‌های بیولوژیکی با توانایی‌های پیشرفته و اهداف جدید به کار می‌گیرد. مجموعه‌ای از فن‌آوری‌ها و تکنیک‌های بیولوژیکی جدید، که به طور گسترده در زیر چتر زیست‌شناسی مصنوعی قرار می‌گیرند، به ما این امکان را می‌دهند که نه تنها کد DNA را بخوانیم و ویرایش کنیم، بلکه بنویسیم. این بدان معناست که به زودی، ساختار‌های زنده و بیولوژیکی را طوری برنامه ریزی خواهیم کرد که گویی کامپیوتر‌های کوچکی هستند.

زیست شناسی مصنوعی به ما امکان می‌دهد توالی‌های DNA را در ابزار‌های نرم افزاری بارگذاری کنیم. پس از اینکه DNA برای رضایت محقق نوشته یا ویرایش شد، یک مولکول DNA جدید با استفاده از چیزی مانند چاپگر سه بعدی از ابتدا چاپ می‌شود. فناوری سنتز DNA (تبدیل کد ژنتیکی دیجیتال به DNA مولکولی) به طور تصاعدی در حال پیشرفت است. فناوری‌های امروزی به طور معمول زنجیره‌های DNA چندین هزار جفت باز را چاپ می‌کنند که می‌توانند برای ایجاد مسیر‌های متابولیک جدید برای یک سلول یا حتی ژنوم کامل یک سلول جمع شوند.

چه چیزی می‌تواند اشتباه باشد؟ به زودی ما قادر خواهیم بود هر ژنوم ویروسی را از ابتدا بنویسیم. با توجه به SARS-CoV-۲ که باعث کووید-۱۹ می‌شود، ممکن است دورنمای ترسناکی به نظر برسد، اما ویروس‌ها لزوماً بد نیستند. در واقع، یک ویروس فقط محفظه‌ای برای کد‌های بیولوژیکی است. در آینده، ممکن است ویروس‌های مفیدی را به عنوان درمان سرطان یا بیماری‌های خاص بنویسیم. زیست شناسی مصنوعی نقش مهمی در بحران آب و هوا و کمبود غذا و آب در حال ظهور ما ایفا خواهد کرد. این امر وابستگی ما به پروتئین را به حیوانات کاهش می‌دهد و در نهایت پزشکی را شخصی می‌کند. آینده‌ای را تصور کنید که در آن بدن شما به عنوان داروخانه خودش عمل می‌کند.

زیست شناسی

چیزی که زیست شناسی مصنوعی را به خطرناک‌ترین فناوری نوظهور تبدیل می‌کند، علم نیست، بلکه ما انسان‌ها هستیم. ما باید مدل‌های ذهنی خود را به چالش بکشیم، سؤالات دشوار بپرسیم و در مورد منشأ زندگی بحث‌های منطقی داشته باشیم، در غیر این صورت خطر ایجاد می‌کنیم و فرصت‌ها را از دست می‌دهیم. طی یک دهه آینده، ما نیاز به تصمیم گیری آگاهانه و بدون اطلاعات غلط یا سیاستمداران فرصت طلب خواهیم داشت که بیشتر به انتخاب عاقلانه علاقه‌مند هستند تا خیر عمومی.

ما باید از داده‌ها و شواهد استفاده کنیم برای تصمیم‌گیری کلیدی در مورد برنامه‌ریزی ویروس‌های جدید برای مبارزه با بیماری‌ها، اینکه حریم خصوصی ژنتیکی چگونه خواهد بود و چه کسی باید "مالک" موجودات زنده باشد. تنظیم‌کننده‌ها باید بفهمند که شرکت‌ها چگونه باید از سلول‌های مهندسی شده درآمد کسب کنند و از چه فرآیند‌هایی باید برای نگهداری یک ارگانیسم مصنوعی در آزمایشگاه استفاده کرد. شما نقش مهمی در زیست شناسی مصنوعی نیز بازی می‌کنید. اگر بتوانید بدن خود را دوباره برنامه ریزی کنید چه انتخاب‌هایی می‌کنید؟ آیا در مورد این که فرزندان آینده خود را ویرایش کنید عذاب خواهید کشید؟ آیا در صورت کاهش تغییرات آب و هوایی، با خوردن GMOs (جانداران اصلاح شده ژنتیکی) موافقت می‌کنید؟ وعده زیست شناسی مصنوعی آینده‌ای است که توسط قدرتمندترین و پایدارترین پلتفرم تولیدی بشریت ساخته شده است. ما در آستانه یک تکامل صنعتی نفس گیر جدید هستیم.

بی توجهی به انسان‌ها

جرون ون دن هوون: استاد اخلاق و فناوری دانشگاه صنعتی دلفت و یکی از نویسندگان Evil Online

من فکر می‌کنم خطرناک‌ترین فناوری‌ها به نوعی فناوری‌های اجتماعی یا شناختی هستند که مردم را از داشتن دید روشنی نسبت به جهان باز می‌دارد. این فناوری‌ها اغلب منجر به غیرانسانی‌سازی می‌شوند و مردم را به تبدیل شدن به افراد خود شیفته و بی‌اندیش دعوت می‌کنند. آن‌ها مانند ماشین‌های مه شکن هستند که شرایطی را ایجاد می‌کنند که نفی، انکار یا چشم پوشی از مشکلات انسان‌ها را برای ما آسان می‌کند.

ربات‌های انسان نما

الیزابت هیلد: استاد، فلسفه، موسسه فناوری ایلینویز

خطرناک‌ترین فناوری در حال ظهور، فناوری‌هایی است که از کنترل و مقررات انسانی فرار می‌کنند. فناوری‌ها به خودی خود به نحوی معجزه آسا ظهور نمی‌کنند، به خودی خود خطرناک نیستند، آن‌ها قصد خطرناکی ندارند. این انسان‌ها هستند که آن‌ها را طراحی می‌کنند، شکل می‌دهند، می‌سازند و به کار می‌برند. در حالی که گمانه‌زنی‌های زیادی در مورد ظهور فناوری‌های هوش مصنوعی فوق‌هوشمند آینده بالقوه وجود دارد که می‌توانند بر انسان‌ها غلبه کنند یا بر آن‌ها مسلط شوند، من فکر می‌کنم راه‌های واقعی‌تری برای فناوری‌های نوظهور و برای فرار از کنترل وجود دارد.

ربات های انسان نما

درگیری عاطفی مسیر دیگری است که انسان‌ها کنترل خود را بر فناوری از دست می‌دهند. هر چه انسان‌ها از نظر شهودی و احساسی با فناوری تعامل بیشتری داشته باشند، هدایت فناوری آسان‌تر است. این یکی از انگیزه‌های طراحی ربات‌های اجتماعی و انسان‌نما است به گونه‌ای که انسان‌ها به فناوری هوش مصنوعی تجسم‌شده واکنش نشان می‌دهند و با آن تعامل می‌کنند، مشابه نحوه واکنش و تعامل با انسان‌ها. با این حال، نسبت دادن احساسات، عاملیت و سایر ویژگی‌های انسان‌مانند به فناوری که فاقد این قابلیت‌ها است، می‌تواند منجر به درگیری عاطفی یک‌طرفه انسان‌ها و همچنین تعامل انسان-فناوری شود که نه عقلانیت، بلکه تحت سلطه عوامل عاطفی است. در این نوع تعامل، انسان‌ها شریک آسیب پذیرتری هستند.


بیشتر بخوانید


 

اخبار پیشنهادی
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.
نظرات کاربران
انتشار یافته: ۴
در انتظار بررسی: ۰
Iran (Islamic Republic of)
محمد
۱۴:۲۶ ۰۳ فروردين ۱۴۰۱
چاقو هم خطرناک است. هم می توان با آن کسی را کشت و هم می توان با آن جراحی کرد و کسی را نجات داد. آیا نباید از آن استفاده کرد؟ چگونگی استفاده مهم است.
Iran (Islamic Republic of)
ناشناس
۱۵:۲۷ ۰۳ فروردين ۱۴۰۱
بله ولی استفاده از آنها تهذیب نفس بالائی را میطلبد تا فرد تنها بدنبال منافع مادی خود نباشد ودر تصمیماتش به خیر و صلاح اطرافیانش هم توجه کند
Iran (Islamic Republic of)
ناشناس
۱۰:۵۱ ۰۳ فروردين ۱۴۰۱
تمام اینها ابزار هستند اون چیزی که خطرناکه انسان هایی هستند که قابلیت دسترسی به این ابزارها رو داشته باشن.
Iran (Islamic Republic of)
ناشناس
۰۹:۴۲ ۰۳ فروردين ۱۴۰۱
هوش مصنوعی خیلی هیجان انگیزه
آخرین اخبار