ائتلاف گستردهای متشکل از بیش از ۵۰۰ فناور، مهندس و متخصص اخلاق هوش مصنوعی نامهای سرگشاده را امضا کردهاند که در آن از آزمایشگاههای هوش مصنوعی خواسته شده است تا فورا تمام آموزشهای مربوط به سیستمهای هوش مصنوعی قدرتمندتر از GPT-۴ را که اخیرا منتشر شده از Open AI به مدت حداقل شش ماه متوقف کنند.
امضاکنندگان که شامل استیو وزنیاک، یکی از بنیانگذاران اپل و ایلان ماسک، توسعهدهنده هوش مصنوعی است، هشدار میدهند که این مدلهای پیشرفته هوش مصنوعی میتوانند «خطرات عمیقی برای جامعه و بشریت» داشته باشند، اگر اجازه پیشرفت بدون پادمانهای کافی داشته باشند.
در این نامه آمده است که اگر شرکتها از توقف توسعه امتناع کنند، دولتها باید سلاحهای بزرگ را برداشته و یک تعلیق اجباری وضع کنند.
همچنین در این نامه ذکر شده است: هوش مصنوعی پیشرفته میتواند نشاندهنده تغییری عمیق در تاریخ حیات روی زمین باشد و باید با دقت و منابع متناسب برنامهریزی و مدیریت شود. متاسفانه این سطح از برنامهریزی و مدیریت اتفاق نمیافتد، حتی اگر در ماههای اخیر آزمایشگاههای هوش مصنوعی در رقابتی خارج از کنترل برای توسعه و استقرار ذهنهای دیجیتالی قدرتمندتر متمرکز شده باشند که هیچکس حتی سازندگان آنها نمیتوانند آن را درک کنند؛ بنابراین پیشگیری و و کنترل الزامی است.
این نامه توسط موسسه آینده زندگی منتشر شد، سازمانی که خود را تحت عنوان یک مرکز متمرکز بر هدایت فناوریها از خطرات بزرگ مقیاس برای بشریت توصیف میکند. این گروههای خطر اولیه شامل هوش مصنوعی، بیوتکنولوژی، سلاحهای هستهای و تغییرات آب و هوایی است. نگرانیهای این گروه در مورد سیستمهای هوش مصنوعی بر این فرض استوار است که این سیستمها اکنون در حال تبدیل شدن به رقابت برای انسان در وظایف عمومی هستند. نامه استدلال میکند که این سطح از پیچیدگی میتواند به آیندهای نزدیک منجر شود که در آن بازیگران بد از هوش مصنوعی برای پر کردن اینترنت با تبلیغات استفاده میکنند، مشاغلی را که زمانی ثابت مانده بودند، بیهوده میسازند، و «ذهن غیرانسانی» را توسعه میدهند که میتواند جایگزین انسان شود.
در این نامه همچنین استدلال میشود که سیستمهای هوش مصنوعی نوظهور در حال حاضر فاقد پادمانها یا کنترلهایی هستند که فراتر از شک معقول ایمن هستند. برای حل این مشکل این نامه میگوید آزمایشگاههای هوش مصنوعی باید متوقف و تعلیق شوند تا دولتها مجموعهای از پروتکلهای ایمنی مشترک را پیادهسازی و توافق کنند و اطمینان حاصل کنند که سیستمها توسط یک بررسی مستقل از کارشناسان خارجی ممیزی میشوند.
یکی از امضاکنندگان برجسته در این باره گفت که جزئیات این بررسی که در عمل واقعا چگونه به نظر میرسد، هنوز «بسیار مورد بحث است». توقف و پادمانهای اضافهشده بهخصوص برای همه توسعههای هوش مصنوعی اعمال نمیشود، اما روی «مدلهای جعبه سیاه با قابلیتهای نوظهور» تمرکز خواهد کرد که قدرتمندتر از GPT ۴ Open AI است. مهمتر از همه این شامل GPT ۵ در حال توسعه Open AI است.
در این نامه آمده است: «تحقیق و توسعه هوش مصنوعی باید روی ساختن سیستمهای قدرتمند و پیشرفته امروزی دقیقتر، ایمنتر، قابل تفسیرتر، شفافتر، قویتر، همسوتر، قابل اعتمادتر و وفادارتر باشد».
بدبینان هوش مصنوعی هشدار میدهند
استوارت راسل، استاد علوم کامپیوتر در دانشگاه برکلی و یکی از نویسندگان کتاب هوش مصنوعی در این باره گفت: نگرانیها در مورد تهدیدات علیه دموکراسی و اطلاعات نادرست تسلیحاتی در حال حاضر در مورد GPT-۴، Google's Bard و سایر مدلهای زبان بزرگ موجود است.
به گفته او، کابوسهای مربوط به هوش مصنوعی، کابوسهایی هستند که میتوانند از نسل بعدی ابزارها بیرون بیایند.
مهمترین نگرانی ناشی از رقابتی است که به نظر میرسد بین شرکتهای فناوری وجود دارد، شرکتهایی که میگویند بدون توجه به خطر، توسعه سیستمهای قدرتمندتر و بیشتر را متوقف نخواهند کرد؛ به عبارتی دقیقتر خطری که آنها در اینجا به آن اشاره میکنند، از دست دادن کنترل انسان بر جهان و آینده خودمان است، همان طور که گوریلها به خاطر انسانها کنترل خود را بر آینده خود از دست دادهاند.
راسل ادعا میکند که نه ما و نه خود سازندگان ابزارهای هوش مصنوعی هیچ ایدهای نداریم که واقعا این هشدار و پیشنهاد چقدر موثر است، اگرچه سایر محققان برجسته هوش مصنوعی این توصیف را رد کردهاند، راسل میگوید که این مدلها اساسا یک لوح خالی از یک تریلیون پارامتر هستند. این تنها چیزی است که میدانیم؛ به عنوان مثال ما نمیدانیم که آیا آنها اهداف داخلی خود و توانایی پیگیری آنها را از طریق برنامه ریزی گسترده توسعه دادهاند یا خیر.
راسل به مقاله تحقیقاتی اخیر محققان مایکروسافت اشاره کرد که ادعا میکرد GPT-۴ اخیرا منتشر شده توسط هوش مصنوعی Open نشان دهنده جرقههایی از هوش مصنوعی عمومی است.
کارشناسان نگرانیهای خود را در مورد سوءاستفاده احتمالی از هوش مصنوعی ابراز داشتند، اما از تلاشهای رایج برای مقایسه سیستمهای هوش مصنوعی با هوش انسانی رد شدند.
آنها خاطرنشان کردند که صحبت در مورد هوش عمومی مصنوعی میتواند معکوس باشد. ChatGPT OpenAI که توانست کلاسهای مدرسه بازرگانی و یک آزمون بزرگ مجوز پزشکی را بگذراند، به طور همزمان با محاسبات اولیه دست و پنجه نرم میکند.
سارا مایرز وست، مدیر عامل موسسه AI Now معتقد است بسیاری از افراد نگران قابلیتهای هوش مصنوعی هستند، بنابراین اگر بخواهیم این سیستمها پاسخگوی آنان باشند، باید بازیگران اصلی درگیر را تنظیم کنیم، اما نکته کلیدی برای درک Chat GPT و دیگر مدلهای زبان بزرگ مشابه اینجاست: آنها به هیچ وجه عمق درک زبان انسان را منعکس نمیکنند، آنها تنها شکل آن را تقلید میکنند.
اگرچه مایرز در مورد سوء استفاده از هوش مصنوعی نگرانی مشترکی دارد، اما نگران است که قطار تبلیغاتی فعلی این فناوری و اغراق بیش از حد تواناییهای آن، توجه را از نگرانیهای مبرمتر منحرف کند.
چندین محقق هوش مصنوعی با ابراز نگرانی واقعی درباره فقدان قوانین یا مقررات معنادار در این زمینه به ویژه با توجه به اتکای این فناوری به بخشهای گستردهای از دادهها و سرعت سرسام آور آن، صحبت کردند. مدلهای زبان بزرگ برجسته مانند GPT-۴ در حال حاضر فاقد شفافیت معنادار در مورد انواع دادههای آموزشی هستند که برای توسعه مدلهای خود استفاده میکنند. تعصبات مربوط به جنسیت و نژاد که قبلا به طور گسترده در مدلهای نهچندان پیشرفته هوش مصنوعی احساس میشد، خطر تشدید بیشتر را دارد.
امیلی ام. بندر، استاد زبانشناسی دانشگاه واشنگتن در این باره گفت: «اینها برنامههایی برای ایجاد سریع متنی هستند که قابل قبول به نظر میرسد، اما هیچ پایهای در هیچ تعهدی به حقیقت ندارد، این بدان معناست که اکوسیستم اطلاعاتی ما میتواند به سرعت غرق در غیراطلاعات شود و یافتن منابع اطلاعاتی قابل اعتماد را دشوارتر کند و علیرغم همه تبلیغات پیرامون آن، عموم افراد هنوز در بهترین حالت به مسیر فعلی هوش مصنوعی اطمینانی ندارند.
فقط ۹ درصد از بزرگسالان آمریکایی که در نظرسنجی اخیر دانشگاه مونموث مورد بررسی قرار گرفتند، گفتند که معتقدند هوش مصنوعی بیشتر از آسیب به جامعه سود میرساند. ۵۶ درصد دیگر گفتند که معتقدند دنیایی که با هوش مصنوعی پیشرفته غرق شده است به کیفیت کلی زندگی انسان آسیب میرساند.
پاتریک موری، مدیر نظرسنجی موسسه نظرسنجی دانشگاه مونموث، در بیانیهای گفت: «به نظر میرسد که برخی از افراد هوش مصنوعی را نه تنها به عنوان یک نگرانی فنی و اقتصادی بلکه به عنوان یک موضوع بهداشت عمومی نیز میدانند».
کارشناسان و هشداردهندهها در فراخوانی برای تنظیم مقررات متحد شدند
یکی از مواردی که امضاکنندگان موسسه آینده زندگی و بدبینان محتاطتر هوش مصنوعی روی آن توافق کردند، نیاز فوری قانونگذاران به ابداع قوانین جدید برای هوش مصنوعی بود. در این نامه از سیاستگذاران خواسته شده است که «توسعه سیستمهای حکمرانی قوی هوش مصنوعی را بهطور چشمگیری تسریع کنند» که شامل تنظیمکنندههایی است که به طور خاص بر هوش مصنوعی و همچنین نظارت و ردیابی ابزارهای قدرتمند هوش مصنوعی متمرکز هستند؛ علاوه بر این، این نامه خواستار ابزارهای واترمارکینگ شد تا به کاربران کمک کند به سرعت بین محتوای مصنوعی و واقعی تمایز قائل شوند.
منبع: Gizmodo