مدلهای هوش مصنوعی ممکن است به روشی شبیه به انسان پاسخ دهند و بنویسند، اما همیشه ۱۰۰ درصد درست نیستند. ابزارهای محاورهای مبتنی بر هوش مصنوعی در حال تبدیل شدن به جریان اصلی هستند که برای بسیاری از محققان اطلاعات نادرست، دلیل اصلی نگرانی است.
این هفته گوگل بارد را معرفی کرد، پاسخ خود به Open AI’s ChatGPT، و عرضه ویژگیهای تقویتشده هوش مصنوعی را برای بسیاری از محصولات اصلی خود در رویدادی در پاریس دوچندان کرد. به طور مشابه، مایکروسافت اعلام کرد که ChatGPT به زودی با Bing، موتور جستجوی بسیار بداخلاق خود، یکپارچه خواهد شد. در ماههای آینده این ابزارهای مکالمه به طور گسترده در دسترس خواهند بود، اما در حال حاضر، برخی از مشکلات شروع به ظاهر شدن کردهاند.
هوش مصنوعی مکالمهای با استفاده از یک چارچوب شبکه عصبی به نام «مدلهای زبان بزرگ» (LLM) ساخته شده و در تولید متنی که از نظر گرامری منسجم است و قابل قبول و شبیه انسان به نظر میرسد بسیار خوب است. آنها میتوانند این کار را انجام دهند، زیرا آنها بر روی صدها گیگابایت متن انسانی آموزش دیدهاند که بیشتر آن از اینترنت گرفته شده است.
برای تولید متن جدید، این مدل با پیشبینی «ژتون» بعدی (اصولا یک کلمه یا قطعه از یک کلمه پیچیده) با توجه به دنبالهای از نشانهها کار میکند بسیاری از محققان این را با تمرینهای «پر کردن جای خالی» در مدرسه مقایسه کردهاند.
متاسفانه، این روش برای پیشبینی کلمات و جملات قابل قبول بعدی به این معنی است که هوش مصنوعی مکالمه اغلب ممکن است از نظر واقعی اشتباه باشد، و اگر قبلاً اطلاعات را نمیدانید، به راحتی میتوانید گمراه شوید، زیرا به نظر میرسد که آنها میدانند درباره چه چیزی صحبت میکنند.
یکی از سوالات نمایشی در اعلامیه گوگل این بود که «چه اکتشافات جدیدی از تلسکوپ فضایی جیمز وب را میتوانم به کودک ۹ ساله خود بگویم؟ در پاسخ، بارد گفت: JWST اولین عکسهای سیارهای خارج از منظومه شمسی را گرفت.
در حالی که به نظر میرسد آن چیزی است که انتظار دارید بزرگترین تلسکوپ فضایی ساخته شده انجام دهد و JWST در واقع سیارات فراخورشیدی را شناسایی میکند، اما اولین تلسکوپ فضایی را نیافت؛ رویترز و ناسا اعلام کردند که این افتخار به تلسکوپ بسیار بزرگ رصدخانه جنوبی اروپا (VLT) تعلق میگیرد که در سال ۲۰۰۴ یکی از آنها را یافت.
مایکروسافت رویکرد پیشروتری را در پیش گرفته است. پرسشهای متداول جدید بینگ بیان میکند «هوش مصنوعی میتواند اشتباه کند» و «بینگ گاهی اطلاعاتی را که پیدا میکند اشتباه نشان میدهد و ممکن است پاسخهایی را ببینید که قانعکننده به نظر میرسند، اما ناقص، نادرست یا نامناسب هستند». همچنان از کاربران میخواهد تا قضاوت خود را به کار گیرند و حقایقی را که هوش مصنوعی ارائه میدهد دوباره بررسی کنند؛ همچنین میگوید که میتوانید از بینگ بپرسید: این اطلاعات را از کجا به دست آوردهاید؟ تا بدانید از چه منابعی برای ایجاد پاسخ استفاده کرده است.
با این حال این به نظر سیاست مایکروسافت است. بله، مردم باید نسبت به اطلاعاتی که آنلاین میخوانند شک داشته باشند، اما وظیفه مایکروسافت نیز این است که مطمئن شود ابزارهایی که در اختیار میلیونها کاربر قرار میدهد صرفا چیزهایی را درست نمیکنند و آنها را بهگونهای ارائه نمیکنند که گویی درست است. موتورهای جست و جو مانند بینگ یکی از بهترین ابزارهایی هستند که مردم برای تایید حقایق دارند، آنها نباید به حجم اطلاعات نادرست در آن جا اضافه کنند و این مسئولیت ممکن است از نظر قانونی قابل اجرا باشد.
قانون خدمات دیجیتال اتحادیه اروپا که مدتی در سال ۲۰۲۴ لازم الاجرا خواهد شد، مقرراتی برای جلوگیری از انتشار اطلاعات نادرست دارد. عدم رعایت قانون جدید میتواند منجر به جریمههایی تا ۶ درصد از گردش مالی سالانه شرکت شود. با توجه به جریمههای هنگفت اخیر اتحادیه اروپا برای شرکتهای فناوری آمریکا و مقررات موجود مبنی بر اینکه موتورهای جست و جو باید انواع خاصی از اطلاعات را که میتوان ثابت کرد نادرست هستند، حذف کنند، به نظر میرسد که این بلوک ۲۷ کشوری ممکن است موضع سختی در مورد ایجاد هوش مصنوعی اتخاذ کند.
اطلاعات نادرست به طور برجسته در گوگل یا بینگ نمایش داده میشود. آنها در حال حاضر مجبور شدهاند موضع سختتری در قبال سایر اشکال اطلاعات نادرست تولید شده، مانند دیپفیکها و حسابهای جعلی رسانههای اجتماعی اتخاذ کنند.
با توجه به این که این هوشهای مصنوعی مکالمهای به زودی به طور گسترده و رایگان در دسترس قرار میگیرند، احتمالا شاهد بحثهای بیشتری در مورد میزان مناسب بودن استفاده از آنها خواهیم بود، به خصوص که ادعا میکنند منبع معتبری از اطلاعات هستند. در ضمن بیایید به خاطر داشته باشیم برای این نوع هوش مصنوعی ایجاد مزخرفات منسجم گرامری بسیار سادهتر از نوشتن یک پاسخ بررسی شده واقعی به یک پرس و جو است.
منبع: popsci