هدف از پروژه Galactica یا برنامه هوش مصنوعی فیس بوک افزایش اطلاعات در علوم مختلف با استفاده از هوش مصنوعی برای غربال کردن ۴۸ میلیون مقاله و کتاب درسی بود. به گفته کارشناسانی که این برنامه را آزمایش کرده اند، این برنامه انواع مزخرفات را مطرح می کند، و برخی از چیزهایی که میگوید «توهینآمیز و خطرناک» بوده اند.
این آزمایش همچنین دستورالعمل های نادرستی در مورد نحوه ساخت ناپالم ماده ای که برای ساختن بمب استفاده می شود، در وان حمام ارائه کرده است. چند روز پس از انتشار این نرم افزار، روسای متا مجبور شدند آن را از اینترنت خارج کنند.
این شبکه اجتماعی اعلام کرده است: "هیچ تضمینی برای خروجی واقعی یا قابل اعتماد مدلهای زبان، حتی مدلهای بزرگی که بر روی دادههای با کیفیت بالا مانند Galactica آموزش دیدهاند، وجود ندارد. هرگز توصیههای یک مدل زبان را بدون بررسی آن دنبال نکنید."
این شرکت همچنین توضیح داده است که این برنامه به خوبی کار نمی کند، زیرا اطلاعات کمتری در مورد یک موضوع خاص در دسترس است.
فیس بوک تأکید کرده است: "مدل های زبانی بعضا قابل اعتماد هستند اما اغلب حاوی اشتباه هستند. برخی از متون تولید شده در Galactica ممکن است بسیار معتبر و بسیار قابل اعتماد به نظر برسند، اما می توانند از جنبه های مهم اشتباه باشند."
این گروه با اعلام پایان آزمایش برنامه مذکور تصریح کرده است: "از همه شما برای آزمایش مدل Galactica متشکرم. ما به خاطر بازخوردی که تاکنون از جامعه دریافت کرده ایم قدردانی می کنیم و آزمایش را فعلاً متوقف کرده ایم. مدل های ما در دسترس محققانی است که می خواهند درباره این کار و نتایج بیشتر بدانند."
منبع: 24.ae