شرکت فناوری OpenAI در آمریکا و توسعهدهنده پلتفرم چت هوش مصنوعی ChatGBT، در پاسخ به نگرانیهای فزاینده مبنی بر نادرست بودن متون ماشینی، برنامهای را معرفی کرده که میتواند بین متنهای ماشینی و انسانی ارائه شده توسط یک شخص واقعی با استفاده از هوش مصنوعی تمایز قائل شود.
قابل ذکر است که "GBT Chat" میتواند گفتار انسان را به روشی جدید تقلید کند، که نگرانیهایی را در مورد بسیاری از موارد از جمله امکان استفاده از آن برای تقلب در آزمونهای مدرسه، تهیه مقالات تحقیقاتی دانشگاه یا جعل اطلاعات گمراه کننده و انتشار آن در مقیاس بزرگ ایجاد میکند.
شرکت OpenAP با وجود تمام تلاشهای خود، در یک پیام آنلاین در روز سهشنبه اعتراف کرد که ابزار جدیدش همچنان ضعیف عمل میکند.
پلتفرم هوش مصنوعی ChatGBT با بیان اینکه ابزار طبقه بندی و بررسی جدید کاملاً قابل اعتماد نیست، تأکید کرد که در حال انجام آزمایشاتی در این زمینه است و این ابزار توانسته ماهیت متن را در ۲۶ درصد موارد به درستی شناسایی کند.
در عین حال، این برنامه جدید در مورد متون نوشته شده توسط کاربران گفته است که در ۹ ٪ موارد متون خودکار هستند، بنابراین در حال حاضر توصیه میکند که عمدتاً برای ارزیابی متون به برنامه اعتماد نکنید.
این شرکت افزود که به توسعه و به روز رسانی این برنامه ادامه خواهد داد و امیدوار است در آینده روشهای بهبود یافتهای را ارائه دهد.
OpenAI گفت که با توجه به امکان استفاده از هوش مصنوعی برای انتشار خودکار کمپینهای اطلاعات نادرست و همچنین استفاده از ابزارهای هوش مصنوعی در تقلب تحصیلی و استفاده از تکنیکهای مکالمه هوش مصنوعی به عنوان یک ابزار، نیاز به نرم افزار برای تشخیص استفاده از هوش مصنوعی در نوشتن متن واضح است.
منبع: 24.ae