مطالعهای که توسط تیمی از محققان دانشگاه استنفورد ایالات متحده برای ارزیابی قابلیت اطمینان برنامههای شناسایی متون تهیه شده توسط برنامههای هوش مصنوعی و ارائه شده توسط افراد طبیعی انجام شد، نشان داد که نتایج این برنامهها نادرست هستند.
وبسایت «CNET.com» که متخصص در زمینههای فناوری است، اعلام کرد که این تیم تحقیقاتی از این که اکثر برنامههای شناسایی تولید شده توسط اپلیکیشنهای هوش مصنوعی مانند GPT Chat به نتایج دقیقی در حد قابل قبولی دست پیدا نکردهاند، شگفتزده شدهاند و می گویند که این نشان دهنده ارزش محدود این برنامه ها است که کاربر باید به آن توجه کند.
این تیم تحقیقاتی از ۹۱ مقاله تهیه شده توسط دانش آموزانی که در آزمون زبان انگلیسی به عنوان زبان خارجی (TOEFL) از یک انجمن چینی و ۸۸ مقاله نوشته شده توسط آمریکاییهایی که در کلاس هشتم تحصیل میکردند، استفاده کرده است.
محققان این مقالات را از طریق ۷ برنامه کاربردی برای کشف تولیدات GPT Chat، از جمله برنامهای که توسط OpenAI، توسعه دهنده خود GPT Chat ساخته شده، مورد بررسی قرار دادند.
محققان دریافتند که تنها ۵.۱ درصد از مقالات نوشته شده توسط دانشجویان آمریکایی به عنوان تولید کننده یک برنامه هوش مصنوعی طبقه بندی شده اند؛ در حالی که ۶۱ درصد از مقالات خارجیهایی که در آزمون تافل شرکت میکنند به عنوان آماده سازی برنامه هوش مصنوعی طبقه بندی شده اند. حتی یک برنامه غربالگری ۹۷.۸ درصد از مقالات تافل را که توسط هوش مصنوعی تولید شده بودند، طبقه بندی کرد.
هفت برنامه موافقت کردند که ۱۸ مقاله از ۹۱ مقاله تافل توسط ابزارهای هوش مصنوعی تولید شده است. محققان خاطرنشان کردند که «آشفتگی متن» ممکن است دلیل اصلی غیر واقعی دانستن این متون باشد.
آشفتگی متن معیاری برای تنوع واژگان و تصادفی بودن استفاده از آن در متن است. مطالعات نشان میدهند که نویسندگانی که زبان مادری آنها انگلیسی نیست، دارای کارنامه زبانی و دستوری محدودی هستند که در متونی که مینویسند ظاهر میشود. بنابراین، برنامههای کاربردی کشف هوش مصنوعی آنها را متون نوشته شده توسط یک فرد عادی نمیدانند.
منبع: 24.ae