برنامه‌های کاربردی تشخیص متن تولید شده توسط هوش مصنوعی به راحتی گمراه می‌شوند.

مطالعه‌ای که توسط تیمی از محققان دانشگاه استنفورد ایالات متحده برای ارزیابی قابلیت اطمینان برنامه‌های شناسایی متون تهیه‌ شده توسط برنامه‌های هوش مصنوعی و ارائه شده توسط افراد طبیعی انجام شد، نشان داد که نتایج این برنامه‌ها نادرست هستند.

وب‌سایت «CNET.com» که متخصص در زمینه‌های فناوری است، اعلام کرد که این تیم تحقیقاتی از این که اکثر برنامه‌های شناسایی تولید شده توسط اپلیکیشن‌های هوش مصنوعی مانند GPT Chat به نتایج دقیقی در حد قابل قبولی دست پیدا نکرده‌اند، شگفت‌زده شده‌اند و می گویند که این نشان دهنده ارزش محدود این برنامه ها است که کاربر باید به آن توجه کند.

این تیم تحقیقاتی از ۹۱ مقاله تهیه شده توسط دانش آموزانی که در آزمون زبان انگلیسی به عنوان زبان خارجی (TOEFL) از یک انجمن چینی و ۸۸ مقاله نوشته شده توسط آمریکایی‌هایی که در کلاس هشتم تحصیل می‌کردند، استفاده کرده است.

محققان این مقالات را از طریق ۷ برنامه کاربردی برای کشف تولیدات GPT Chat، از جمله برنامه‌ای که توسط OpenAI، توسعه دهنده خود GPT Chat ساخته شده، مورد بررسی قرار دادند.

محققان دریافتند که تنها ۵.۱ درصد از مقالات نوشته شده توسط دانشجویان آمریکایی به عنوان تولید کننده یک برنامه هوش مصنوعی طبقه بندی شده اند؛ در حالی که ۶۱ درصد از مقالات خارجی‌هایی که در آزمون تافل شرکت می‌کنند به عنوان آماده سازی برنامه هوش مصنوعی طبقه بندی شده اند. حتی یک برنامه غربالگری ۹۷.۸ درصد از مقالات تافل را که توسط هوش مصنوعی تولید شده بودند، طبقه بندی کرد.

هفت برنامه موافقت کردند که ۱۸ مقاله از ۹۱ مقاله تافل توسط ابزار‌های هوش مصنوعی تولید شده است. محققان خاطرنشان کردند که «آشفتگی متن» ممکن است دلیل اصلی غیر واقعی دانستن این متون باشد.

آشفتگی متن معیاری برای تنوع واژگان و تصادفی بودن استفاده از آن در متن است. مطالعات نشان می‌دهند که نویسندگانی که زبان مادری آن‌ها انگلیسی نیست، دارای کارنامه زبانی و دستوری محدودی هستند که در متونی که می‌نویسند ظاهر می‌شود. بنابراین، برنامه‌های کاربردی کشف هوش مصنوعی آن‌ها را متون نوشته شده توسط یک فرد عادی نمی‌دانند.

منبع: 24.ae

اخبار پیشنهادی
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.