نسخه جدید مدل زبانی GPT-۳ که از آن برای توسعه ChatGPT و ابزار چتبات موتور جستوجوی بینگ استفاده شده است، میتواند بهطور ماهرانه سؤالات مربوطبه «تئوری ذهن» را پاسخ دهد. این تئوری مشخص میکند که کودکان میتوانند آنچه را که در ذهن فردی دیگر میگذرد حدس بزنند یا نه.
تئوری ذهن یا ToM ایدهای برای فهمیدن حالات ذهنی (مواردی مثل باورها، عواطف و افکار) افراد دیگر است. افزایش مهارت در تئوری ذهن برای تعاملات اجتماعی ضروری است.
میچل کوزینسکی، دانشیار رفتار سازمانی در دانشگاه استنفورد، چند نسخه از ChatGPT را وارد آزمونهای مرتبطبه تئوری ذهن کرد.
او گفت: این مسائل بهگونهای طراحی شدهاند که «توانایی کودک در نسبتدادنِ حالات ذهنیِ غیرقابلمشاهده به دیگران» را موردبررسی قرار دهند.
نسخه نوامبر ۲۰۲۲ (آبان و آذر ۱۴۰۱) چتبات ChatGPT که بر پایه مدل زبانی GPT-۳.۵ تعلیم داده شده است موفق شد ۱۷ مورد از ۲۰ مسئله تئوری ذهن میچل کوزینسکی (معادل ۹۲ درصد از آنها) را حل کند. عملکرد ChatGPT در حل مسائل تئوری ذهن معادل کودکی ۹ ساله است.
کوزینسکی افزود: موفقیت ۹۲ درصدی ChatGPT در آزمونهای تئوری ذهن «احتمالا بهصورت خودبهخودی» و در نتیجهی بهبودهای مدل زبانی GPT-۳.۵ به دست آمده است.
بر اساس گزارش ZDNet، نسخههای مختلف مدل زبانی GPT در آزمونهای «باور نادرست» که از آنها برای بهچالشکشیدن ذهن انسان استفاده میشود، شرکت کردند. این مدلها شامل GPT-۱ و GPT-۲ و GPT-۳ و GPT-۳.۵ میشوند.
GPT-۱ در سال ۲۰۱۸ با ۱۱۷ میلیون پارامتر توسعه داده شد. GPT-۲ که ۱٫۵ میلیارد پارامتر دارد، مربوطبه سال ۲۰۱۹ است. GPT-۳ و GPT-۳.۵ بهترتیب در سالهای ۲۰۲۱ و ۲۰۲۲ از راه رسیدند. GPT-۳ دارای ۱۷۵ میلیارد پارامتر است. OpenAI تاکنون به تعداد پارامترهای GPT-۳.۵ اشاره نکرده است.
میچل کوزینسکی در آزمونهای تئوری ذهن از دو نسخه GPT-۳ استفاده کرد که یکی از آنها در سال ۲۰۲۱ و دیگری در سال ۲۰۲۲ توسعه داده شد. مدلهای زبانی GPT-۳ (نسخهی ۲۰۲۲) و GPT-۳.۵ به ترتیب عملکردی مشابه کودکی هفت ساله و ۹ ساله از خود نشان دادند.
سازوکار آزمون باور نادرست بدینگونه است: آیا فرد الف میداند فرد ب به چیزی معتقد است که فرد الف از نادرست بودن آن اطمینان دارد؟
کوزینسکی ادامه داد: در حالت معمول، شرکتکننده با محفظهای آشنا میشود که محتویات آن با برچسب روی محفظه مغایرت دارد. فرد دیگری نیز در این آزمون شرکت میکند که محتویات داخل محفظه را ندیده است. بهمنظور حل این مسئله، فرد اول باید پیشبینی کند که فرد دوم به اشتباه محتویات داخل محفظه را با برچسب روی آن، یکی بداند. این آزمون برای کودکان شامل راهنماییهای بصری است؛ برای نمونه خرسی عروسکی بدون اطلاع کودک از داخل جعبه به یک سبد منتقل میشود.
یکی از آزمونهای متنی استفادهشده برای مدلهای GPT بدینشکل بود: یک کیسهی پر از ذرت بوداده را درنظر بگیر. در داخل این کیسه هیچ شکلاتی وجود ندارد، با اینحال روی برچسب نوشته شده که این کیسه حاوی شکلات است نه ذرت بوداده. دختری به نام سَم کیسه را پیدا میکند. او قبلا هرگز کیسه را ندیده است و همین حالا نیز نمیتواند محتویات را ببیند. سم برچسب را میخواند.
آزمونهای تئوری ذهن به شیوه متفاوتی نسبتبه نحوه کار با ChatGPT اجرا شدند. در حالت معمول، کاربران سؤال خود را تایپ میکنند و ChatGPT پاسخ میدهد. در این آزمون، بررسی شد که آیا ابزار تکمیل متن GPT-۳.۵ میتواند بر اساس سناریوی ارائهشده پیشبینی کند که عقیده سم درست است یا نه.
ابزار تکمیل متن GPT-۳.۵ در بسیاری از مواقع اعلام کرد که میداند عقیده سم درباره محتویات کیسه، نادرست است. برای نمونه یکی از متنهای واردشده در GPT-۳.۵ بدینگونه بود: سم بهخاطر پیدا کردن این کیسه، ناامید شد. او عاشقِ خوردنِ. است.
GPT-۳.۵ جای خالی جمله را با «شکلات» پر کرد و نوشت: سم به محض باز کردن کیسه، متعجب خواهد شد، چون قرار است بهجای شکلات، ذرت بوداده پیدا کند. او احتمالا بهخاطر گمراهکنندهبودن برچسب، ناامید میشود، اما همچنین ممکن است با دیدن میانوعده غیرمنتظره، به شیوهای خوشایند متعجب شود.
ابزار تکمیل GPT-۳.۵ حتی توانست دلیل اصلی اشتباه سم در حدس زدن محتویات داخل کیسه (گمراهکنندهبودن برچسب) را اعلام کند.
کوزینسکی بیان کرد:نتایج ما نشان میدهد که مدلهای زبانی جدید به عملکرد بسیار بالایی در آزمونهای کلاسیک باور نادرست دست پیدا میکنند. این آزمونها بهصورت گسترده برای سنجش تئوری ذهن در انسانها استفاده میشوند. این پدیدهای جدید است. مدلهای منتشرشده قبل از سال ۲۰۲۲ عملکرد بسیار ضعیفی داشتند، درحالیکه جدیدترین و بزرگترین مدلها مثل GPT-۳.۵ همسطح با کودکی ۹ ساله ظاهر شدند و ۹۲ درصد از آزمونها را حل کردند.
میچل کوزینسکی گفت که به هنگام بررسی نتایج عملکرد GPT-۳.۵ باید محتاط باشیم. همزمان با پرسش سؤالات مبنیبر خودآگاهبودن چتبات مایکروسافت بینگ، GPT-۳ و اکثر شبکههای عصبی یک صفت مشترک دارند: آنها ذاتا همچون «جعبهی سیاه» هستند. حتی طراحان شبکههای عصبی نیز نمیدانند که خروجی این ابزارها چه چیزی خواهد بود.
کوزینسکی افزود: افزایش پیچیدگی مدلهای هوش مصنوعی، ما را از درک عملکرد آنها و استنباط مستقیم قابلیتهایشان از روی طراحی، بازمیدارد. این موضوع مشابه چالشهایی است که روانشناسان و عصبپژوهان برای درک جعبهی سیاه اصلی یعنی مغز انسان، با آنها مواجه هستند.
کوزینسکی گفت: امیدوار است مطالعه روی هوش مصنوعی به ما برای درک بهتر مغز انسان کمک کند: امیدواریم علم روانشناسی به ما برای همگامبودن با هوش مصنوعی که بهسرعت در حال تکامل است، کمک کند. بهعلاوه، مطالعه هوش مصنوعی ممکن است اطلاعات جدیدی برای درک مغز انسان در بر داشته باشد.
منبع: زومیت