سایر زبان ها

صفحه نخست

سیاسی

بین‌الملل

ورزشی

اجتماعی

اقتصادی

فرهنگی هنری

علمی پزشکی

فیلم و صوت

عکس

استان ها

شهروند خبرنگار

وب‌گردی

سایر بخش‌ها

چگونه هوش مصنوعی چیز‌هایی را می‌داند که کسی نگفته است!

پیشرفت فناوری به ویژه هوش مصنوعی به اذعان متخصصان در عین مفید بودن می‌تواند به طور بالقوه‌ای خطرناک و تهدیدآمیز باشد. 

محققان همچنان در تلاشند تا دریابند چگونه مدل‌های هوش مصنوعی آموزش دیده برای طوطی‌سازی متن اینترنتی می‌توانند کار‌های پیشرفته‌ای مانند اجرای کد، بازی کردن و تلاش برای به هم زدن ازدواج را انجام دهند.

هنوز کسی نمی‌داند که ChatGPT و پسرعمو‌های هوش مصنوعی آن چگونه جهان را متحول خواهند کرد و یکی از دلایل آن این است که هیچ کس واقعا نمی‌داند در درون آن‌ها چه می‌گذرد.

برخی از توانایی‌های این سیستم‌ها بسیار فراتر از آن چیزی است که برای انجام آن آموزش دیده‌اند و حتی مخترعان آن‌ها در مورد دلیل آن متحیر هستند.

تعداد فزاینده‌ای از آزمایش‌ها نشان می‌دهند که این سیستم‌های هوش مصنوعی، مدل‌های داخلی دنیای واقعی را توسعه می‌دهند؛ درست مانند مغز ما، اگرچه تکنیک ماشین‌ها متفاوت است.

الی پاولیک از دانشگاه براون در این باره گفت: هر کاری که می‌خواهیم با آن‌ها انجام دهیم تا آن‌ها را بهتر یا ایمن‌تر کنیم یا هر چیزی شبیه به آن، به نظر من کار مضحکی است که از خودمان بخواهیم انجام دهیم، اگر نمی‌دانیم چگونه کار می‌کند. 

در یک سطح، او و همکارانش GPT (مخفف ترانسفورماتور پیش‌آموزشی مولد) و دیگر مدل‌های زبان بزرگ یا LLM را به خوبی درک می‌کنند. این مدل‌ها بر یک سیستم یادگیری ماشینی به نام شبکه عصبی متکی هستند. این شبکه‌ها ساختاری دارند که به‌طور آزاد از نورون‌های متصل مغز انسان مدل‌سازی شده‌اند. کد این برنامه‌ها نسبتا ساده است و فقط چند صفحه را پر می‌کند. یک الگوریتم تصحیح خودکار راه‌اندازی می‌شود که محتمل‌ترین کلمه را برای تکمیل متن بر اساس تجزیه و تحلیل آماری پر زحمت صد‌ها گیگابایت متن اینترنتی انتخاب می‌کند. آموزش اضافی تضمین می‌کند که سیستم نتایج خود را در قالب گفت و گو ارائه می‌دهد. از این نظر تنها کاری که انجام می‌دهد این است که آموخته‌هایش را بازگرداند.

به قول امیلی بندر، زبان‌شناس دانشگاه واشنگتن، این یک «طوطی تصادفی» است. اما LLM‌ها همچنین موفق شده‌اند آزمون وکالت را به پایان برسانند، بوزون هیگز را در پنتا متر ایامبیک توضیح دهند و تلاش کنند تا ازدواج کاربران خود را به هم بزنند. تعداد کمی انتظار داشتند که یک الگوریتم تصحیح خودکار نسبتا ساده بتواند چنین توانایی‌های گسترده‌ای را به دست آورد.

این که GPT و سایر سیستم‌های هوش مصنوعی وظایفی را انجام می‌دهند که برای انجام آن‌ها آموزش ندیده و به آن‌ها «توانایی‌های اضطراری» می‌دهند، حتی محققانی را که عموما در مورد تبلیغات LLM بدبین بودند، شگفت‌زده کرده است.

ملانی میچل، محقق هوش مصنوعی در موسسه سانتافه گفت: نمی‌دانم آن‌ها چگونه این کار را انجام می‌دهند یا می‌توانند آن را به‌طور کلی‌تر به روشی که انسان‌ها انجام می‌دهند، انجام دهند یا نه، اما دیدگاه‌های من را به چالش کشیده‌اند.

در کنفرانسی در دانشگاه نیویورک در ماه مارس، فیلسوف رافائل میلییر از دانشگاه کلمبیا نمونه شگفت‌انگیز دیگری از کار‌هایی که LLM می‌تواند انجام دهد، ارائه کرد. این مدل‌ها قبلا توانایی نوشتن کد‌های کامپیوتری را نشان داده بودند که چشمگیر است، اما خیلی تعجب آور نیست؛ زیرا کد‌های زیادی در اینترنت برای تقلید وجود دارند. میلییر یک قدم فراتر رفت و نشان داد که GPT می‌تواند کد را نیز اجرا کند. 

اگرچه یک LLM روی یک کامپیوتر اجرا می‌شود، اما خودش یک کامپیوتر نیست. فاقد عناصر محاسباتی ضروری مانند حافظه کاری است. در یک تصدیق ضمنی که GPT به تنهایی نباید قادر به اجرای کد باشد، مخترع آن، شرکت فناوری OpenAI، از آن زمان یک افزونه تخصصی، ابزاری که ChatGPT می‌تواند هنگام پاسخ دادن به یک درخواست استفاده کند، معرفی کرده است که به آن اجازه می‌دهد این کار را انجام دهد، اما این افزونه در نمایش میلییر استفاده نشد در عوض او این فرضیه را مطرح می‌کند که ماشین یک حافظه را با استفاده از مکانیسم‌هایش برای تفسیر کلمات بر اساس بافت آن‌ها بداهه ساخته است، وضعیتی شبیه به این که چگونه طبیعت ظرفیت‌های موجود را برای عملکرد‌های جدید تغییر می‌دهد.

این توانایی بداهه نشان می‌دهد که LLM‌ها یک پیچیدگی داخلی ایجاد می‌کنند که فراتر از یک تحلیل آماری کم عمق است. محققان دریافته‌اند که به نظر می‌رسد این سیستم‌ها به درک واقعی از آنچه آموخته‌اند، دست یابند. در مطالعه‌ای که هفته گذشته در کنفرانس بین‌المللی نمایش‌های یادگیری (ICLR) ارائه شد.

کنت لی، دانشجوی دکترا در دانشگاه هاروارد و همکاران محقق هوش مصنوعی او آسپن کی هاپکینز از موسسه فناوری ماساچوست، دیوید باو از دانشگاه نورث ایسترن و فرناندا ویگاس هانسپتر فایستر و مارتین واتنبرگ از هاروارد، کپی کوچکتر خود را از شبکه عصبی GPT ایجاد کردند تا بتوانند عملکرد درونی آن را مطالعه کنند.

آن‌ها آن را روی میلیون‌ها مسابقه بازی رومیزی اتللو با تغذیه در توالی‌های طولانی از حرکات به صورت متن آموزش دادند. مدل آن‌ها به یک بازیکن تقریبا کامل تبدیل شد.

برای مطالعه نحوه رمزگذاری اطلاعات توسط شبکه عصبی، آن‌ها تکنیکی را اتخاذ کردند که محققانی از دانشگاه مونترال نیز در سال ۲۰۱۶ ابداع کردند. آن‌ها یک شبکه کاوشگر مینیاتوری برای تجزیه و تحلیل لایه به لایه شبکه اصلی ایجاد کردند. لی این رویکرد را با روش‌های علوم اعصاب مقایسه می‌کند.

او گفت: این شبیه زمانی است که ما یک کاوشگر الکتریکی را در مغز انسان قرار می‌دهیم. در مورد هوش مصنوعی، کاوشگر نشان داد که «فعالیت عصبی» آن با نمایش تخته بازی اتللو مطابقت دارد، البته به شکلی پیچیده.

برای تایید این موضوع، محققان کاوشگر را به صورت معکوس اجرا کردند تا اطلاعات را در شبکه جاسازی کنند. به عنوان مثال، یکی از نشانگر‌های سیاه بازی را به قطعه سفید تبدیل کردند.

لی گفت: در اصل، ما به مغز این مدل‌های زبانی نفوذ می‌کنیم. 

شبکه حرکات خود را بر این اساس تنظیم کرد. محققان به این نتیجه رسیدند که اتللو را تقریبا مانند یک انسان بازی می‌کند. با نگه داشتن صفحه بازی در «چشم ذهن» آن و استفاده از این مدل برای ارزیابی حرکات.

به گفته محققان سیستم این مهارت را می‌آموزد؛ زیرا این مختصرترین توصیف از داده‌های آموزشی آن است. اگر تعداد زیادی اسکریپت بازی به شما داده می‌شود، تلاش برای کشف قانون پشت آن بهترین راه برای فشرده سازی است.

محققان از این که LLM‌ها چقدر می‌توانند از متن یاد بگیرند، شگفت زده می‌شوند. به عنوان مثال یکی از محققان دریافت این شبکه‌ها توضیحات رنگی را از متن اینترنت جذب می‌کنند و نمایش‌های داخلی رنگ را می‌سازند. وقتی کلمه «قرمز» را می‌بینند، آن را نه فقط به عنوان یک نماد انتزاعی، بلکه به عنوان مفهومی که رابطه خاصی با رنگ‌های قهوه‌ای، زرشکی، زنگ و ... دارد، پردازش می‌کنند. نشان دادن این امر تا حدودی مشکل بود. به جای قرار دادن یک کاوشگر در یک شبکه، محققان پاسخ آن را به یک سری از پیام‌های متنی بررسی کردند.

برای بررسی این که آیا صرفا بازتاب روابط رنگی از مراجع آنلاین است یا خیر، آن‌ها سعی کردند سیستم را با گفتن این که قرمز در واقع سبز است، هدایت نادرست کنند. مانند آزمایش فکری فلسفی قدیمی که در آن قرمز یک نفر سبز شخص دیگر است. به جای پاسخ نادرست طوطی وار، ارزیابی‌های رنگی سیستم به منظور حفظ روابط صحیح تغییر کرد.

علاوه بر استخراج معنای اساسی زبان، LLM‌ها قادر به یادگیری هستند. در زمینه هوش مصنوعی، اصطلاح «یادگیری» معمولا برای فرآیند محاسباتی فشرده که در آن توسعه دهندگان شبکه عصبی را در معرض گیگابایت داده قرار می‌دهند و اتصالات داخلی آن را تغییر می‌دهند، رزرو می‌شود. تا زمانی که یک پرس و جو را در ChatGPT تایپ می‌کنید، شبکه باید ثابت شود. بر خلاف انسان، نباید به یادگیری ادامه دهد، بنابراین تعجب آور بود که LLM‌ها در واقع از درخواست‌های کاربران خود می‌آموزند؛ توانایی معروف به «یادگیری درون زمینه». 

نوعی از یادگیری درون متنی از طریق تحریک «زنجیره فکر» اتفاق می‌افتد، به این معنی که از شبکه بخواهیم هر مرحله از استدلال خود را توضیح دهد. تاکتیکی که باعث می‌شود در مسائل منطقی یا حسابی که نیاز به چند مرحله دارند بهتر عمل کند. 

در سال ۲۰۲۲، تیمی در تحقیقات گوگل و موسسه فناوری فدرال سوئیس در زوریخ نشان دادند که یادگیری درون زمینه‌ای از همان محاسبات اولیه پیروی می‌کند. روشی به عنوان یادگیری استاندارد که به عنوان نزول گرادیان شناخته می‌شود. این روش برنامه ریزی نشده بود. سیستم بدون کمک آن را کشف کرد.

Blaise Agüera y Arcas، نایب رئیس در Google Research گفت: این باید یک مهارت آموخته شده باشد.

در واقع او فکر می‌کند که LLM‌ها ممکن است توانایی‌های نهفته دیگری داشته باشند که هنوز هیچکس آن را کشف نکرده است. 

اگرچه LLM‌ها نقاط کور زیادی دارند تا به عنوان هوش عمومی مصنوعی یا AGI (اصطلاح ماشینی که به استعداد مغز حیوانات دست می‌یابد) واجد شرایط نباشند، این توانایی‌های نوظهور به برخی از محققان نشان می‌دهد که شرکت‌های فناوری بیش از آنچه که حتی خوش بین‌ها حدس می‌زدند، به AGI نزدیک هستند.

در عین حال، محققان نگرانند که پنجره توانایی آن‌ها برای مطالعه این سیستم‌ها بسته شود. OpenAI جزئیات نحوه طراحی و آموزش GPT-۴ را فاش نکرده است، تا حدی به این دلیل که در رقابت با گوگل و سایر شرکت‌ها قفل شده است.

منبع: scientificamerican

تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.