سایر زبان ها

صفحه نخست

سیاسی

بین‌الملل

ورزشی

اجتماعی

اقتصادی

فرهنگی هنری

علمی پزشکی

فیلم و صوت

عکس

استان ها

شهروند خبرنگار

وب‌گردی

سایر بخش‌ها

تاثیری که هوش مصنوعی بر فرهنگ و تاریخ می‌گذارد

با توجه به پیشرفت سریع هوش مصنوعی باید انتظار ایجاد تغییرات در زمینه‌هایی مختلف را داشت.

از جمله هدایای غم انگیزی که روشنگری به ارمغان آورد این بود که انسان‌ها ممکن است روزی منقرض شوند. انقلاب نجومی قرن هفدهم نشان داد که منظومه شمسی هم بر اساس عالی‌ترین اصول عقل عمل می‌کند و هم شامل دنباله دار‌هایی است که ممکن است به طور قابل تصوری به زمین برخورد کنند. سوابق زمین شناسی همان طور که توسط "کنت دو بوفون" ستاره شناس فرانسوی قرن هجدهمی تفسیر شد انقراض‌های عظیمی را نشان داد که در آن گونه‌هایی برای همیشه ناپدید شدند. این تفسیر شرایط را برای چارلز داروین مهیا ساخت تا این گونه انقراض‌ها را به عنوان موتور تکامل و در نتیجه نیرویی که انسان‌ها را شکل داده و به طور ضمنی سرنوشت احتمالی آن‌ها را تشخیص دهد. علم نوپای ترمودینامیک یک بعد کیهانی به قطعیت یک پایان اضافه کرد. خورشید، زمین و کل قضیه در نهایت به یک "مرگ گرمایی" بی جان می‌رسند. قرن بیستم این ایده را اضافه کرد که انقراض ممکن است نه به طور طبیعی بلکه از طریق تصنعی رخ دهد. انگیزه این امر کشف شد و بعدا بهره برداری از قدرت محبوس شده در هسته اتم بود. انرژی هسته‌ای که توسط برخی از کاشفان آن به عنوان راهی برای به تعویق انداختن نامحدود مرگ ناشی از گرما شناخته می‌شود به زودی به یک خطر بسیار نزدیک‌تر تبدیل شد و تهدید ملموس فاجعه قریب الوقوع که آن را به وجود آورد بر سایر فناوری‌ها تاثیر گذاشت.

 با این وجود، هیچ فناوری‌ به اندازه رایانه آلوده نبود. ممکن است این گناه به واسطه ارتباط بوده باشد: رایانه نقش حیاتی در توسعه زرادخانه هسته‌ای ایفا کرده است. اعتقاد روشنگری به عقلانیت به عنوان بالاترین دستاورد بشر و نظریه تکامل داروین امکان پیشرفت تکاملی به قیمت از دست دادن نوع بشر را فراهم کرد.

هوش مصنوعی در اندیشه گروه کوچک، اما جذابی از دانشگاهیان که در چند دهه گذشته خود را وقف در نظر گرفتن خطر وجودی کرده اند ظاهر شده است: جهانی که دارای موجوداتی باشد که بهتر از انسان‌ها و نهاد‌های شان فکر می‌کنند و سریع‌تر عمل کرده و منافعی همسو با نوع بشر ندارد مکان خطرناکی خواهد بود. در نتیجه آن بود که این ایده مطرح شد که احتمال غیر ممکن بودن به صفر رساندن توسعه هوش مصنوعی فوق بشری منجر به انقراض انسان خواهد شد. رونق قابل توجه در قابلیت‌های مدل‌های زبان بزرگ (LLM) مدل‌های بنیادی و اشکال مرتبط هوش مصنوعی مولد باعث طرح جدی‌تر بحث درباره خطر وجودی در محافل عمومی شده است.

پیشرفت در عرصه هوش مصنوعی بسیار سریع است و خطرات واضحی را به همراه دارد که نیازمند رسیدگی می‌باشد. با این وجود، در زمینه خاص جی پی تی -۴ و امثال آن صحبت از خطرات وجودی تقریبا پوچ به نظر می‌رسد چرا که نثر، شعر، تصاویر، صدا و ویدئو تولید کرده و براساس الگو‌ها پیش بینی می‌کنند. به راحتی می‌توان فهمید که آن قابلیت‌ها ظرفیت عظیمی برای شیطنت به همراه دارند. با این وجود، به سختی می‌توان تصور کرد که آنان به قدرت "کنترل تمدن" مان دست یابند یا آن گونه که منتقدان هشدار داده اند جایگزین ما شوند.

با این وجود، نمی‌توان مقیاس تغییراتی که هوش مصنوعی ممکن است به همراه داشته باشد را نادیده گرفت. زندگی بسیار بیش از اجتناب از انقراض است. یک فناوری برای اینکه جهان را متحول کند نیازی به پایان جهان ندارد. گذار به دنیایی مملو از برنامه‌های رایانه‌ای که قادر به سطوح انسانی مکالمه و درک زبان و قدرت فوق انسانی جذب داده‌ها و تشخیص الگو هستند تازه آغاز شده است. ظهور شبه شناخت فراگیر در امتداد این خطوط می‌تواند نقطه عطفی در تاریخ باشد حتی اگر سرعت فعلی پیشرفت هوش مصنوعی کاهش یابد (که ممکن است) یا پیشرفت‌های اساسی آن متوقف شود (که بعید به نظر می‌رسد). در نتیجه می‌توان انتظار داشت که هوش مصنوعی نه تنها بر چگونگی کسب درآمد و سازماندهی زندگی مردم بلکه بر روی تفکر آنان در مورد انسانیت نیز تاثیر خواهد داشت.

برای درک آن چه ممکن است در راه باشد سه مورد مشابه را در نظر بگیرید: مرورگر، چاپخانه و تمرین روانکاوی. یکی رایانه‌ها و اقتصاد را تغییر داد یکی نحوه دسترسی و ارتباط مردم با دانش را تغییر داد و دیگری نحوه درک مردم از خود را تغییر داد. مرورگر وب که در اوایل دهه ۱۹۹۰ میلادی به عنوان راهی برای اشتراک گذاری فایل‌ها در شبکه‌ها معرفی شد روش‌های استفاده از رایانه ها، روش کار صنعت رایانه و نحوه سازماندهی اطلاعات را تغییر داد. مرورگر همراه با قابلیت پیوند دادن رایانه به شبکه‌ها به پنجره‌ای تبدیل شد که از طریق آن ابتدا فایل‌ها و سپس برنامه‌ها در هر جایی که ممکن است قرار بگیرند قابل دسترسی بودند. رابطی که از طریق آن کاربر با یک برنامه تعامل داشت از خود برنامه جدا شد. قدرت مرورگر بلافاصله آشکار شد. دعوا‌ها بر سر این که تا چه اندازه کاربران را می‌توان به سمت یک مرورگر خاص سوق داد تبدیل به یک موضوع تبلیغاتی تجاری شد. تقریبا هر کسب و کاری با آدرس اینترنتی می‌توانست بودجه دریافت کند صرفنظر از این که چه چیز پوچی وعده داده بود. هنگامی که رونق در اوایل قرن به رکود تبدیل شد یک واکنش قابل پیش بینی وجود داشت. با این وجود، جدایی اساسی رابط و برنامه ادامه یافت. آمازون، متا (با نام مستعار فیس بوک) و آلفابت (با نام گوگل) با تبدیل کردن مرورگر به کانالی برای کالاها، اطلاعات و ارتباطات انسانی به موفقیت‌های عجیبی دست یافتند و نقش آن‌ها به عنوان یک پلتفرم اساسی شد.

ماه‌ها پس از انتشار چت جی پی تی یک رابط پشتیبانی که اکنون توسط جی پی تی -۴ پشتیبانی می‌شود شاهد انفجاری از جستجو بوده ایم. برای کاربران برنامه‌های مبتنی بر مدل‌های زبان بزرگ (LLM) و نرم‌افزار‌های مشابه می‌توانند برای استفاده به طرز مضحکی آسان باشند. یک دستور تایپ کنید و نتیجه را ببینید. برای توسعه دهندگان این کار خیلی سخت‌تر نیست. شما فقط می‌توانید لپ تاپ خود را باز کنید و چند خط کد بنویسید که با مدل تعامل دارد و مدل‌های زبان بزرگ به طور فزاینده‌ای قادر به کمک به این کدنویسی هستند. مدل‌های زبان بزرگ نه تنها بر روی مجموعه‌ای از متن بلکه بر روی تعداد زیادی کد آموزش دیده اند و حاوی بلوک‌های سازنده بسیاری از برنامه‌های ممکن هستند؛ که به آن‌ها اجازه می‌دهد به عنوان "کمک خلبان" برای کدگذاران عمل کنند.

برنامه نویسان در GitHub یک سایت کد منبع باز اکنون از یک کمک خلبان مبتنی بر جی پی تی -۴ برای تولید تقریبا نیمی از کد خود استفاده می‌کند. "کوین اسکات" مدیر ارشد فناوری مایکروسافت، توضیح می‌دهد که هیچ دلیلی وجود ندارد که این توانایی در نهایت به مدل‌های زبان بزرگ اجازه ندهد تا کد‌ها را به سرعت کنار یکدیگر قرار دهند. ظرفیت ترجمه از یک زبان به زبان دیگر در اصل و به طور فزاینده‌ای در عمل توانایی ترجمه از زبانی به کد را شامل می‌شود. یک دستور نوشته شده به زبان انگلیسی در اصل می‌تواند باعث تولید برنامه‌ای شود که الزامات آن را برآورده می‌سازد. در جایی که مرورگر‌ها رابط کاربری را از برنامه نرم افزاری جدا کردند مدل‌های زبان بزرگ احتمالا هر دو دسته را حذف می‌کنند. این امر می‌تواند تغییری اساسی را در نحوه استفاده افراد از رایانه و در مدل‌های تجاری که در آن این کار را انجام می‌دهند نشان دهد.

به نظر می‌رسد کد به عنوان یک سرویس مانند یک بازی در حال تغییر است. در حالی که مرورگر‌ها عمدتا پنجره‌ای در مورد محتوا و کد تولید شده توسط انسان فراهم می‌کردند مدل‌های زبان بزرگ خود محتوای شان را تولید می‌کنند. مدل‌های زبان بزرگ هنگام انجام این کار به روش‌های مختلف "توهم" نیز روی می‌آورند. برخی مانند ترکیب نادرست‌های ساختگی در طرح‌های بیوگرافی افراد زنده هم قابل قبول و هم مضر هستند. توهمات می‌تواند با تناقضات در مجموعه‌های آموزشی و مدل‌های زبان بزرگ برای تولید انسجام به جای حقیقت ایجاد شود. آن‌ها هیچ احساسی از دنیایی فراتر از متون و تصاویری که مبتنی بر آن آموزش دیده اند ندارند. دیپ فیک یا جعل‌های عمیق و کلیپ‌های ساختگی از سیاستمداران صرفا آغاز راه هستند.

انتظار داشته باشید که از این مدل‌ها برای تنظیم شبکه‌های تاثیرگذاری مخرب در صورت تقاضا با وب سایت‌های جعلی، ربات‌های توئیتر، صفحات فیس بوک، فید‌های تیک تاک و موارد دیگر استفاده شود. رصدخانه اینترنتی استنفورد هشدار داده که این مدل‌ها "به زودی بی نهایت خواهند بود".

این تهدید برای امکان بحث عمومی ممکن است وجودی نباشد، اما عمیقا نگران کننده است. این وضعیت کتاب "کتابخانه بابل" را به یاد می‌آورد داستانی کوتاه از خورخه لوئیس بورخس که درباره کتابخانه‌ای است که شامل تمام کتاب‌هایی می‌باشد که تا به حال نوشته شده اند، اما هم چنین تمام کتاب‌هایی که هرگز نوشته نشده اند، کتاب‌هایی که اشتباه هستند و کتاب‌هایی که مزخرف هستند را نیز شامل می‌شود. در آن داستان هر چیزی که مهم است وجود دارد، اما به دلیل هر چیز دیگری نمی‌توان آن را پیدا کرد و در نهایت کتابداران به جنون و ناامیدی کشیده می‌شوند. این فانتزی یک بستر تکنولوژیکی آشکار دارد. این توانایی ماشین چاپ را برای ترکیب مجدد مجموعه‌ای ثابت از نماد‌ها به تعداد نامحدودی از راه‌ها تا حد نهایی خود می‌برد و این روش دیگری برای تفکر در مورد مدل زبان بزرگ فراهم می‌کند.

میزان غیرقابل تصور بودن دنیای مدرن بدون چاپ باعث می‌شود که تاریخچه آن برای گمانه زنی در مورد مدل‌های زبان بزرگ در بهترین حالت جزئی و در بدترین حالت گمراه کننده باشد.

حروف متحرک "یوهانس گوتنبرگ" روابط بین انسان‌ها را تغییر دادند و توزیع انبوه نظرات، سیستماتیک کردن بوروکراسی، انباشت دانش را امکان پذیر کرد و مفهوم مالکیت معنوی را به وجود آورد. سپس تولید انبوه کتاب اجازه شخصی شدن را می‌داد. این امکان وجود داشت که در مورد چیزی بیش‌تر یا کم‌تر از خود و شخصی که خواندن کتاب‌های دیگر شما را امکان پذیرساخته بود کتابی بنویسید. مدل‌های زبان بزرگ به عنوان راهی برای ارائه دانش وعده می‌دهد که جنبه‌های عملی و شخصی کتاب‌ها را فراتر برده و در برخی موارد آن‌ها را به طور کلی لغو کند. یکی از کاربرد‌های آشکار این فناوری تبدیل بدنه دانش به موضوعی برای چت بات‌ها است. به جای خواندن مجموعه‌ای از متن، از یک برنامه آموزش دیده سوال می‌کنید و بر اساس آن چه متن می‌گوید پاسخ می‌گیرید. اکنون به نظر می‌رسد که همه به دنبال چنین مدل‌های دقیقی به عنوان راه‌هایی برای دسترسی به دانش هستند. بلومبرگ یک شرکت رسانه‌ای روی Bloomberg GPT به عنوان مدلی برای اطلاعات مالی کار می‌کند. نسخه‌های اولیه یک قرآن جی پی تی Quran GPT و یک انجیل جی پی تی Bible GPT وجود دارند. در همین حال، چندین استارت آپ خدماتی را ارائه می‌دهند که تمام اسناد موجود در هارد دیسک کاربر یا در قسمت ابری آنان را به منبعی برای مشاوره مکالمه تبدیل می‌کند. بسیاری از کاربران اولیه در حال حاضر از چت بات‌ها به عنوان تابلو‌های صدا استفاده می‌کنند. این مانند یک همکار آگاه است که همیشه می‌توانید با او صحبت کنید.

تا آنجا که به زندگی روزمره مربوط می‌شود نوع بشر نسبت به کوپرنیک، داروین و فروید بسیار مقاوم است. مردم هنوز به خدایان و روح‌ها اعتقاد دارند و نگرانی چندانی برای مقابله با علم ندارند. آنان می‌توانند به راحتی با دنیای شبه شناختی سازگار شوند حداقل تا آنجا که به شک و تردید‌های فلسفی مربوط می‌شود. بسیاری از افراد ممکن است به طور همزمان تشخیص دهند که چیزی زنده نیست و با آن طوری رفتار کنند که گویی زنده است.

ناخودآگاه احتمالا مدل خوبی برای هر چیزی نیست که به مدل‌های زبان بزرگ حس معناداری یا تقریبی از عاملیت ارائه می‌دهد، اما این حس که امکان دارد چیزی در زیر سطح هوش مصنوعی وجود داشته باشد که نیاز به درک دارد ممکن است قدرتمند باشد.

اگر برخی از چت بات‌ها تا حدی به صدای درونی کاربر تبدیل شوند در صورتی که دیگران بخواهند با آن صحبت کنند این صدا پس از مرگ باقی خواهد ماند. این که برخی افراد پس از مرگ چت بات‌های خود را پشت سر می‌گذارند کاملا قطعی به نظر می‌رسد. اگرچه محققان هوش مصنوعی می‌توانند سازوکار مخلوق خود را توضیح دهند، اما نمی‌توانند دائما بگویند که واقعا درون آن چه رخ می‌دهد. کار درونی دو نگرانی مرتبط، اما متقابل را ایجاد می‌کند: این که هوش مصنوعی نوعی کار داخلی دارد که دانشمندان هنوز نمی‌توانند آن را درک کنند یا این که بدون هیچ گونه درک درونی می‌توان در دنیای اجتماعی به عنوان انسان گذر کرد.

"امیلی بِندر" استاد دانشگاه واشنگتن در سیاتل می‌گوید:"این مدل‌ها صرفا نمایشی از توزیع کلمات در متون هستند که می‌توان از آن‌ها برای تولید کلمات بیش‌تر استفاده کرد". او استدلال می‌کند که مدل‌ها درک واقعیت ندارند. بدون هیچ تجربه‌ای از زندگی واقعی یا ارتباط انسانی آن‌ها چیزی بیش از توانایی تکرار طوطی وار چیز‌هایی که در تمرین شنیده اند ارائه نمی‌دهند توانایی‌ای که حجم عظیمی از خرد کردن اعداد را اغلب مناسب و گاهی شگفت انگیز می‌سازد، اما چیزی شبیه به فکر نیست. زبان شناسان معمولا درباره حوزه هوش مصنوعی چنین دیدگاهی دارند.

در این میان پرسش‌هایی کلیدی مطرح خواهند شد: سازندگان هوش مصنوعی تا چه اندازه باید در قبال آسیب‌های ایجاد شده توسط آن‌ها مسئول شناخته شوند؟ و آیا امیال انسانی نیز ممکن است نیاز به بازرسی داشته باشند؟

چرا بسیاری از مردم مشتاق نوعی صمیمیت هستند که یک مدل زبان بزرگ ممکن است فراهم کند؟ چرا به نظر می‌رسد بسیاری از انسان‌های تاثیرگذار فکر می‌کنند به دلیل آن که تکامل نشان می‌دهد که گونه‌ها می‌توانند منقرض شوند احتمالاً انسان‌ها این کار را با دست خود یا از طریق جانشین شان انجام می‌دهند؟ و این که مقصد تبدیل عقلانیت فوق بشری به چیزی که نه تنها اقتصاد را تحریک می‌کند بلکه تاریخ را نیز به سمت بهتر شدن تغییر می‌دهد کجاست؟

منبع: اکونومیست

برچسب ها: هوش مصنوعی ، فرهنگ
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.