به گزارش
گروه وبگردی باشگاه خبرنگاران جوان، وقتی دو ساله اید، مادرتان بهتر از خودتان شما را میشناسد. بزرگتر که میشوید اندک اندک چیزهایی را در ذهنتان درک میکنید که حتی مادرتان هم از آنها خبر ندارد. اما به گفته یوآل نوا حراری بزرگتر که میشوید، «رقیب دیگری پا به عرصه میگذارد که در شناختن شما هم از مادرتان و هم از خودتان هم سبقت میگیرد.» آمازون به زودی به جایی میرسد که قبل از سوختن لامپهای خانه تان خواهد فهمید چه وقت باید آنها را عوض کنید. یوتیوپ میداند مدتها قبل از آنکه تمایلتان را از دست بدهید، چگونه شما را پای نمایشگرتان بنشاند؛ و آگهی سازان در آینده احتمالا قبل از آنکه حتی برای خودتان روشن شود، خواهند فهمید که ترجیحات جنسی شما چه هستند (و قطعا قبل از آنکه به مادرتان بگویید از آن با خبر خواهند شد.)
اخیرا من با حراری نویسنده سه کتاب پر فروش و تریستان هریس گفتگویی داشتم. هریس مرکز فناوری انسانی را اداره میکند و کسی است که نقش عمدهای در امکان پذیر کردن مفهوم «وقت به خوبی گذرانده شده» ایفا کرده، جملهای که شاید بحث برانگیزترین جمله سال ۲۰۱۸ در سیلیکون، ولی بوده است. آنها دو تن از باهوشترین افراد در جهان فناوری هستند و هر کدام با فصاحت و تسلط کامل در این باره صحبت میکنند که چگونه انسانها میتوانند خودشان را در برابر هک شدن مصونتر کنند. همانطور که حراری گفته «در حال حاضر ما نه تنها با یک بحران تکنولوژیک بلکه با بحرانی فلسفی مواجه ایم.» در ادامه گفتگوی مرا با این دو میخوانید.
نیکولاس تامپسون: تریستان، کمی در این باره بگو که چکار میکنی؟ بعد هم یوآل تو از خودت بگو.
تریستان هریس: من مدیر «مرکزفناوری انسانی» هستم. تمرکز اصلی ما در این مرکز بر این است که چگونه میتوان فناوری را از نو ساماندهی و جهت دهی کرد که با یک مدل شفاف از ماهیت انسان سازگاری داشته باشد. پیش از این هم یکی از اخلاقگرایان طراحی در گوگل بودم که درباره اخلاقیات مرتبط با مقوله ترغیب و اقناع انسان مطالعه میکردم.
یوآل نوا حراری: من مورخ هستم و تلاش دارم درک کنم که انسان از کجا میآید و رو به کجا دارد.
تامپسون: بیایید بحث را با این شروع کنیم که شما دو نفر چگونه با هم آشنا شدید، چون میدانم که این موضوع به مدتی قبل برمی گردد. شما دو نفر کی همدیگر را دیدید؟
حراری: خیلی جالب است، در یک سفر علمی به جنوبگان ما هم از طرف دولت شیلی به «کنگره آینده» دعوت شده بودیم تا درباره آینده بشریت سخنرانی کنیم و یکی از برنامههای کنگره سفری اکتشافی به پایگاه شیلی در جنوبگان برای دیدن گرمایش جهانی با چشمهای خودمان بود. هنوز هوا خیلی سرد بود و افراد جالب و زیاد دیگری هم در این هیئت حضور داشتند.
هریس: کلی فیلسوف و برنده جایزه نوبل. فکر میکنم ما به طور خاص با مایکل سندل مرتبط شدیم که یک فیلسوف واقعا حیرت انگیز در حوزه فلسفه اخلاقی است.
تامپسون: خیلی دوست داشتم شاهد این ماجرا میبودم. شما درباره مطالب مختلفی مینویسید، درباره چیزهای متفاوتی صحبت میکنید، ولی شباهتهای خیلی زیادی هم در دیدگاههای شما وجود دارد؛ و یکی از موضوعات کلیدی این تصور است که ذهنهای ما دیگر به همان شکلی که زمانی فکر میکردیم کار نمیکنند؛ که ما آنطور که شاید تا حالا معتقد بودیم، دیگر اختیار چندانی بر ذهن هایمان نداریم. تریستان، چرا تو صحبت را شروع نمیکنی و بعد نوا هم وارد بحث شود تا ببینیم به کجا میرسیم.
هریس: بسیار خوب. من عملا خیلی چیزها از یکی از گفتگوهای اولیه یوآل آموخته ام، مثل وقتی که درباره دمکراسی صحبت میکند و میگوید «ما در کجا باید اختیار را به یک جامعه بسپاریم؟» و در کجا باید آن را در دیدگاهها و احساسات مردم لحاظ کنیم. ولی پیشینه من به طور اجمالی این است: من عملا ۱۰ سال گذشته را به مطالعه مقوله ترغیب و اقناع گذرانده ام و زمانی این کار را شروع کردم که در بچگی به شعبده بازی روی آوردم، جایی که انسان یاد میگیرد مسائلی وجود دارد که روی ذهن تمام انسانها کار میکند. اهمیت ندارد که آنها دکترا دارند، فیزیکدان هستهای هستند یا چه سن و سالی دارند. اینطور نیست که اگر شما ژاپنی صحبت کنید من نمیتوانم این حقه را روی شما به کار ببندم و این حقه جواب نمیدهد. این حقه روی همه جواب میدهد. پس در این کار به شکلی این قاعده وجود دارد که از ذهن تمام انسانها میتوان بهره برداری کرد؛ و بعد در «آزمایشگاه فناوری اقناعی» در استنفورد کار کردم که به دانشجویان مهندسی یاد میدهند چگونه اصول اقناع گری را در فناوری به کار ببندند. آیا فناوری میتواند احساسات، نگرش ها، باورها و رفتارهای انسانها را هک کند تا مردم را به تداوم استفاده از فلان محصولات ترغیب کند؟ و به نظر من چیزی که در هر دوی ما مشترک است این است که ذهن انسان یک محدوده کاملا بسته محصور و امن نیست که ریشه در اختیاری داشته باشد که ما فکر میکنیم داریم و اگر ما بخواهیم به این روش با آن رفتار کنیم، باید درک کنیم که ابتدا چه چیزی نیاز به محافظت شدن دارد.
حراری: من فکر میکنم که ما امروزه نه تنها با یک بحران تکنولوژیک بلکه با بحرانی فلسفی مواجه ایم. چون ما جامعه مان را که قطعا لیبرال دمکراسی با انتخاباتها و بازار آزاد و از این قبیل است، بر اساس ایدههایی متعلق به قرن هجدهم ساخته ایم که به هیچ وجه نه با یافتههای علمی قرن بیست و یکم و بالاتر از همه با فناوری که اکنون در اختیار داریم سازگار نیستند. جامعه ما بر اساس این ایدهها بنا شده که رای دهنده بهتر از همه میداند، که همیشه حق با مشتری است، که اختیار نهایی - همانطور که تریستان گفت: - با احساسات انسانها و این فرض است که احساسات و انتخابهای انسانها همان حوزههای مقدسی هستند که نمیتوان آنها را هک کرد، که نمیتوان در آنها دخل و تصرفی کرد. در نهایت انتخابهای من و علایق من بازتاب دهنده خواست آزادانه من است و هیچ کس نمیتواند به آن دسترسی پیدا کند یا آن را لمس کند. و، اما این دیگر به هیچ وجه مصداق ندارد. در قرنهای نوزدهم و بیستم ما هزینه چندانی بابت اعتقاد داشتن به این افسانه نمیپرداختیم، چون عملا هیچ کس فناوریای را در اختیار نداشت که بتواند چنین دخل و تصرفی را کند. امروزه مردم - برخی از مردم- شرکتها و دولتها برای هک کردن انسانها با فناوری بازی میکنند. شاید مهمترین واقعیت درباره زندگی در قرن بیست و یکم این باشد که ما هم اکنون به حیواناتی قابل هک کردن تبدیل شده ایم.
هک کردن انسان
تامپسون: توضیح دهید که هک کردن یک انسان به چه معناست و چرا کاری که امروزه انجام میشود با چیزی که ۱۰۰ سال پیش میتوانست انجام شود فرق دارد.
حراری: برای هک کردن یک انسان باید درک کرد که چه اتفاقی در درون شما در سطح بدن، در سطح مغز و در سطح ذهن رخ میدهد. در این صورت میتوانید پیش بینی کنید که انسانها چکار خواهند کرد. شما میتوانید بفهمید که آنها چه احساسی خواهند داشت و البته زمانی که به این درک و پیش بینی رسیدید، معمولا میتوانید در این احساسات دخل و تصرف کنید، آنها را کنترل و حتی جایگزین کنید؛ و البته این کار را نمیتوان به طور کامل انجام داد و این کار یک قرن پیش هم تا حدی امکان پذیر بود. اما تفاوت در سطح این دستکاری بسیار چشمگیر است. میتوانم بگویم که کلید واقعی این است که آیا ممکن است کسی شما را بهتر از خودتان بشناسد یا نه. الگوریتمهایی که تلاش میکنند ما را هک کنند هرگز کامل نخواهند بود. چیزی به نام شناخت دقیق یا پیش بینی تمام چیزها وجود ندارد. نیازی هم نیست که کامل باشید، فقط باید بهتر از میانگین انسانها بهتر باشید.
تامپسون: و آیا ما الان در این نقطه قرار داریم؟ یا آیا باید نگران باشیم که در حال رسیدن به این نقطه هستیم؟
حراری: فکر میکنم تریستان بهتر از من میتواند جواب بدهد که ما هم اکنون کجا هستیم، ولی حدس میزنم که اگر هم تا حالا به این نقطه نرسیده باشیم، با سرعت خیلی خیلی زیادی در حال نزدیک شدن به آن هستیم.
هریس: به نظر من یک مثال خوب از این موضوع یوتیوپ باشد. شما ویدئویی را که دوستتان فرستاده بعد از استراحت وقت ناهار در یوتیوپ باز میکنید. برمی گردید پشت رایانه تان و فکر میکنید خیلی خب، میدانید که چندین دفعه دیگر خیال داشته اید یک ویدئو را تماشا کنید، ولی دیده اید که دو سه تا ویدئو را تماشا کرده اید و از جایی سردرآورده اید که دیده اید به درون آن مکیده شده اید، ولی این بار قرار است واقعا موضوع متفاوت باشد. فقط خیال دارید همین یک ویدئو را تماشا کنم و بعد نمیفهمید چه میشود که چنین اتفاقی نمیافتد. سه ساعت بعد از خلسه بیرون میآیید و میگویید: «لعنتی چه اتفاقی افتاد؟» این اتفاق به این دلیل افتاده که شما متوجه نشده اید یک ابررایانه به سمت مغزتان نشان گرفته است. برای همین وقتی که آن ویدئو را باز میکنید در حال فعال کردن توانایی محاسبه گری میلیاردها دلاری گوگل هستید و آنها بررسی کرده اند که چه چیزی آن دو میلیارد حیوان انسانی را واداشته تا روی یک ویدئوی دیگر کلیک کنند.
گوگل راههای بیشتر دیگری هم میشناسد که برای بازی کردن در برابر ذهن شما، حرکتهای بی نقص خود را انجام دهد. اگر ذهنتان را به شکل یک صفحه شطرنج تصور کنید، با خودتان فکر میکنید که میدانید چطور بی نقصترین حرکت را انجام دهید؛ فقط همین یک ویدئو را تماشا میکنم. ولی شما فقط توانایی این را دارید که چند حرکت آینده را روی این صفحه شطرنج پیش بینی کنید. ولی رایانه ذهنتان را محک میزند و میگوید «نه، نه، نه. من قبل از اینکه این حیوانات انسانی به سراغ یوتیوپ بیایند، میلیاردها بار حالات شبیه سازی شده این شطرنج را انجام داده ام. به زمانی که گری گاسپاروف در برابر دیپ بلو بازنده شد فکر کنید. گری گاسپاروف توانایی پیش بینی حرکتهای زیادی را در ذهنش دارد، ولی از نقطه خاصی به بعد را نمیتواند ببیند. وقتی گری به رایانه دیپ بلو ساخت شرکت آی بی ام باخت، گویی کل بشریت برای همیشه در برابر آن رایانه کیش و مات شد، چرا که او بهترین انسان شطرنج باز بود. پس موضوع فقط این نیست که ما به کلی در حال از دست دادن عاملیت انسانی هستیم. وقتی وارد یوتیوپ میشوید این سایت همواره جوری شما را در بقیه زندگی تان به خود معتاد میکند که هیچگاه نمیتوانید نمایشگرها را کنار بگذارید. اما موضوع فقط منحصر به یوتیوپ نیست، به هر جای اینترنت که وارد شوید، اساسا یک ابررایانه به سمت مغزتان نشانه رفته و با ذهنتان شطرنج بازی میکند و خیال دارد همواره در این بازی برنده شود.
تامپسون: بیایید درباره این استعاره صحبت کنیم، چون شطرنج یک بازی است که یک بازنده و یک برنده دارد. ولی آیا در این میان شطرنج واقعا استعاره درستی است؟
تریستان: خب سئوال این است این بازی که در این میان بازی میشود به راستی چیست؟ مشکل این است که یوتیوپ عملا اهمیتی نمیدهد که شما چه میخواهید، تنها چیزی که برایش اهمیت دارد این است که شما را مقابل نمایشگر نگه دارد. برای ترغیب یک دختر نوجوان به تماشای یک ویدئوی مربوط به رژیم گرفتن در یوتیوپ چه چیزی بیشترین کارآیی را دارد؟ باید گفت که یک ویدئوی طولانیتر مثلا مربوط به بی اشتهایی. اگر برای شخصی ویدئویی از اخبار یازدهم سپتامبر بفرستید، یعنی فقط یک ویدئوی مبتنی بر واقعیتها و خبری، ویدئویی که بعد از آن پخش میشود مربوط به جنگهای اطلاعاتی آلکس جونز خواهد بود.
تامپسون: خب چه اتفاقی میافتد؟
هریس: فکر میکنم واقعا بستگی دارد! مشکل دیگری که وجود دارد این است که شما میتوانید در این قبیل چیزها نیز هک شوید و برای همین دولتهایی هستند که به معنای واقعی کلمه میتوانند در نحوه کار سیستم توصیه کردن این سایتها دستکاری کنند. همانطور که یوآل گفت: امثال این سیستمها همانهایی هستند که از کنترل خارج هستند و الگوریتمها هستند که به شکلی تعیین میکنند دو میلیارد نفر چگونه وقتشان را بگذرانند. هفتاد درصد چیزهایی که مردم در یوتیوپ میبینند بر اساس توصیههای الگوریتمها انتخاب میشوند. مردم فکر میکنند چیزی که در یوتیوپ مشغول تماشای آن هستند انتخاب خودشان است. یعنی مینشینند، فقط مینشینند، فکر میکنند و بعد انتخاب میکنند. اما این درست نیست. هفتاد درصد چیزهایی که مردم تماشا میکنند ویدئوهای توصیه شدهای است که در طرف راست صفحه به آنها توصیه میشود که یعنی ۷۰ درصد، یعنی حدود دو میلیارد کاربر که بیشتر از مجموع پیروان دین اسلام میشوند، تقریبا به اندازه پیروان مسیحیت، کمابیش به مدت ۶۰ دقیقه در روز یوتیوپ را تماشا میکنند. پس شما ۶۰ دقیقه را دارید که طی آن ۷۰ درصد کاربران روی نمایشگرهایشان قوز کرده اند. این ماشین خارج از کنترل است. این نوعی فرانکشتاین دیجیتال است که از تمام این اهرمها استفاده و مردم را به این جهات متفاوت هدایت میکند.
تامپسون: یوآل! این صحبت ما را به جایی میرساند که تو میگویی این وضعیت تو را از آینده دمکراسی میترساند؛ که این نگرانی را در تو به وجود میآورد که با این وضعیت آیا دمکراسی میتواند بقا پیدا کند یا همانطور که درکتابت نوشتهای با این وضعیت: «دمکراسی به یک نمایش عروسکی تبدیل خواهد شد.» میشود بیشتر توضیح بدهی که منظورت چیست.
یوآل: بله منظورم این است که اگر ما خود را با این واقعیتهای جدید سازگار نکنیم، دمکراسی صرفا به یک نمایش عروسکی عاطفی تبدیل خواهد شد. اگر به این توهم ادامه دهید که انتخاب انسانی را نمیتوان هک کرد، نمیتوان در آن دخل و تصرف کرد و میتوانیم کاملا به آن اعتماد کنیم و مرجعیت و اختیار کاملا در دست ماست، در این صورت خیلی زود شما از یک نمایش عروسکی عاطفی سردرخواهید آورد؛ و این یکی از بزرگترین خطراتی است که ما با آن مواجه ایم و در واقع نتیجه نوعی ضعف و فقر فلسفی است که ایدههای فلسفی باقیمانده از قرن هجدهم را همچنان مسلم فرض میکنیم و آنها را با یافتههای علمی به روز نکرده ایم. البته این کار بسیار سختی هم هست، چرا که شما با مردم سروکار دارید؛ مردمی که نمیخواهند این پیام را بشنوند که آنها به حیواناتی قابل هک کردن تبدیل شده اند، که انتخابهای آنها، تمایلاتشان، درک آنها از کیستی خود، اینکه موثقترین آرمان هایشان چه هستند واقعا میتوانند مورد هک شدن و دستکاری قرار بگیرند. اگر بخواهم خلاصه بگویم آمیگدال مغز من ممکن است برای پوتین به کار بیفتد. نمیخواهم این را بدانم. نمیخواهم این را باورکنم. نه، من یک عامل و مرجع آزاد هستم. اگر از چیزی بترسم دلیلش خود من هستم. نه به این دلیل که کسی این ترس را در ذهنم کاشته است. اگرچیزی را انتخاب میکنم، این انتخاب از خواست آزادانه خودم برخاسته است؛ و تو کی هستی که چیز دیگری به من میگویی؟
تامپسون: خب من یکی که امیدوارم پوتین خیلی زود امیگدال مغز من را به کار بیندازد. ولی این برنامهای جانبی است که در نظر دارم. ولی بر اساس آنچه که در کتاب اولت نوشته ای، به نظر میرسد که دیگر این سرنوشت اجتناب ناپذیر است و به جایی رسیده ایم که مغز انسانها را میتوان هک کرد، جایی که رایانهها و ماشینها و هوش مصنوعی درک بهتری از ما خواهند داشت. ولی این قطعا اجتناب ناپذیر نیست که این وضعیت میتواند ما را به سمت پیامدهای منفی سوق دهد؛ به سمت توطئههای یازدهم سپتامبر و دمکراسی ورشکسته. پس آیا ما به نقطهای رسیده ایم که دیگر راه برگشتی از آن نیست؟ و اگر هنوز به آنجا نرسیده ایم، چطور میتوانیم از آن نقطه بی بازگشت اجتناب کنیم؟ و تصمیمات اساسی که در این مسیر باید اتخاذ شوند چه هستند؟
یوآل: خب هیچ چیز آن اجتناب ناپذیر نیست. منظورم این است که خود فناوری به روند تکامل خود ادامه میدهد. شما اصلا نمیتوانید آن را متوقف کنید و مانع از رسیدن به هوش مصنوعی شوید یا تحقیقاتی را که در حوزه بیوفناوری صورت میگیرند متوقف کنید. درحال حاضر این دو شانه به شانه هم حرکت میکنند. به نظر من هوش مصنوعی اکنون توجه بیش از حدی را به خود جلب کرده و ما باید تمرکز مشابهی معطوف آنچه که در حوزه بیوفناوری در حال رخ دادن است کنیم، چرا که این کار به منظور هک کردن انسانها انجام میشود. دراین روند شما به بیولوژی و برخی از مهمترین ابزارها و بینشها نیاز دارید که از علوم رایانهای نمیآیند. بلکه از علوم مربوط به مغز میآیند؛ و خیلی از کسانی که تمام این الگوریتمهای حیرت انگیز را طراحی میکنند، دارای پیشینهای در روانشناسی و علوم مربوط به مغز هستند، چرا که مغز چیزی است که آنها تلاش دارند آن را هک کنند.
گفتگو از: نیکولاس تامپسون (NICHOLAS THOMPSON) روزنامه نگار
منبع: فارس
انتهای پیام/