کامپیوتر و رایانه‌ها با سرعت فزاینده‌ای درحال پیشرفت هستند و سال‌های آینده به شکل چشمگیری توسعه پیدا خواهند کرد.

به گزارش باشگاه خبرنگاران جوان به نقل از ibelieveinsci، همه ما می‌دانیم که فناوری رایانه ها با چه سرعتی در حال توسعه است. این توسعه به اندازه‌ای است که گاهی به شوخی گفته می‌شود وقتی شما از یک فروشگاه رایانه‌ای جدید را می‌خرید به محض رسیدن به خانه این کامپیوتر قدیمی خواهد شد. اما از طرفی محدودیت‌های خاصی برای میزان توسعه رایانه‌ها وجود دارد.

قانون مور که توسط یک دانشمند آمریکایی به نام گوردون مور در سال ۱۹۶۵ ارائه شد، به این موضوع اشاره کرد که تعداد ترانزیستور‌های روی یک تراشه با مساحت ثابت هر ۲ سال، به‌طور تقریبی دو برابر می‌شود، اما این سرعت در طول سال‌ها کاهش یافته است.

آینده کامپیوتر‌ها چه خواهد بود؟

با فرض اینکه سازندگان ریزپردازنده‌ها بتوانند به قانون مور پایبند باشند، قدرت پردازش کامپیوتر‌ها باید هر دو سال یکبار دو برابر شود، به این معنی که کامپیوتر‌ها در ۱۰۰ سال آینده ۱,۱۲۵,۸۹۹,۹۰۶,۸۴۲,۶۲۴ برابر قدرتمندتر از مدل‌های فعلی خواهند بود که تصور آن کمی غیرقابل باور به نظر می‌رسد.

خود گوردون مور در مورد مدوام بودن قانون مور هشدار داد و در سال ۲۰۰۵ گفت: وقتی ترانزیستور‌ها کوچک می‌شوند، برای رسیدن به سطح اتمی ممکن است با موانع اساسی روبرو شویم که نمی‌توانیم از آن‌ها عبور کنیم. در این مرحله، ما نمی‌توانیم ترانزیستور‌های بیشتری را در همان ناحیه ویفر سیلیکونی قرار دهیم.

توسعه رایانه ها

ما ممکن است با ساختن تراشه‌های سیلیکونی بزرگتر با ترانزیستور‌های بیشتر، این مشکل را حل کنیم، اما ترانزیستور‌ها گرما تولید می‌کنند و یک پردازنده داغ می‌تواند کامپیوتر را خاموش کند. کامپیوتر‌ها با پردازنده‌های سریع برای جلوگیری از داغ شدن بیش از حد، به سیستم‌های خنک کننده کارآمد نیاز دارند. هرچه پردازنده قدرتمندتر باشد، کامپیوتر هنگام کار با سرعت کامل، گرمای بیشتری را تولید می‌کند.

راه حل دیگری که برای این موضوع در نظر گرفته شده تغییر به معماری چند هسته‌ای است. یک پردازنده چند هسته‌ای بخشی از قدرت پردازش را به هر هسته اختصاص می‌دهد، که در برخورد با عملیات محاسباتی که می‌توانند به اجزای کوچکتر تقسیم شوند. این روش موثر به نظر می‌رسد، اما در مقابله با موانع محاسباتی بزرگ که نمی‌توان آن‌ها را تجزیه کرد چندان مناسب نیست.

کامپیوتر‌های آینده ممکن است به شکل ساختاری کاملا متفاوتی نسبت به کامپیوتر‌های سنتی متکی باشند.

فیبر‌های نوری، پردازنده‌های کوانتومی و دی‌ان‌ای رایانه

فناوری فیبر نوری کامپیوتر‌ها را متحول کرده است، زیرا فیبر‌های نوری می‌توانند اطلاعات را با سرعت بسیار بالا منتقل کنند و مثل کابل‌های کلاسیک در معرض تداخل الکترومغناطیسی قرار نمی‌گیرند، اما اگرکامپیوتری بسازیم که برای انتقال اطلاعات به جای برق از نور استفاده کند، چه؟

یکی از مزیت‌ها این است که سیستم فوتونیک گرمای کمتری نسبت به یک پردازنده ترانزیستور‌های الکترونیکی معمولی تولید می‌کند و داده‌ها نیز با سرعت بیشتری منتقل می‌شوند، اما مهندسان تاکنون در خلق فوتوترانزیستور فشرده‌ای را که بتواند به صورت انبوه تولید شود موفق نشده اند.

دانشمندان مؤسسه فدرال سوئیس در زوریخ توانستند یک ترانزیستور نوری به اندازه یک مولکول اتمی بسازند، اما دانشمندان مجبور شدند برای کارآمد کردن سیستم، مولکول را تا دمای منفی ۲۷۲ درجه سانتیگراد یا یک درجه کلوین که درست بالاتر از دمای اتمی است، خنک کنند.

فوتوترانزیستور‌ها می‌توانند بخشی از یک کامپیوتر کوانتومی شوند. برخلاف رایانه‌های سنتی که از اعداد یا بیت‌های باینری برای انجام عملیات استفاده می‌کنند، رایانه‌های کوانتومی از کیوبیت‌های کوانتومی استفاده می‌کنند. یک بیت، یا ۰ و یا ۱ است و می‌توانید آن را به عنوان یک سوئیچ در نظر بگیرید که روشن یا خاموش است، اما یک کیوبیت می‌تواند همزمان ۰ و ۱ یا هر چیزی بین این دو باشد.

دی‌ان‌ای رایانه

یک کامپیوتر کوانتومی باید قادر به حل مسائل بزرگی باشد که می‌توان آن‌ها را بسیار سریع‌تر از یک کامپیوتر معمولی به مسائل کوچک‌تر تقسیم کرد. باید این نکته را در نظر داشت که کامپیوتر‌های کوانتومی، طبیعتاً ناپایدار هستند. اگر وضعیت کوانتومی یک کامپیوتر بی نظم باشد، قدرت محاسباتی آن به اندازه یک کامپیوتر معمولی خواهد بود. مانند فوتوترانزیستور در موسسه فدرال سوئیس که کامپیوتر‌های کوانتومی در دمای منفی ۲۷۳.۱۶ درجه نگهداری می‌شوند تا حالت‌های کوانتومی خود را حفظ کنند.

از طرفی وضعیت آینده رایانه‌ها ممکن است در درون خود ما نهفته باشد، زیرا گروه‌هایی از دانشمندان در حال توسعه رایانه‌هایی هستند که از DNA برای پردازش اطلاعات استفاده می‌کنند. این ترکیب علم کامپیوتر و زیست شناسی می‌تواند راهی برای رسیدن به نسل بعدی رایانه‌ها باشد. یک دی‌ان‌ای رایانه، می‌تواند چندین مزیت نسبت به کامپیوتر‌های معمولی داشته باشد. به عنوان مثال، دی‌ان‌ای یک منبع فراوان و البته ارزان است و اگر دانشمندان راهی برای مهار دی‌ان‌ای برای پردازش داده‌ها کشف کنند، انقلابی در زمینه کامپیوتر‌ها رخ خواهد داد.

گستردگی استفاده از رایانه‌ها

این موضوع بیشتر در داستان‌های علمی تخیلی رایج و کامپیوتر‌ها در این داستان‌ها بسیار کوچک و به طور گسترده در همه جا هستند. در آینده، ممکن است سنسور‌های کامپیوتری روی زمین وجود داشته باشد که می‌توانند سلامت فیزیکی شما را کنترل کنند یا رایانه‌هایی در ماشینتان که می‌توانند هنگام رانندگی به سمت محل کار به شما کمک کنند و حتی رایانه‌هایی که در هرجایی که بروید، تمام حرکت‌های شما را ردیابی می‌کنند.

این موضوع در عین که ممکن است هیجان انگیز به نظر برسد، اما ترسناک نیز خواهد بود. از جنبه خوب آن می‌توان به این موضوع اشاره کرد که شبکه‌های کامپیوتری به اندازه‌ای قدرتمند خواهند شد که ما همیشه یک اتصال سریع و مطمئن به اینترنت داریم. شما می‌توانید بدون نگرانی در مورد وقفه این خدمات و این که در کجا قرار دارید با هر کسی که انتخاب می‌کنید ارتباط برقرار کنید. از سوی دیگر، این امکان برای شرکت ها، دولت‌ها یا سایر سازمان‌ها نیز وجود خواهد داشت که هر کجا که می‌روید، اطلاعات مربوط به شما را جمع آوری، نگهداری و به روز کنند.‌

استفاده سترده از رایانه ها

می‌توان گفت با پروژه‌هایی مثل Wi-Fi و فناوری‌های مانند ۴G، LTE و WiMAX، در دهه گذشته شاهد گام‌هایی به سوی فراگیر شدن رایانه‌ها بوده‌ایم. شما می‌توانید یک گوشی هوشمند بخرید و در عرض چند ثانیه به اطلاعات در شبکه جهانی وب دسترسی پیدا کنید.

همچنین ممکن است شاهد تغییرات عظیمی در فناوری رابط کاربری باشیم. امروزه اکثر رایانه‌ها به رابط‌های ورودی فیزیکی مانند ماوس رایانه، صفحه کلید، ترک‌پد متکی هستند. همچنین برنامه‌های کامپیوتری وجود دارند که می‌توانند صدا  یا حرکات چشم  را ردیابی کنند. دانشمندان کامپیوتر و عصب شناسان در حال کار بر روی بسیاری از رابط‌های مغز و کامپیوتر هستند که به افراد اجازه می‌دهد کامپیوتر‌ها را فقط با استفاده از افکار خود کنترل کنند و با توجه به این موضوع، ممکن است کامپیوتر‌های آینده فقط با افکار ما تعامل داشته باشند.

پیش بینی اینکه در صد سال آینده، توسعه فناوری به چه مرحله‌ای خواهد رسید دشوار است و لزوماً خطی یا لگاریتمی نیست. ممکن است چندین دهه پیشرفت داشته باشیم و پس از آن به دوره‌ای برسیم که با مشکلات غیرمنتظره‌ای مواجه شویم. هر اتفاقی که در آینده بیفتد، سخت افزاری که ما به آن متکی خواهیم بود مطمئناً با کامپیوتر‌های امروزی بسیار متفاوت هستند.


بیشتر بخوانید


انتهای پیام/

اخبار پیشنهادی
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.
نظرات کاربران
انتشار یافته: ۲
در انتظار بررسی: ۰
Iran (Islamic Republic of)
ناشناس
۱۰:۰۸ ۰۲ بهمن ۱۴۰۰
1 میلیارد برابر حافظه و قدرت پردازش های الان!
(البته دور از انتظار هم نیست)
وقتی حافظه 4 مگابایتی اومد تو بازار عجب قیمتی داشت
اما الان فقط گوشی هایی با حافظه بیشتر از 500 گیگابایت (نیم ترا) در بازار پر شده
Iran (Islamic Republic of)
دانا
۱۷:۱۲ ۰۱ آذر ۱۴۰۰
پس الکی پولتون رو سر خرید یک کارت گرافیک rtx وGTX حروم نکنید در 20 سال دیگه اینا هیچ ارزشی نداره
آخرین اخبار