با توجه به اطلاعیه اخیر در رابطه با عملکرد پیشرفته معرفی شده توسط سیستم ChatGPT، که در آن GPTهای سفارشی میتوانند در مکالمات با ChatGPT بومی ادغام شوند، کارشناسان مرکز تحقیقات روسیه کسپرسکی بر نیاز به مراقبت بیشتر در هنگام اشتراک گذاری اطلاعات حساس با چت رباتهای هوش مصنوعی تاکید کردند.
ولادسلاو توشکانوف مدیر گروه توسعه پژوهشها در مؤسسه پژوهشی کسپرسکی در این مورد میگوید: چت ربات سفارشی میتواند از منابع و ابزارهای خارجی برای عملکردهای پیشرفته استفاده کند، بنابراین آزمایشگاه تحقیقاتی هوش مصنوعی OpenAI مکانیزمی را ایجاد کرده است که کاربران را قادر میسازد رویههایی را که توسط سیستم GPT دنبال میشوند را بررسی و تأیید کنند، تا از نشت گفتگوی احتمالی جلوگیری شود.
هنگامی که این سیستمهای سفارشی سعی میکنند دادهها را به یک سرویس شخص ثالث ارسال کنند، از خود کاربران خواسته میشود که این عملیات را مجاز یا رد کنند و همچنین گزینه دیگری برای بازرسی دادهها با استفاده از نماد منوی کشویی در رابط وجود دارد، همین قابلیت برای عملکرد جدید اعمال میشود.
توشکانوف افزود: علی رغم معرفی این مکانیسم ها، کاربران باید آگاه باشند و با احتیاط کامل عمل کنند، زیرا باید هر درخواست دریافتی را بررسی و درک کنند که ممکن است بر تجربه کلی آنها تاثیر بگذارد. نه تنها این احتمال ممکن است، بلکه راههای بالقوه دیگری نیز برای درز دادهها از سرویس چت ربات وجود دارد که در نتیجه خطاها یا ضعفهایی در سرویس رخ میدهد، چنانچه دادهها در طول فرآیند آموزش مدل حفظ شوند یا اگر شخصی موفق به نفوذ به حساب شما شود. به طور کلی، باید مراقب باشید و از به اشتراک گذاری اطلاعات شخصی و محرمانه با هر سرویس چت بات از طریق اینترنت خودداری کنید.
منبع: الیوم السابع