شرکت سامسونگ الکترونیک پس از آن که متوجه شد کارمندانش اطلاعات حساسی را از طریق برنامه GBT Chat آپلود کرده اند، آنها را از استفاده از ابزارهای محبوب هوش مصنوعی مولد مانند GPT Chat منع کرده است.
این شرکت در یادداشتی که توسط خبرگزاری بلومبرگ مشاهده شد، کارکنان یکی از بزرگترین بخشهای خود را از سیاست جدید مطلع کرد.
در این یادداشت آمده است که این شرکت نگران است که دادههای ارسال شده به پلتفرمهای هوش مصنوعی مانند Google Cool و Bing در سرورهای خارجی ذخیره شوند که بازیابی و حذف آن را دشوار میکند و ممکن است در نهایت به سایر کاربران درز کند.
این شرکت ماه گذشته یک نظرسنجی در مورد استفاده از ابزارهای هوش مصنوعی در داخل انجام داد و اعلام کرد که ۶۵ درصد از پاسخ دهندگان معتقدند که چنین خدماتی یک خطر امنیتی است.
طبق محتوای یادداشت، مهندسان سامسونگ به طور اشتباه یکی از کدهای منبع داخلی را با آپلود آن در چت GPT فاش کردند که دادههای حساس مشخص نشد.
یکی از نمایندگان سامسونگ تایید کرد که یادداشتی مبنی بر ممنوعیت استفاده از خدمات هوش مصنوعی مولد هفته گذشته ارسال شده است.
سامسونگ به کارکنان خود گفته است: "علاقه به پلتفرمهای مولد هوش مصنوعی مانند GBT Chat هم در داخل و هم در خارج در حال افزایش است. در حالی که این علاقه بر سودمندی و کارایی این پلتفرمها متمرکز است، نگرانیهای فزایندهای در مورد خطرات امنیتی ناشی از هوش مصنوعی مولد وجود دارد".
منبع: الیوم السابع