به گزارش خبرنگار حوزه دریچه فناوری گروه فضای مجازی باشگاه خبرنگاران جوان، به نقل از فون آرنا، مرجع معتبر گزارش ۹to۵Mac اعلام کرد که بر اساس برخی شایعات و گزارشات، شرکت اپل سیستم جدیدی را پیاده خواهد کرد که محتویات گالری شما را اسکن میکند تا سوء استفاده از کودکان در رابطه با مسائل جنسی جلوگیری، کشف و متوقف شود.
این قابلیت از یک الگوریتم hashed استفاده میکند که طبق گزارشات محتوای عکس را با مواد شناخته شده مربوط به سوء استفاده از کودکان مطابقت میدهد.
گفته میشود که این قابلیت جدید روی خود دستگاه اجرا میشود و میتوان گفت آیفون دادههای غیرقانونی که بررسی میشوند را نشان میدهد. سپس، هرگونه مطابقت محتوای غیرقانونی در آیفون برای بررسی انسانی گزارش میشود. البته اپل هنوز چنین ابتکاری را رسما اعلام نکرده است.
متیو گرین که متخصص رمزنگاری و امنیت است، دلیل چنین حرکتی را روشن میکند. او میگوید معمولاً الگوریتم hashed میتواند اشتباهاتی را ایجاد کرده و خطا داشته باشد. سپس، اگر اپل به دولتها اجازه دهد که پایگاه داده محتوای اثر انگشت را کنترل کنند، ممکن است از این مورد به غیر از محتوای غیرقانونی کودکان برای موارد دیگر نیز سوء استفاده شود.
به خاطر داشته باشید که عکسهای بارگذاری شده در iCloud Photos برای پشتیبان گیری رمزگذاری سرتاسری نیستند. در مورد سایر خدمات پشتیبان گیری عکس نیز همینطور است.
حال باید دید که اپل رسما این قابلیت را معرفی و عرضه می کند یا خیر چون بسیاری از افراد به گفته های شرکت اپل اطمینان ندارند.
بیشتر بخوانید
انتهای پیام/