ممکن است اپل روی الگوریتم hashed برای اسکن عکس‌های آیفون کاربران به بهانه جلوگیری از کودک آزاری کار کند.

به گزارش خبرنگار حوزه دریچه فناوری گروه فضای مجازی باشگاه خبرنگاران جوان، به نقل از فون آرنا، مرجع معتبر گزارش ۹to۵Mac اعلام کرد که بر اساس برخی شایعات و گزارشات، شرکت اپل سیستم جدیدی را پیاده خواهد کرد که محتویات گالری شما را اسکن می‌کند تا سوء استفاده از کودکان در رابطه با مسائل جنسی جلوگیری، کشف و متوقف شود.

این قابلیت از یک الگوریتم hashed استفاده می‌کند که طبق گزارشات محتوای عکس را با مواد شناخته شده مربوط به سوء استفاده از کودکان مطابقت می‌دهد.

اپل در حال کار بر روی یک سیستم اسکن hashed برای ردیابی کاربران

گفته می‌شود که این قابلیت جدید روی خود دستگاه اجرا می‌شود و می‌توان گفت آیفون داده‌های غیرقانونی که بررسی می‌شوند را نشان می‌دهد. سپس، هرگونه مطابقت محتوای غیرقانونی در آیفون برای بررسی انسانی گزارش می‌شود. البته اپل هنوز چنین ابتکاری را رسما اعلام نکرده است.

اسکن تصاویر شما توسط اپل به بهانه جلوگیری از کودک آزاری

متیو گرین که متخصص رمزنگاری و امنیت است، دلیل چنین حرکتی را روشن می‌کند. او می‌گوید معمولاً الگوریتم hashed می‌تواند اشتباهاتی را ایجاد کرده و خطا داشته باشد. سپس، اگر اپل به دولت‌ها اجازه دهد که پایگاه داده محتوای اثر انگشت را کنترل کنند، ممکن است از این مورد به غیر از محتوای غیرقانونی کودکان برای موارد دیگر نیز سوء استفاده شود.

به خاطر داشته باشید که عکس‌های بارگذاری شده در iCloud Photos برای پشتیبان گیری رمزگذاری سرتاسری نیستند. در مورد سایر خدمات پشتیبان گیری عکس نیز همینطور است.

حال باید دید که اپل رسما این قابلیت را معرفی و عرضه می کند یا خیر چون بسیاری از افراد به گفته های شرکت اپل اطمینان ندارند.


بیشتر بخوانید


انتهای پیام/

برچسب ها: شرکت اپل ، کودک آزاری
اخبار پیشنهادی
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.