اپل اجرای پروژه اسکن تصاویر آی‌کلود را به تعویق انداخت

اپل حدود یک ماه پیش اعلام کرد که با اسکن تصاویر آی‌کلود به مقابله با کودک آزاری می‌رود. اما این خبر با انتقادات بسیاری روبرو شد و حالا کوپرتینویی‌ها می‌گویند فعال‌سازی این سیستم را به تعویق می‌اندازند تا بهینه‌سازی‌هایی را روی آن انجام دهند.

اپل با انتشار بیانیه‌ای برای وب‌سایت ۹to5Mac می‌گوید: «ماه گذشته از برنامه‌ای رونمایی کردیم تا از کودکان در برابر سوءاستفاده‌هایی محافظت کنیم که از ابزارهای ارتباطی برای آسیب زدن به بچه‌ها استفاده می‌کنند و می‌خواستیم جلوی نشر محتواهای جنسی کودکان (CSAM) را بگیریم. مطابق بازخورد کاربران، گروه‌های مدنی، محققان و بقیه، تصمیم گرفتیم در ماه‌های آتی زمان بیشتری بگذاریم تا تحقیقات بیشتری انجام دهیم و قبل از عرضه این قابلیت‌های مهم، بهینه‌سازی‌های بیشتری انجام دهیم.»

قابلیت جدید محافظت از کودکان قرار بود به عنوان بخشی از iPadOS 15 ،iOS 15 و macOS Monterey منتشر شود. حالا هیچ تاریخ جدیدی برای عرضه این قابلیت اعلام نشده است. متاسفانه بیانیه امروز اپل هم جزئیات بیشتری درباره تغییراتی که احتمالا در این برنامه اعمال خواهد شد، ارائه نکرده است.

بر اساس اعلام قبلی اپل، سیستم شناسایی CSAM با در نظر گرفتن حریم خصوصی کاربران طراحی شده است. این سیستم به جای اسکن تصاویر در فضای اپل، با استفاده از پایگاه داده شناخته‌شده‌ای از هش تصاویر CSAM فایل‌ها را روی دستگاه خود کاربر بررسی می‌کند.

این بررسی قبل از ذخیره‌سازی تصاویر در iCloud Photos انجام می‌گیرد و با کمک فناوری رمزنگاری خاصی به نام تقاطع مجموعه داده‌های خصوصی تکمیل می‌شود. آیفون در این فرآیند یک گواهی ایمنی رمزنگاری می‌سازد که نتیجه بررسی را به همراه سایر اطلاعات تصویر رمزنگاری می‌کند. این گواهی به همراه خود تصویر در iCloud Photos ذخیره‌سازی می‌شود.

معرفی این سیستم با انتقادات و بازخورد شدید کاربران و طرفداران حریم خصوصی مواجه شد. با این حال، اپل تاکنون چند بار از این ویژگی دفاع کرده و می‌گوید با پیاده‌سازی این سیستم بهتر از شرکت‌هایی مثل گوگل و فیسبوک می‌تواند از حریم خصوصی محافظت کند.

تبلیغات دیجی کوله

مدیر

“چالش ها برای سرگرم کننده کردن زندگی هستند و غلبه بر آن باعث معنا دار شدن زندگی.”

0 دیدگاه

پست های مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.