اپل اجرای پروژه اسکن تصاویر آیکلود را به تعویق انداخت
اپل حدود یک ماه پیش اعلام کرد که با اسکن تصاویر آیکلود به مقابله با کودک آزاری میرود. اما این خبر با انتقادات بسیاری روبرو شد و حالا کوپرتینوییها میگویند فعالسازی این سیستم را به تعویق میاندازند تا بهینهسازیهایی را روی آن انجام دهند.
اپل با انتشار بیانیهای برای وبسایت ۹to5Mac میگوید: «ماه گذشته از برنامهای رونمایی کردیم تا از کودکان در برابر سوءاستفادههایی محافظت کنیم که از ابزارهای ارتباطی برای آسیب زدن به بچهها استفاده میکنند و میخواستیم جلوی نشر محتواهای جنسی کودکان (CSAM) را بگیریم. مطابق بازخورد کاربران، گروههای مدنی، محققان و بقیه، تصمیم گرفتیم در ماههای آتی زمان بیشتری بگذاریم تا تحقیقات بیشتری انجام دهیم و قبل از عرضه این قابلیتهای مهم، بهینهسازیهای بیشتری انجام دهیم.»
قابلیت جدید محافظت از کودکان قرار بود به عنوان بخشی از iPadOS 15 ،iOS 15 و macOS Monterey منتشر شود. حالا هیچ تاریخ جدیدی برای عرضه این قابلیت اعلام نشده است. متاسفانه بیانیه امروز اپل هم جزئیات بیشتری درباره تغییراتی که احتمالا در این برنامه اعمال خواهد شد، ارائه نکرده است.
بر اساس اعلام قبلی اپل، سیستم شناسایی CSAM با در نظر گرفتن حریم خصوصی کاربران طراحی شده است. این سیستم به جای اسکن تصاویر در فضای اپل، با استفاده از پایگاه داده شناختهشدهای از هش تصاویر CSAM فایلها را روی دستگاه خود کاربر بررسی میکند.
این بررسی قبل از ذخیرهسازی تصاویر در iCloud Photos انجام میگیرد و با کمک فناوری رمزنگاری خاصی به نام تقاطع مجموعه دادههای خصوصی تکمیل میشود. آیفون در این فرآیند یک گواهی ایمنی رمزنگاری میسازد که نتیجه بررسی را به همراه سایر اطلاعات تصویر رمزنگاری میکند. این گواهی به همراه خود تصویر در iCloud Photos ذخیرهسازی میشود.
معرفی این سیستم با انتقادات و بازخورد شدید کاربران و طرفداران حریم خصوصی مواجه شد. با این حال، اپل تاکنون چند بار از این ویژگی دفاع کرده و میگوید با پیادهسازی این سیستم بهتر از شرکتهایی مثل گوگل و فیسبوک میتواند از حریم خصوصی محافظت کند.