فناوری اطلاعات

اپل با اسکن تصاویر آپلود شده در آی‌کلاد، با سواستفاده از کودکان مبارزه می‌کند

اپل مدتی است پروژه‌‌ای در جهت مبارزه با کودک آزاری و جلوگیری از سوء استفاده از کودکان را دنبال می‌کند که از طریق اسکن کردن تصاویر کاربران قبل از آپلود روی آی‌کلاد، می‌تواند موارد نامناسب را تشخیص داده و در صورت نیاز نهادهای قضایی و اجرایی را باخبر کند. هرچند این موضوع باعث نگرانی برخی نهادهای حافظ حقوق کاربران شده است.

در این پروژه جدید که شامل نصب اپلیکیشن‌های پیش‌فرض در سیستم‌ عامل‌های iOS و iPadOS می‌شود،‌ اپل سعی دارد انتشار محتوای مستهجن مرتبط با کودکان را محدود کرده و در عین حال از حریم شخصی کاربران حفاظت کند.

دستگاه‌های عرضه شده از سال آینده در بازار آمریکا دارای چنین اپ‌هایی خواهند بود. جزئیات پروژه گفته شده در صفحه مرتبط با حفاظت از کودکان در وب سایت اپل نیز مورد اشاره قرار گرفته است. یکی از قابلیت‌های مرتبط با این پروژه، اسکن کردن تصاویر حافظه داخلی دستگاه قبل از تهیه نسخه پشتیبان از آن‌ها روی آی‌کلاد است که جنجال‌های بسیاری را به دنبال داشته است. اپل ادعا دارد که اسکن تصاویر پیش از اقدام به آپلود فایل روی فضای ابری، صورت نخواهد گرفت و تنها در صورتی که تصاویر حساب کاربری از معیارهای در نظر گرفته شده عبور کند، گزارش به اپل ارسال می‌شود.

اپل برای سالیان طولانی از سیستم هش برای شناسایی تصاویر کودک آزاری در فایل‌های الصاق شده به ایمیل‌ها استفاده کرده است. همچنین سایر پلتفرم‌ها از جمله جیمیل نیز فناوری‌های مشابهی جهت یافتن محتواهای مستهجن را بکار گرفته‌اند. پروژه جدید اپل می‌تواند نمونه‌ای همسان را به سرویس iCloud Photos اضافه کند؛ حتی اگر تصاویر برای کاربر دیگری ارسال نشوند.

در فایل PDF منتشر شده از سوی اپل، تعدادی از قوانین مرتبط با پروژه مذکور شرح داده شده است که بیشتر در جهت رعایت حریم شخصی کاربران تنظیم شده‌اند و برخی از موارد مهم گفته شده از سوی اپل شامل گزاره‌های زیر می‌شوند:

اپل نمی‌تواند هیچ اطلاعاتی از تصاویری که با معیارهای پایگاه داده CSAM همخوانی ندارند، کسب کند. اگر تصویری با معیارهای گفته شده همخوانی داشته باشد، اپل نمی‌تواند به اطلاعات آن از جمله متا دیتا و جزئیات بصری دسترسی داشته باشد مگر اینکه تعداد دفعات تکرار رخداد برای یک حساب کاربری از حد مجاز عبور کند. احتمال شناسایی موارد کاذب توسط سیستم بسیار پایین است؛ اما اپل برای اطمینان از صحت و دقت گزارش‌ها، اقدام به بررسی دستی آن‌ها می‌کند. کاربران نمی‌توانند به پایگاه داده مورد استفاده برای شناسایی تصاویر مستهجن کودکان دسترسی داشته باشند. کاربران متوجه نخواهند شد که کدام تصاویر توسط سیستم به عنوان فایل نامناسب شناخته شده است.

اپل سعی کرده است با ایجاد ساختاری‌ پلکانی، از اعلام هشدار کاذب برای حساب‌های کاربری جلوگیری کند که مهم‌ترین آن‌ها، در نظر گرفتن حد مجاز گزارش‌ها برای هر اکانت است. اگر یک حساب کاربری توسط سیستم شناسایی شود، گزارش قبل از ارسال به نهادهای قضایی و قانونی، توسط اپل مورد بازرسی قرار می‌گیرد که می‌تواند میزان دقت سیستم را به صورت چشمگیری افزایش دهد.

اقدامات تازه‌ای نیز برای حفاظت از نوجوانان صاحب آیفون از سوی اپل در نظر گرفته شده است که می‌تواند احتمال سوء استفاده از آن‌ها را کاهش دهد. اپلیکیشن Messages در گذشته اقدام به اسکن تصاویر ضمیمه شده به پیام‌ها می‌کرد و در صورت یافتن مورد نامناسب، آن را به صورت محو همراه با یک هشدار نمایش می‌داد. اکنون والدین می‌توانند به لطف امکان جدیدی در حساب کاربری خانوادگی آی‌کلاد، از دریافت یا ارسال چنین تصاویری توسط فرزندان خود، مطلع شوند. نحوه عکس العمل سیری و اپلیکیشن Search نیز به موارد مرتبط با سوء استفاده از کودکان بهبود پیدا کرده است و پیرامون معایب و عواقب احتمالی چنین رفتاری به افراد هشدار می‌دهد.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا