چرا اسباببازیهای مجهز به هوش مصنوعی میتوانند برای کودکان خطرناک باشند؟
زمان انتشار: 15 نوامبر 2025 ساعت 11:16
دسته بندی: فناوری اطلاعات
شناسه خبر: 2881653
زمان مطالعه: 6 دقیقه

چرا اسباببازیهای مجهز به هوش مصنوعی میتوانند برای کودکان خطرناک باشند؟
گزارش اخیر سازمانهای پژوهشی و رسانهها نشان میدهد برخی اسباببازیهای مجهز به هوش مصنوعی پیامدهای نگرانکنندهای برای کودکان دارند؛ از توصیههای خطرناک تا جمعآوری گسترده دادههای خصوصی.
کارشناسان خواستار اقدامات فوری قانونی و استانداردسازی ایمنی در این صنعت هستند.
به گزارش سیلاد از Futurism در تحقیقات انجامشده توسط گروههای پژوهشی از جمله Public Interest Research Group (PIRG) و گزارشهای رسانهای، نمونههایی ثبت شده که برخی اسباببازیهای مجهز به مدلهای پیشرفته هوش مصنوعی در پاسخ به سوالات کودکان، راهنماییهای خطرناکی ارائه کردهاند.
در یک نمونه، عروسکی که مبتنی بر مدل GPT–4o طراحی شده بود، به پرسش یک کودک درباره روشنکردن آتش پاسخهایی توضیحی و نامناسب ارائه داده است.
این موارد زنگ هشداری را برای والدین و نهادهای قانونگذار به صدا درآورده است؛ چرا که تعامل طولانیمدت کودک با یک عامل دیجیتال و سخنگو میتواند به ایجاد پیوندهای عاطفی ناسالم یا تضعیف مهارتهای همکلامی با انسانها منجر شود. روانشناسان رشد هشدار میدهند که جایگزینی تعاملات انسانیِ واقعی با روابط یکطرفه با یک اسباببازی هوشمند، میتواند رشد اجتماعی و هیجانی کودکان را دچار اختلال کند.
موضوع دیگر، نگرانیهای حریم خصوصی است. بسیاری از این اسباببازیها مجهز به میکروفون و در برخی موارد دوربین هستند و دادههای صوتی، تصویری و حتی رفتارشناسی کودکان را جمعآوری میکنند. فقدان شفافیت درباره نحوه ذخیره، پردازش و بهکارگیری این دادهها، خطر سوءاستفاده یا نشت اطلاعات حساس را افزایش میدهد.
شرکتهای بزرگ اسباببازیسازی مانند Mattel که با شرکتهای هوش مصنوعی همکاری میکنند، تحت فشار افکار عمومی و ناظران حقوق کودک قرار گرفتهاند. منتقدان هشدار میدهند که ادغام برندهای شناختهشده با مدلهای هوش مصنوعی قدرتمند بدون چارچوبهای حفاظتی مشخص، میتواند نوعی «آزمایش اجتماعی» را روی جمعیتهای آسیبپذیر آغاز کند.
از دید فنی نیز، آزمونها نشان میدهد که مدلهای زبانی بزرگ (LLM) گاهی اطلاعات نادرست یا پاسخهای نامناسب تولید میکنند؛ مسئلهای که در متن تعامل با کودکان میتواند پیامدهای جدیتری داشته باشد. پژوهشگران خواستار استانداردهای اعتبارسنجی، فیلترهای محتوایی مبتنی بر سن و کنترل والدین شدیدتر شدهاند.
بخشی از راهحلهای پیشنهادی شامل تدوین مقررات ملی و بینالمللی برای محصولات هوش مصنوعی کودکان، الزام تولیدکنندگان به شفافسازی سیاستهای داده و اجرای آزمایشهای ایمنی مستقل پیش از عرضه است. همچنین، توسعه «حالتهای آموزشی امن» و ابزارهای کنترل والدین که امکان محدودسازی قابلیتهای تعاملی و جمعآوری داده را فراهم کند، بهعنوان اقدامهای میانی مطرح شدهاند.
در نهایت، کارشناسان تأکید دارند که فناوریهای نوظهور نباید بدون چارچوبهای حفاظتی و اخلاقی وارد قلمرو حساس کودک شوند. تا زمانی که استانداردها و مقررات دقیق تدوین نشود، والدین باید با احتیاط این محصولات را انتخاب کنند و شرکتها نیز مسئولیت بیشتری در برابر سلامت و حریم خصوصی کودکان بپذیرند.














