بسیاری از کاربران و گروههای مدافع احساس میکنند که این ویژگی میتواند مشکلات مهم حریم خصوصی را ایجاد کند.
چند ماه پیش، اپل اعلام کرد که قصد دارد ویژگی جدیدی را به آیفونها اضافه کند که میتواند گوشیهای کاربران و کتابخانههای عکس iCloud را برای یافتن مواد بالقوه سوء استفاده جنسی از کودکان (CSAM) اسکن کند . اکنون، وبسایت این شرکت کاملاً فاقد هرگونه اطلاعات در مورد این ویژگی است. این باعث میشود به این فکر کنیم که آیا این ایده به کلی کنار گذاشته شده است.
تست باتری ایفون ۱۲ پرو مکس | شارژر ایفون ۱۲ پرو مکس | اداپتور ایفون ۱۲ پرو مکس | خرید کابل شارژ آیفون ۱۲ پرو مکس |
اولین بار توسط MacRumors مشاهده شد، به نظر می رسد که اپل به طور کامل هرگونه مطلبی را در مورد اسکن CSAM احتمالی خود از صفحه محافظت از کودکان در وب سایت خود حذف کرده است.
این شرکت قبلاً این ویژگی را به تعویق انداخته بود، زیرا گروه های حفظ حریم خصوصی در مورد خطر احتمالی حریم خصوصی صحبت کردند. گروههای مدافع و کاربران به طور یکسان استدلال کردند که ویژگی مانند این میتواند دریچهای را برای بازیگران بد بگشاید تا از آن سوء استفاده کرده و به مشتریان اپل آسیب برساند.
با وجود این واکنش تقریباً همه، به نظر می رسد که اپل کاملاً از این ویژگی دست نکشیده است. پس از انتشار اخباری مبنی بر حذف اطلاعات CSAM از وب سایت ، یک سخنگوی با The Verge در مورد ویژگی جدید بالقوه صحبت کرد .
شین بائر، سخنگوی اپل گفت که موضع این شرکت در مورد این ویژگی از زمان بهروزرسانی آن در سپتامبر تغییر نکرده است:
تست باتری ایفون ۱۱ پرو مکس | شارژر ایفون ۱۱ پرو مکس | اداپتور ایفون ۱۱ پرو مکس | خرید کابل شارژ آیفون ۱۱ پرو مکس |
«بر اساس بازخورد مشتریان، گروههای مدافع، محققان و دیگران، تصمیم گرفتهایم در ماههای آینده زمان بیشتری را برای جمعآوری اطلاعات و ایجاد بهبودها قبل از انتشار این ویژگیهای حیاتی ایمنی کودک اختصاص دهیم.» – بیانیه سپتامبر اپل در مورد ویژگی جدید CSAM خود
بنابراین، به نظر می رسد که اپل همچنان در حال حرکت به سمت این ویژگی جدید است. علیرغم مشکلاتی که در این ویژگی خاص ایمنی کودک وجود دارد، این شرکت چند ویژگی دیگر را با هدف محافظت از کودکان در دستگاه های اپل اضافه کرده است.
آیا ویژگی شناسایی CSAM آینده یک خطر بزرگ حفظ حریم خصوصی خواهد بود؟ به ما اطلاع دهید که چه فکر می کنید.