اپل با هدف شناسایی سوء استفاده از کودکان، تصاویر آی کلود را اسکن می کنداپل برای بررسی تصاویر سوءاستفاده جنسی از کودکان ، اسکن عکس های آپلود شده از آیفون را آغاز کرده است، علت این عملکرد تحت فشار قرار گرفتن شرکت های فنی برای مقابله با این جنایت ها اعلام شده است. - ایسنا/خراسان رضوی اپل برای بررسی تصاویر سوءاستفاده جنسی از کودکان ، اسکن عکس های آپلود شده از آیفون را آغاز کرده است، علت این عملکرد تحت فشار قرار گرفتن شرکت های فنی برای مقابله با این جنایت ها اعلام شده است. به گزارش سایت قطره و به نقل ازتلگراف، جین هوروات، مدیر ارشد حفظ حریم شخصی اپل، در کنفرانسی فنی فاش کرد که این شرکت به طور خودکار تصاویر را از سرویس ذخیره آنلاین آی کلود، برای یافتن تصاویر غیرقانونی بررسی می کند. اپل غالباً با نیروهای امنیتی و مقامات در این مورد اختلاف دارد و از ورود به گوشی مجرمان و برنامه پیام رسانی آنان به نام محافظت از حریم خصوصی کاربران، امتناع می کند. خانم هوروات در سخنرانی در نمایشگاه الکترونیک Consumer Electronics لاس وگاس، گفت: حذف رمزنگاری برای دستیابی به اطلاعات، راه حل این مشکل نیست و ما از برخی فناوری ها برای شناسایی این مورد استفاده خواهیم کرد. سخنگوی اپل گفت: اپل برای محافظت از کودکان با استفاده از محصولات خود تلاش می کند و از نوآوری در این زمینه پشتیبانی می کند. برچسب ها: |
آخرین اخبار سرویس: |