Apple buscará automáticamente fotos de abusos a menores en los iPhone


La nueva herramienta de seguridad, que llegará con las versiones de iOS 15, se conocerá como neuralHash, e incluirá varios salvaguardas para proteger la privacidad de los usuarios, aunque algunos investigadores y expertos en seguridad se han mostrado preocupados por las implicaciones que podría tener su implantación. La busqueda se realizará de forma automática, sobre todo fotos de abusos sexuales a menores que se suban a iCloud o al servicio de almacenamiento en la nube de la compañía. El sistema diseñado por Apple es lo suficientemente avanzado para detectar también similitudes en imágenes que hayan sido ligeramente modificadas. Varias agencias de seguridad y gobiernos habían pedido a la compañía que crease puertas traseras que les permitan acceder a mensajes e imágenes enviadas o almacenadas en los teléfonos para ayudar en las investigaciones de abusos a menores o terrorismo.