TecnoXplora» Apps

Apps

Apple analizará las imágenes almacenadas en iCloud para estrechar el cerco al abuso infantil

Apple anuncia severas medidas de seguridad para prevenir la existencia de este contenido en sus servidores

iPhone 12Foto de Martin Sanchez en Pexels

Lamentablemente los casos de pedofilia siguen siendo numerosos, y cada cierto tiempo conocemos alguna nueva operación que da con miles de fotos de este tipo en los ordenadores o móviles de auténticos delincuentes. Lógicamente esto no sería posible sin el análisis o la vigilancia de los movimientos de los pedófilos, que normalmente no solo son culpables de obtener estas imágenes, sino además de difundirlas y compartirlas con otras personas. Apple se ha puesto muy seria con este asunto, y ha anunciado que va a hacer escaneos sistemáticos de su almacenamiento en la nube, iCloud, en busca de material de este tipo, con el objetivo de dar con aquellas personas que dan soporte y cobertura a este tipo de material.

Decisión polémica para algunos

Y no precisamente por el fin de esta decisión, que evidentemente es necesaria para poder poco a poco reducir al mínimo el abuso sexual o erradicarlo, sino que como suele ser habitual, cuando se trata de analizar el contenido de las fotos de los usuarios, son muchos los que alzan la voz en aras de la privacidad. Ha sido el caso del propio Edward Snowden, que ha criticado que ante una acción legítima de Apple, se esté abriendo la puerta a que no solo se busquen imágenes de este tipo en iCloud. Y es que para los más críticos con la decisión, cuando se abre la puerta al análisis masivo de los datos de los usuarios, la realidad es que tras el uso para este cometido, se podrían analizar imágenes para otros muchos.

Es como abrir una puerta o caja de pandora que desconocemos cómo puede acabar. Pero lógicamente esta es la opinión de una persona, muy lejos de las intenciones de Apple, que son básicamente las de detener en seco la proliferación de estos contenidos, y que lugares como la nube no puedan ser el lugar donde se escondan contenidos tan repulsivos como estos. Pero hay que aclarar que no se analizan en sí los contenidos de la foto, sino su huella digital. Lo que hará Apple es analizar los “hashes” de cada imagen, que es un identificador criptográfico que puede revelar coincidencias con los criterios de búsqueda. Unas búsquedas que evidentemente se harán por parte de las autoridades, que podrán encontrar coincidencias que sean potencialmente peligrosas para los más pequeños. Cuando se encuentren imágenes sospechosas, se desactivarán las cuentas donde se alojen las fotos y se notificará a la Policía.

Más novedades para luchar contra los abusos infantiles

Apple también ha anunciado que se analizarán las fotos que se envíen a través de su app de mensajería, iMessage, para detectar posibles casos de abuso infantil o pedofilia en este tipo de comunicaciones. Si los usuarios que envían las fotos son menores, se notificará a sus padres de ello, y por supuesto se les invitará a desistir en su intento de enviar este tipo de contenidos. También se advertirá sobre búsquedas de este tipo de contenidos, tanto a través de Siri como de la búsqueda de Apple. Todas estas novedades llegarán con iOS 15, iPadOS 15, WatchOS 8 y macOS Monterey.