Las pruebas confirman que macOS Finder no busca imágenes CSAM

El buscador de macOS no busca en sus imágenes material ilegal.

AppleInsider puede recibir una comisión de afiliado por compras realizadas a través de enlaces en nuestro sitio. Apple no verifica las imágenes que se muestran en el Finder de macOS en busca de contenido CSAM, según encontró una investigación realizada por macOS Ventura, y el análisis indica que Visual Lookup de Apple no se usa para este propósito específico. En diciembre, Apple anunció que había descartado los planes para escanear fotos de iPhone cargadas en iCloud en busca de material de abuso sexual infantil (CSAM) después de la reacción violenta de los críticos. Sin embargo, aparentemente hubo rumores de que Apple todavía estaba realizando verificaciones en macOS Ventura 13.1, lo que llevó a una investigación por parte de un desarrollador. Según Howard Oakley de Electric Light Co., una publicación de blog del 18 de enero comenzó a circular afirmaciones de que Apple envió automáticamente «identificadores de imágenes» que un usuario buscó en el Finder «sin el consentimiento o conocimiento de ese usuario». El plan para el escaneo de MASI habría implicado verificar las imágenes localmente en el dispositivo en busca de contenido potencial de MASI mediante un sistema hash. Luego, el hash de la imagen se enviaría y se compararía con una lista de archivos de MASI conocidos. Mientras que la idea Al escanear imágenes y crear un hash neuronal que se envía a Apple para describir las propiedades de la imagen bien podría usarse para escaneos CSAM, las pruebas de Oakley muestran que no se usa activamente de esta manera. En cambio, parece que el sistema de búsqueda visual de Apple, que permite macOS e iOS identificar personas y objetos en una imagen, así como un texto, podría confundirse con este tipo de comportamiento.

Sin pruebas en las pruebas

Como parte de la prueba, se ejecutó macOS 13.1 en una máquina virtual y se usó la aplicación Mints para escanear un registro unificado de actividad en la instancia de VM. En la máquina virtual, se mostró una colección de imágenes en la vista de galería del Finder durante un minuto, capturando y almacenando más de 40 000 entradas de registro. Si el sistema se usara para el análisis CSAM, habría conexiones salientes repetidas desde «mediaanalysisd» a un servidor Apple para cada imagen. El análisis de medios se refiere a un elemento utilizado en la búsqueda visual, donde las fotos y otras herramientas pueden mostrar información sobre los elementos detectados en una imagen, p. B. «gato» o los nombres de los objetos. En cambio, los registros mostraron que ninguna entrada estaba asociada con mediaanalysisd en absoluto. Luego se descubrió que otro extracto del registro era muy similar a la búsqueda visual que aparecía en macOS 12.3, ya que el sistema no ha cambiado significativamente desde esa versión. Por lo general, mediaanalysisd se comunica con los servidores de Apple muy tarde en el proceso, ya que requiere hashes neuronales generados previamente a través del análisis de imágenes. Después de enviar y recibir una respuesta de los servidores de Apple, los datos recibidos se utilizan para identificar los elementos del usuario dentro de la imagen. Pruebas adicionales revelaron que hubo otros intentos de enviar datos para su análisis en lugar de habilitar el texto en vivo. En su conclusión, Oakley escribe que «no hay evidencia de que las imágenes locales de una Mac tengan identificadores que se calculan y cargan en el servidor de Apple cuando se ven en las ventanas del Finder». Mientras que las imágenes que se muestran en las aplicaciones con compatibilidad con Visual Lookup producen hashes neuronales que se pueden enviar a los servidores de Apple para su análisis. Excepto que tratar de recopilar los hashes neuronales para detectar CSAM «estaría condenado por muchas razones». Las imágenes locales en la vista previa de QuickLook también se someten a un análisis de texto en vivo normal, pero «esto no genera ningún identificador que pueda cargarse en los servidores de Apple». Además, la búsqueda visual se puede desactivar desactivando las Sugerencias de Siri. La búsqueda de análisis de medios externos también podría bloquearse con un firewall de software configurado para bloquear el puerto 443, aunque «esto puede deshabilitar otras funciones de macOS». Oakley concluye el artículo con una advertencia de que «afirmar que las acciones de un usuario tienen efectos controvertidos requiere pruebas completas de toda la cadena de causalidad. Basar afirmaciones en la conclusión de que dos eventos pueden estar relacionados sin comprender la naturaleza de ambos es imprudente, si no malicioso».

CSAM sigue siendo un problema

Si bien Apple se ha desviado de la idea de realizar un procesamiento local de detección de CSAM, los legisladores aún creen que Apple no está haciendo lo suficiente para abordar el problema. En diciembre, el comisionado de seguridad electrónica de Australia atacó a Apple y Google por «uso claramente inadecuado e inconsistente de tecnología ampliamente disponible para detectar material de abuso infantil y solucionarlo». En lugar de escanear el contenido existente directamente, lo que sería en gran medida ineficaz ya que Apple utiliza copias de seguridad y almacenamiento de fotos encriptadas de extremo a extremo, Apple parece querer adoptar un enfoque diferente. Es decir, uno que puede detectar desnudez contenida en fotos enviadas a través de iMessage.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.