Apple ha optado por no participar en conversaciones de seguridad de IA con la Casa Blanca

La Casa Blanca se reúne con empresas de IA

La Casa Blanca se reunió con líderes de siete empresas para impulsar compromisos voluntarios para desarrollar una IA segura y transparente, pero Apple no estuvo entre los asistentes y no está claro por qué. El gobierno anunció recientemente que ha obtenido compromisos voluntarios de siete empresas líderes en inteligencia artificial (IA) para abordar los riesgos que plantea la IA. Esta iniciativa enfatiza los principios de seguridad y confianza en el desarrollo de tecnologías de IA. Las empresas que se han comprometido a participar incluyen Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI. Curiosamente, a pesar del trabajo de Apple en IA y aprendizaje automático, la empresa está ausente de las conversaciones. La ausencia de Apple en esta iniciativa genera dudas sobre la postura de la empresa sobre la seguridad de la IA y su compromiso con la gestión de los riesgos asociados con las tecnologías de la IA.

Compromisos e iniciativas de IA

Uno de los compromisos clave de estas empresas es garantizar que los productos de IA se sometan a rigurosas pruebas de seguridad internas y externas antes de su lanzamiento al público. El objetivo de las pruebas es proteger contra los riesgos significativos de la IA, como la bioseguridad, la ciberseguridad y los impactos sociales más amplios. Además, estas empresas han asumido la responsabilidad de compartir información crítica sobre la gestión del riesgo de IA. El intercambio de esta información no se limitará a la industria, sino que también se extenderá a los gobiernos, la sociedad civil y la academia. El objetivo es establecer las mejores prácticas de seguridad, proporcionar información sobre los intentos de eludir las medidas de seguridad y fomentar la colaboración técnica. En términos de seguridad, estas empresas están invirtiendo fuertemente en medidas de ciberseguridad. Un enfoque clave es proteger los pesos de modelos de IA patentados y no publicados, que son componentes críticos de un sistema de IA. Las empresas acordaron que estos pesos modelo solo deben publicarse cuando haya intención y teniendo en cuenta los posibles riesgos de seguridad. Además, facilitan el descubrimiento y el informe de vulnerabilidades en sus sistemas de IA por parte de terceros, lo que garantiza que cualquier problema en curso se identifique y resuelva rápidamente.
El presidente Biden se reúne con empresas de IA sobre estándares y compromisos de seguridad. Fuente: Kenny Holston/The New York Times Para ganarse la confianza del público, estas empresas están desarrollando mecanismos técnicos sólidos para garantizar que los usuarios puedan identificar el contenido generado por IA, como a través de sistemas de marcas de agua. Este enfoque permite que la creatividad dé rienda suelta a la IA al tiempo que minimiza el riesgo de fraude y engaño. Además, estas empresas se han comprometido a informar públicamente sobre sus sistemas de IA, cubriendo los riesgos sociales y de seguridad para abordar áreas como el impacto de la IA en la justicia y el sesgo. La investigación es también un enfoque importante. Las empresas otorgan gran importancia a la investigación de los riesgos sociales que pueden implicar los sistemas de IA. Esto incluye evitar el sesgo y la discriminación dañinos y proteger la privacidad del usuario. También están comprometidos con el uso de la IA para abordar algunos de los desafíos más apremiantes de la sociedad, desde prevenir el cáncer hasta frenar el cambio climático. El gobierno también está desarrollando una orden ejecutiva y buscando una legislación bipartidista para fomentar la innovación responsable de la IA. Han consultado a numerosos países, incluidos Australia, Brasil, Canadá, Francia, Alemania, India, Japón y el Reino Unido, para crear un marco internacional sólido para el desarrollo y uso de la IA.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.