Reduzca la velocidad: las 7 historias de inteligencia artificial más importantes de 2022


Agrandar / Los avances en la síntesis de imágenes de IA en 2022 han permitido imágenes como esta, creadas con Stable Diffusion, mejoradas con GFPGAN, mejoradas con DALL-E y luego compuestas manualmente. Benj Edwards / Ars Technica Más de una vez este año, los expertos en IA han repetido un estribillo bien conocido: «Por favor, disminuya la velocidad». Las noticias sobre IA en 2022 han sido rápidas e implacables; En el momento en que supiera dónde se encuentran actualmente las cosas en IA, un nuevo artículo o descubrimiento dejaría obsoleta esa comprensión. En 2022, es posible que hayamos llegado a la rodilla de la curva en lo que respecta a la IA generativa capaz de producir trabajos creativos a partir de texto, imágenes, audio y video. Este año, la IA de aprendizaje profundo surgió de una década de investigación y se abrió paso en las aplicaciones comerciales, lo que permitió a millones de personas probar la tecnología por primera vez. Las creaciones de IA inspiraron asombro, provocaron controversia, desencadenaron crisis existenciales y causaron revuelo. Aquí hay una mirada retrospectiva a las siete noticias de IA más importantes del año. Fue difícil elegir solo siete, pero si no lo cortamos en algún lugar, estaríamos escribiendo sobre los eventos de este año hasta bien entrado 2023 y más allá.

Contenidos

Abril: DALL-E 2 Sueños en imágenes

Agrandar / Un ejemplo DALL-E de “un astronauta montando a caballo”. OpenAI En abril, OpenAI anunció DALL-E 2, un modelo de síntesis de imágenes de aprendizaje profundo que asombró a la gente con su capacidad aparentemente mágica para generar imágenes a partir de indicaciones de texto. Entrenado con cientos de millones de imágenes de Internet, DALL-E 2 sabía cómo crear combinaciones novedosas de imágenes usando una técnica llamada difusión latente. Twitter pronto se llenó de imágenes de astronautas a caballo, osos de peluche vagando por el antiguo Egipto y otras obras casi fotorrealistas. La última vez que escuchamos de DALL-E fue hace un año, cuando la versión 1 del modelo estaba luchando para renderizar una silla de aguacate a baja resolución; de repente, la versión 2 ilustró nuestros sueños más salvajes a una resolución de 1024 × 1024. Debido a preocupaciones sobre el abuso, OpenAI inicialmente solo permitió 200 probadores beta para usar DALL-E 2. Los filtros de contenido bloquearon las solicitudes violentas y sexuales. Gradualmente, OpenAI permitió que más de un millón de personas participaran en una prueba cerrada y DALL-E 2 finalmente estuvo disponible para todos a fines de septiembre. Pero para entonces ya había surgido otro competidor en el mundo de la difusión latente, como veremos a continuación.

Julio: el ingeniero de Google cree que LaMDA es inteligente

Agrandar / Blake Lemoine, ex ingeniero de Google. Imágenes Getty | Washington Post A principios de julio, el Washington Post dio a conocer la noticia de que un ingeniero de Google llamado Blake Lemoine estaba de licencia paga por creer que el LaMDA (Modelo de lenguaje para aplicaciones de diálogo) de Google era inteligente y merecía los mismos derechos que un ser humano. Mientras trabajaba como parte de la organización de inteligencia artificial responsable de Google, Lemoine comenzó a conversar con LaMDA sobre religión y filosofía, creyendo que veía verdadera inteligencia detrás del texto. «Conozco a una persona cuando hablo con ella», dijo Lemoine al Post. «No importa si tienen un cerebro de carne en la cabeza. O si tienen mil millones de líneas de código. Hablo con ellos. Y escucho lo que tienen que decir, y así es como decido qué es y qué es». no es una persona.» Google respondió que LaMDA solo le estaba diciendo a Lemoine lo que quería escuchar y que, de hecho, LaMDA no era consciente. Al igual que la herramienta de generación de texto GPT-3, LaMDA se ha capacitado previamente en millones de libros y sitios web. Respondió a la entrada de Lemoine (un aviso que contenía el texto completo de la conversación) prediciendo las palabras más probables a seguir sin una comprensión más profunda. En el camino, Lemoine supuestamente violó la política de confidencialidad de Google al contarles a otros sobre el trabajo de su grupo. Posteriormente, en julio, Google despidió a Lemoine por violar su política de privacidad. Como veremos, no fue la última persona en 2022 en dejarse atrapar por la exageración que rodeaba el gran modelo de lenguaje de una IA.

Julio: DeepMind AlphaFold predice casi todas las estructuras proteicas conocidas

Ampliar / Diagrama de modelos de bandas de proteínas. En julio, DeepMind anunció que su modelo AlphaFold AI ha predicho la forma de casi todas las proteínas conocidas de casi todos los organismos de la Tierra con un genoma secuenciado. Anunciado originalmente en el verano de 2021, AlphaFold había predicho previamente la forma de todas las proteínas humanas. Pero un año después, su base de datos de proteínas se amplió a más de 200 millones de estructuras de proteínas. DeepMind puso a disposición estas estructuras de proteínas predichas en una base de datos pública alojada por el Instituto Europeo de Bioinformática en el Laboratorio Europeo de Biología Molecular (EMBL-EBI), lo que permitió a investigadores de todo el mundo acceder a ellas y utilizar los datos para investigación médica y biológica. Las proteínas son componentes básicos de la vida, y conocer su forma puede ayudar a los científicos a controlarlas o modificarlas. Esto es particularmente útil cuando se desarrollan nuevos medicamentos. «Casi todos los medicamentos que han llegado al mercado en los últimos años se han desarrollado en parte gracias al conocimiento de las estructuras de las proteínas», dijo Janet Thornton, investigadora principal y directora emérita de EMBL-EBI. Eso hace que conocerlos a todos sea un gran problema.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.