La poderosa IA de Google revela un error cognitivo humano


Getty Images Cuando lees una oración como esta, tu pasado te dice que fue escrita por un ser humano que piensa y siente. Y en este caso, en realidad hay un humano escribiendo estas palabras: [Hi, there!] Pero hoy en día, algunas oraciones que parecen notablemente humanas en realidad son generadas por sistemas de inteligencia artificial entrenados en grandes cantidades de texto humano. La gente está tan acostumbrada a suponer que el lenguaje fluido proviene de un pensamiento y sentimiento humano que puede ser difícil demostrar lo contrario. ¿Cómo es probable que las personas naveguen por este territorio relativamente desconocido? Debido a la tendencia continua de asociar la expresión fluida con el pensamiento fluido, es natural, pero potencialmente engañoso, pensar que si un modelo de IA puede expresarse con fluidez, pensará y sentirá lo mismo que los humanos. Por lo tanto, quizás no sea sorprendente que un ex ingeniero de Google afirmara recientemente que el sistema de inteligencia artificial de Google, LaMDA, tiene un sentido de sí mismo porque puede generar texto de manera elocuente sobre sus supuestos sentimientos. Este evento y la subsiguiente cobertura de los medios dieron lugar a una serie de artículos y publicaciones correctamente escépticos sobre la afirmación de que los modelos informáticos del lenguaje humano son sensibles, es decir, capaces de pensar, sentir y experimentar. La pregunta de qué significaría que un modelo de IA sea sensible es complicada (ver, por ejemplo, la actitud de nuestro colega), y nuestro objetivo aquí no es aclararlo. Pero como lingüistas, podemos usar nuestro trabajo en ciencia cognitiva y lingüística para explicar por qué es demasiado fácil para los humanos caer en la trampa cognitiva de pensar que una entidad que puede usar el lenguaje con fluidez es sensible, consciente o inteligente. anuncio publicitario

Uso de IA para generar un lenguaje similar al humano

El texto generado por modelos como LaMDA de Google puede ser difícil de distinguir del texto escrito por humanos. Esta hazaña impresionante es el resultado de un programa de décadas de construcción de modelos que producen un lenguaje gramatical y significativo.
Agrandar / El primer sistema informático que involucró a los humanos en un diálogo fue un software de psicoterapia llamado Eliza, desarrollado hace más de medio siglo. Las primeras versiones, que se remontan al menos a la década de 1950, conocidas como modelos de n-gramas, simplemente contaban las ocurrencias de ciertas frases y las usaban para adivinar qué palabras probablemente aparecerían en ciertos contextos. Por ejemplo, es fácil ver que «mantequilla de maní y mermelada» es una frase más probable que «mantequilla de maní y piña». Si tiene suficiente texto en inglés, seguirá viendo la frase «mantequilla de maní y mermelada», pero es posible que nunca vea la frase «mantequilla de maní y piña». Los modelos, conjuntos de datos y reglas actuales que se aproximan al lenguaje humano difieren de estos primeros intentos en varios aspectos importantes. En primer lugar, esencialmente están capacitados a través de Internet. En segundo lugar, pueden aprender relaciones entre palabras que están muy alejadas, no solo palabras que son vecinas. En tercer lugar, están configurados por una gran cantidad de «perillas» internas, tantas que incluso a los ingenieros que las diseñan les resulta difícil entender por qué producen una cadena de palabras y no otra. Sin embargo, la tarea de los modelos sigue siendo la misma que en la década de 1950: determinar qué palabra es probable que aparezca a continuación. Hoy son tan buenos en esta tarea que casi todas las oraciones que producen parecen fluidas y gramaticalmente correctas.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.