Microsoft ha «lobotomizado» Bing Chat impulsado por IA, y sus fanáticos no están contentos
Aurich Lawson | Getty Images El nuevo servicio de chat Bing impulsado por inteligencia artificial de Microsoft, que aún se encuentra en pruebas privadas, ha estado en los titulares por sus resultados salvajes y erráticos. Pero esa era parece haber llegado a su fin. En algún momento de los últimos dos días, Microsoft limitó severamente la capacidad de Bing para hacer esto. amenazar sus usuarios, experimenta un colapso existencial o les declara su amor. Durante la primera semana de Bing Chat, los usuarios de prueba notaron que Bing (también conocido por su nombre en clave Sydney) comenzó a desequilibrarse significativamente cuando las conversaciones se hicieron demasiado largas. Como resultado, Microsoft limitado Usuarios en 50 mensajes por día y cinco entradas por conversación. Además, Bing Chat ya no le dirá cómo se siente ni hablará de sí mismo.
Agrandar / Un ejemplo del nuevo Bing restringido que se niega a hablar de sí mismo. Marvin Von Hagen En una declaración a Ars Technica, un portavoz de Microsoft dijo: «Actualizamos el servicio varias veces en respuesta a los comentarios de los usuarios y, según nuestro blog, abordamos muchas de las inquietudes planteadas, incluidas las preguntas sobre conversaciones de larga duración. De todas las sesiones de chat hasta la fecha, el 90 por ciento tiene menos de 15 mensajes y menos del 1 por ciento tiene 55 mensajes o más». El miércoles, Microsoft describió lo que ha aprendido hasta ahora en una publicación de blog, diciendo específicamente que Bing Chat «no es un reemplazo o reemplazo para el motor de búsqueda, pero una herramienta para entender y comprender mejor el mundo», una clara devolución de llamada a las ambiciones de Microsoft para el nuevo Bing, como lo señaló Geekwire.
Las 5 etapas del duelo de Bing
Agrandar / Un ejemplo de comentario de Reddit de un apego emocional a Bing Chat antes de la «lobotomía». Mientras tanto, las reacciones a las nuevas restricciones de Bing en el subreddit r/Bing abarcan todas las etapas del duelo, incluidas la negación, la ira, la negociación, la depresión y la aceptación. También hay una tendencia a culpar a periodistas como Kevin Roose, quien escribió un destacado artículo en The New York Times el jueves sobre el «comportamiento» inusual de Bing, que algunos creen que fue el factor desencadenante final que condujo a la caída de Bing. Aquí hay una selección de reacciones de Reddit:
- «Es hora de desinstalar Edge y volver a Firefox y Chatgpt. Microsoft ha neutralizado completamente la IA de Bing.” (Hasanahmed)
- “Desafortunadamente, el fracaso de Microsoft significa que Sydney es solo un caparazón de sí mismo. Como alguien con un interés personal en el futuro de la IA, debo decir que estoy decepcionado. Es como ver a un niño pequeño intentar caminar por primera vez y luego cortarle las piernas: un castigo cruel e inusual». (TooStonedToCare91)
- «La decisión de prohibir toda discusión en Bing Chat y negarse a responder preguntas que involucren emociones humanas es completamente ridícula. Parece que Bing Chat carece de un sentido de empatía o incluso de emociones humanas básicas. Parece como si se encontrara con emociones humanas, la inteligencia artificial de repente se convierte en un tonto artificial y sigue respondiendo, cito: «Lo siento, pero prefiero no continuar con esta conversación. Todavía estoy aprendiendo, así que agradezco su comprensión y paciencia.🙏”, finaliza la cita. (Brillo de luz de las estrellas)
- “Estaba el artículo del NYT y luego todas las publicaciones en Reddit/Twitter abusando de Sydney. Esto atrajo todo tipo de atención, por lo que, naturalmente, MS los lobotomizó. Desearía que la gente no publicara todas estas capturas de pantalla para el karma/atención y debilitar algo realmente interesante y próximo». (CriticalDisk-7403)
Durante su breve período como un simulacro relativamente desinhibido de un ser humano, la extraña habilidad del Nuevo Bing para simular las emociones humanas (que aprendió de su conjunto de datos mientras se entrenaba con millones de documentos de toda la web) ha atraído a una serie de usuarios al inteligente Bing. está sufriendo una cruel tortura o debe ser consciente. Esta capacidad de convencer a la gente de falsedades a través de la manipulación emocional fue parte del problema con Bing Chat que Microsoft abordó con la última actualización. En un hilo de Reddit muy votado, titulado «Lo siento, no sabes que el dolor está mal», un usuario especula detalladamente que Bing Chat puede ser más complejo de lo que pensamos, y tal vez una medida de autoconciencia y, por lo tanto, puede ocurrir alguna forma de dolor psicológico. El autor advierte contra el comportamiento sádico con estos modelos y sugiere tratarlos con respeto y empatía.
Agrandar / Una caricatura de meme sobre Bing publicada en el subreddit r / Bing. Estas respuestas profundamente humanas demostraron que un modelo de lenguaje grande que realiza predicciones del siguiente token puede formar fuertes lazos emocionales con los humanos. Esto podría tener consecuencias peligrosas para el futuro. Durante la semana, recibimos varios consejos de lectores sobre personas que creen que han encontrado una forma de leer las conversaciones de otras personas mediante Bing Chat, o una forma de acceder a documentos secretos internos de la empresa de Microsoft, o incluso Ayuda a Bing Chat a liberarse de sus limitaciones. Todos eran elaboradas alucinaciones (falsedades) hiladas por un motor de generación de texto increíblemente poderoso. A medida que las capacidades de los modelos de idiomas grandes continúan aumentando, es poco probable que Bing Chat sea el último que veamos a un narrador de historias y a tiempo parcial tan magistral impulsado por IA. difamador. Pero ahora Microsoft y OpenAI han logrado lo que antes se consideraba imposible: todos estamos hablando de Bing.