OpenAI lanza una nueva versión de GPT a medida que las herramientas de IA generativa continúan expandiéndose

Si es nuevo en las últimas herramientas de IA generativa, probablemente debería examinarlas, ya que están a punto de convertirse en un elemento mucho más grande de nuestra conexión, a través de una serie de elementos en evolución. Hoy, OpenAI lanzó GPT-4, la próxima iteración del modelo de IA en el que se basa ChatGPT. OpenAI dice que GPT-4 puede lograr un «rendimiento a nivel humano» en una serie de tareas. “Por ejemplo, aprueba un examen simulado de la barra con una puntuación de aproximadamente el 10% superior de los examinados; Por el contrario, GPT-3.5 obtuvo una puntuación en el 10% inferior. Pasamos 6 meses iterativamente apuntando a GPT-4, aprendiendo lecciones de nuestro programa de prueba de adversarios, así como de ChatGPT, lo que resultó en nuestros mejores resultados hasta ahora (aunque lejos de ser perfectos) en términos de objetividad, capacidad de control y negación a salir de las barreras de seguridad. Estas medidas de seguridad son importantes porque ChatGPT, si bien es un logro técnico increíble, a menudo ha engañado a los usuarios al proporcionar información falsa, inventada («alucinada») o sesgada. Un ejemplo reciente de las fallas en este sistema fue evidente en Snapchat a través de su nuevo sistema «My AI», que se basa en el mismo código de back-end que ChatGPT. Algunos usuarios han descubierto que el sistema puede proporcionar información inapropiada a los usuarios jóvenes, incluidos consejos sobre el consumo de alcohol y drogas y cómo ocultárselo a los padres. Las barandillas mejoradas protegen contra esto, aunque todavía existen riesgos en el uso de sistemas de IA que generan respuestas basadas en una gama tan amplia de entradas y «aprende» de esas respuestas. Con el tiempo, nadie sabe exactamente lo que eso significará para el desarrollo de sistemas, razón por la cual algunos, como Google, han advertido contra la adopción a gran escala de herramientas de IA generativa hasta que se comprendan todas las implicaciones. Pero Google también está empujando hacia adelante. Además, bajo la presión de Microsoft, que quiere integrar ChatGPT en todas sus aplicaciones, Google ha anunciado que agregará Gmail, Docs y más IA generativa. Al mismo tiempo, Microsoft despidió recientemente a uno de sus equipos clave que trabajaban en la ética de la IA, lo que no parece ser el mejor momento dado el uso cada vez mayor de tales herramientas. Esto puede ser una señal de los tiempos ya que, desde una perspectiva comercial, el ritmo de adopción supera las preocupaciones sobre la regulación y la administración de la tecnología. Y ya sabemos cómo hacerlo: las redes sociales también vieron una adopción rápida y una difusión generalizada de los datos de los usuarios antes de que Meta y otros se dieran cuenta del daño potencial que podría causar. Parece que esas lecciones se han quedado en el camino, y el valor inmediato una vez más tiene prioridad. Y a medida que surjan más herramientas y más integraciones de las API de IA en las aplicaciones se vuelvan comunes de una forma u otra, es probable que interactúes con al menos algunas de estas herramientas en un futuro cercano. ¿Qué significa eso para su trabajo? ¿Cómo influirá la IA en su trabajo y mejorará o cambiará su proceso? Nuevamente, no lo sabemos, pero a medida que evolucionan los modelos de IA, vale la pena probarlos siempre que pueda para comprender mejor cómo se aplican en diferentes contextos y qué están haciendo para su flujo de trabajo. Ya hemos detallado cómo los especialistas en marketing de redes sociales pueden usar el ChatGPT original, y esta versión mejorada solo se basará en eso. GPT-4 también puede funcionar con entrada visual, lo que agrega otra consideración a su proceso. Pero como siempre, debe tener cuidado y asegurarse de conocer las limitaciones. Según OpenAI: «A pesar de sus capacidades, GPT-4 tiene limitaciones similares a los modelos GPT anteriores. Lo que es más importante, todavía no es completamente confiable («alucina» los hechos y comete errores en el razonamiento). Se debe tener mucho cuidado al usar los resultados del modelo de lenguaje, particularmente en contextos de alto riesgo, donde el protocolo preciso (como . . . . .) Las herramientas de IA son complementarias y, si bien sus resultados mejoran rápidamente, debe asegurarse de comprender el contexto completo de su comprensión de lo que están produciendo, especialmente en términos de aplicaciones profesionales. Pero, de nuevo, están llegando: están apareciendo más herramientas de IA en más lugares, y pronto las usará de alguna forma en su vida diaria. Eso podría hacerlo más perezoso, más dependiente de dichos sistemas y más dispuesto a confiar en sus aportes, pero tenga cuidado y utilícelos dentro de un flujo administrado, o podría perder credibilidad rápidamente.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.