Prepárate para conocer a los clones de GPT del chat


Edward Olive/Getty Images ChatGPT puede ser el algoritmo más famoso y potencialmente valioso del momento, pero las técnicas de inteligencia artificial utilizadas por OpenAI para proporcionar su inteligencia no son únicas ni secretas. Los proyectos de la competencia y los clones de código abierto pronto pueden hacer que los bots de estilo ChatGPT estén disponibles para que cualquiera pueda copiarlos y reutilizarlos. Stability AI, una startup que ya ha desarrollado una tecnología avanzada de generación de imágenes de código abierto, está trabajando en un competidor abierto para ChatGPT. «Estamos a solo unos meses del lanzamiento», dijo Emad Mostaque, director ejecutivo de Stability. Varias nuevas empresas competidoras, incluidas Anthropic, Cohere y AI21, están trabajando en chatbots propietarios similares al bot de OpenAI.
La próxima ola de chatbots sofisticados hará que la tecnología sea más común y visible para los consumidores, así como más accesible para las empresas, desarrolladores e investigadores de IA. Eso podría acelerar la prisa por monetizar las herramientas de IA que generan imágenes, código y texto. Empresas consolidadas como Microsoft y Slack están integrando ChatGPT en sus productos, y muchas empresas emergentes se esfuerzan por desarrollar una nueva API de ChatGPT para desarrolladores. Sin embargo, una mayor disponibilidad de la tecnología también puede complicar los esfuerzos para predecir y mitigar los riesgos involucrados. La capacidad seductora de ChatGPT para proporcionar respuestas persuasivas a una amplia gama de preguntas también significa que a veces inventa hechos o adopta personajes problemáticos. Puede ayudar en tareas maliciosas como la creación de código de malware o campañas de spam y desinformación. Como resultado, algunos investigadores han pedido que se reduzca la velocidad del uso de sistemas similares a ChatGPT mientras se evalúan los riesgos. «No hay necesidad de detener la investigación, pero ciertamente podríamos regular el uso generalizado», dice Gary Marcus, un experto en IA que ha tratado de llamar la atención sobre riesgos como la desinformación generada por IA. «Podríamos, por ejemplo, solicitar estudios sobre 100.000 personas antes de lanzar estas tecnologías a 100 millones de personas». Una mayor disponibilidad de los sistemas de estilo ChatGPT y el lanzamiento de versiones de código abierto harían que la investigación o el público en general fueran más difíciles de restringir el uso. Y la competencia entre empresas grandes y pequeñas para adoptar o mantenerse al día con ChatGPT sugiere poco interés en reducir la velocidad, y en cambio parece estimular la adopción de la tecnología. La semana pasada, LLaMA, un modelo de IA desarrollado por Meta, y similar al núcleo de ChatGPT, se filtró en línea después de compartirlo con algunos investigadores académicos. El sistema podría usarse como un componente básico para crear un chatbot y publicarlo. levantó preocupaciones entre aquellos que temen que los sistemas de IA conocidos como modelos de lenguaje grande y chatbots como ChatGPT construidos sobre ellos se utilicen para generar información errónea o automatizar violaciones de seguridad cibernética. Algunos expertos argumentan que tales riesgos pueden ser exagerados y otros sugieren que una tecnología más transparente en realidad ayudará a otros a protegerse del abuso.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.