No, Google Bard no está capacitado en datos de Gmail

Bard es una herramienta de IA generativa que puede cometer errores

La principal herramienta de modelo de lenguaje de Google, Bard, dice que ha sido entrenada en Gmail, pero Google ha negado que ese sea el caso. Bard es una IA generativa o modelo de lenguaje grande (LLM) que puede proporcionar información basada en su gran conjunto de datos. Al igual que ChatGPT y herramientas similares, no es realmente inteligente y, a menudo, hará las cosas mal, lo que se denomina «alucinación». Un tweet de Kate Crawford, autora e investigadora principal de Microsoft Research, muestra una respuesta de Bard que sugiere que Gmail se incluyó en su conjunto de datos. Sería una clara invasión a la privacidad del usuario si fuera cierto. Pero el espacio de trabajo de Google Twitter la cuenta responde, en el que señaló que Bard es un experimento temprano y cometerá errores, y confirmó que el modelo no fue entrenado con información de Gmail. La ventana emergente en el sitio web de Bard también advierte a los usuarios que Bard no siempre responderá correctamente a las consultas. Estas herramientas generativas de IA no son infalibles y los usuarios con acceso a menudo intentan extraer información que de otro modo estaría oculta. Consultas como las de Crawford a veces pueden proporcionar información útil, pero en este caso Bard estaba equivocado. Google incluso solicita a los usuarios que recurran a la búsqueda web cuando un LLM como Bard devuelve una respuesta. Si bien puede ser interesante ver lo que dirá, no se garantiza que sea preciso.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.