Meta lanza un nuevo conjunto de datos para ayudar a los investigadores de IA a maximizar la inclusión y la diversidad en sus proyectos

Meta tiene como objetivo ayudar a los investigadores de IA a hacer que sus herramientas y procesos sean más universalmente inclusivos mediante la publicación de un nuevo conjunto masivo de datos de clips de video cara a cara que abarcan una amplia gama de personas diferentes que ayudarán a los desarrolladores a medir qué tan bien funcionan sus modelos para diferentes grupos de población.

Como puede ver en este ejemplo, la base de datos Casual Conversations v2 de Meta contiene 26 467 monólogos en video grabados en siete países y tiene 5567 participantes pagados, con datos de atributos demográficos, visuales y de voz para medir la efectividad sistemática. Según Meta: “El conjunto de datos basado en el consentimiento se informó y se formó a través de una extensa revisión de la literatura sobre categorías demográficas relevantes y se creó en consulta con expertos internos en áreas como los derechos civiles. Este conjunto de datos proporciona una lista detallada de 11 categorías autoproporcionadas y anotadas para medir aún más la equidad y la solidez algorítmica en estos sistemas de IA. Hasta donde sabemos, es el primer conjunto de datos de código abierto de videos recopilados de varios países que utilizan información demográfica muy precisa y detallada para probar la imparcialidad y la solidez de los modelos de IA”. Meta tiene muy claro que estos datos se obtuvieron con el permiso directo de los participantes y no se obtuvieron de forma encubierta. Por lo tanto, no toma su información de Facebook ni proporciona imágenes de IG: el contenido incluido en este conjunto de datos se diseñó para maximizar la inclusión al proporcionar a los investigadores de IA más muestras de personas de diversos orígenes para usar en sus modelos. Curiosamente, la mayoría de los participantes provienen de India y Brasil, dos economías digitales emergentes que desempeñarán un papel importante en la próxima fase de desarrollo tecnológico.

El nuevo conjunto de datos ayudará a los desarrolladores de IA a abordar las preocupaciones sobre las barreras del idioma y la diversidad física que han sido problemáticas en algunos contextos de IA. Por ejemplo, algunas herramientas de superposición digital no reconocieron ciertos atributos de los usuarios debido a limitaciones en sus modelos de entrenamiento, mientras que algunas se consideraron totalmente racistas, al menos en parte debido a limitaciones similares. Este es un enfoque clave de la documentación de Meta sobre el nuevo conjunto de datos: «Con las crecientes preocupaciones sobre el rendimiento de los sistemas de IA en diferentes escalas de tonos de piel, decidimos usar dos escalas diferentes para la anotación del tono de piel. La primera es la escala de Fitzpatrick de seis tonos, que es el esquema de clasificación numérica más utilizado para los tonos de piel debido a su simplicidad y uso generalizado. La segunda es la escala de tonos de piel de 10 tonos, presentada por Google y utilizada en sus servicios de búsqueda y fotografía. La inclusión de ambas escalas en Casual Conversations v2 proporciona una comparación más clara con el trabajo anterior que usa la escala Fitzpatrick, al tiempo que permite la medición basada en la escala Monk más completa». Esta es una consideración importante, especialmente dado que las herramientas de IA generativa continúan ganando importancia y ver un uso creciente en muchas otras aplicaciones y plataformas. Para maximizar la inclusión, estas herramientas deben capacitarse en conjuntos de datos extendidos, lo que garantiza que todos se tengan en cuenta en dicha implementación y que cualquier error u omisión se detecte antes del lanzamiento. El conjunto de datos de conversaciones casuales de Meta ayudará con esto y podría ser un conjunto de capacitación extremadamente valioso para proyectos futuros. Puede leer más sobre la base de datos de Meta’s Casual Conversations v2 aquí.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.