Ante el auge de la inteligencia artificial (IA) en la generación de contenidos, Meta está introduciendo cambios significativos en sus reglas jugando la carta de la transparencia. Una respuesta a las críticas formuladas por su consejo de supervisión que dará como resultado un método de trazabilidad de este contenido.
Facebook, el antiguo gigante de las redes sociales, planea aumentar el etiquetado del contenido de IA, incluido deepfakes, a partir del próximo mes. La meta ? Proporcionar a los usuarios una visión más clara del contenido al que están expuestos, especialmente cuando podría ser engañoso e influir en su opinión sobre temas cruciales. Esto es particularmente relevante en el año 2022, en el que se producirán varias elecciones importantes en todo el mundo.
Sin embargo, para los deepfakes, Meta solo impondrá etiquetas si el contenido contiene « banderas de imagen de IA » estándar de la industria o si el creador ha explicado que se trata de contenido generado por IA. Fuera de estos límites, el contenido generado por IA probablemente estará exento de etiquetado.
Estos cambios en la política de Meta consideran un enfoque más orientado a la « transparencia y contexto adicional », en lugar de eliminar los medios manipulados. En resumen, más etiquetas, menos eliminación, probablemente será el futuro de la gestión de contenido generado por IA y medios manipulados en las plataformas de Meta, incluidas Facebook e Instagram.
El próximo mes de julio, Meta planea dejar de eliminar contenido únicamente porque esté manipulado, dando tiempo a los usuarios para comprender el proceso de etiquetado.
Esta reconfiguración podría permitir a Meta cumplir con los crecientes requisitos legales para la moderación de contenido, incluidos los impuestos por el Reglamento de Servicios Digitales (DSA) de la Unión Europea. Lo que requiere que Meta encuentre un equilibrio entre eliminar contenido ilegal, reducir los riesgos sistémicos y proteger la libertad de expresión.
La Junta de Supervisión de Meta, financiada por la empresa pero a la que se le permite operar de forma independiente, valida un pequeño porcentaje de las decisiones de moderación de contenido y puede emitir recomendaciones de políticas. Si bien Meta no está obligada a aceptar este consejo, esta vez ha optado por cambiar su enfoque hacia el contenido generado por IA y los medios manipulados.
Monika Bickert, vicepresidenta de política de contenido de Meta, admitió en una publicación de blog publicada recientemente que la compañía estaba adoptando un enfoque demasiado estrecho al considerar solo videos creados o editados por IA para que pareciera que una persona estaba diciendo algo que nunca dijo. . De hecho, el consejo de supervisión había criticado esta actitud el pasado mes de febrero, tras un incidente relacionado con un vídeo falsificado del presidente Biden.
Anticipándose a un futuro lleno de contenido sintético, Meta está cooperando con otros actores de la industria para crear estándares técnicos comunes para identificar contenido de IA. Para ello, se basa en etiquetas con forma de IA que se agregan a los vídeos, audios e imágenes generados por IA, que se basarán en la detección de señales de IA o en las divulgaciones de IA que los usuarios informan que descargan contenido generado por IA.
Meta también pretende ampliar el alcance de su política, etiquetando una variedad mucho más amplia de contenidos. Si una imagen, video o audio alterado digitalmente presenta un alto riesgo de engañar al público sobre un asunto importante, Meta se reserva el derecho de agregar una etiqueta más destacada.
Los esfuerzos de Meta para abordar estos problemas también incluyen trabajar con casi 100 verificadores de datos independientes para ayudar a identificar los riesgos asociados con el contenido manipulado. Estas entidades externas seguirán revisando contenido falso y engañoso generado por IA. Y si estos verificadores califican el contenido como « falso o alterado », Meta responderá limitando el alcance del contenido afectado, lo que significa que será menos visible en los feeds de los usuarios.
Está claro que con el aumento de la proliferación de contenido sintético, gracias al auge de las herramientas de inteligencia artificial generativa, la carga de trabajo sobre los hombros de los verificadores de datos externos no hará más que aumentar.