Aviso: si la IA de nuestra red funciona mal, tú eres el responsable
Las redes sociales incluyen ya en sus términos de servicio una referencia a sus herramientas de inteligencia artificial generativa propias. Admiten que pueden cometer fallos, pero exigen que el usuario asuma la responsabilidad de lo generado
Para el 1 de enero de 2025 los términos de servicio de Instagram y de Facebook se actualizarán. El pasado 20 de noviembre se actualizaron los de LinkedIn, antes lo intentó X sin avisar y probablemente otras redes sociales hagan lo propio. Una de las motivaciones comunes es incorporar a las condiciones de uso el marco para utilizar las herramientas de inteligencia artificial (IA) generativa propias de cada red social.
No se trata de utilizar ChatGPT o Google Gemini para generar contenido y pegarlo en las redes sociales. En este caso son las propias Instagram, Facebook o LinkedIn quienes ofrecen sus sistemas de inteligencia artificial. Están integrados dentro de las plataformas y fácilmente accesibles a los usuarios como un recurso más. Sin embargo, las tres redes sociales vuelcan la responsabilidad en el usuario si comparte un contenido generado con IA propia que sea impreciso o incluso ofensivo.
Esto se produce aun cuando admiten que las respuestas que ofrecen sus IA generativas pueden ser erróneas o llevar a equívoco. Un aspecto intrínseco a este tipo de tecnología. Las condiciones del servicio de Meta AI, presente en Facebook e Instagram, destacan: “No se puede garantizar la precisión de su contenido [el generado con Meta AI], incluidas las Respuestas, que pueden resultar desagradables o molestas”.
En sus renovadas condiciones de uso, LinkedIn señala que el contenido que genere su funcionalidad de IA generativa “podría ser inexacto o incompleto, demorarse, inducir a error o no ser adecuado para tus fines”. Ruega al usuario que revise y edite el contenido generado antes de compartirlo y añade que “eres responsable de garantizar que [el contenido] cumple nuestras ‘Políticas para la comunidad profesional’, incluido el hecho de no compartir información engañosa”.
Para Sara Degli-Esposti, investigadora del CSIC y autora del libro La ética de la inteligencia artificial, la postura esbozada no deja lugar a dudas: “Esta política va en la línea de: ‘no sabemos lo que puede salir mal y cualquier cosa que salga mal es problema del usuario’. Es como decirle que le van a dar una herramienta que saben que puede ser defectuosa”.
La IA de LinkedIn sirve para generar textos que después se publicarán en la red social. De momento solo está disponible en inglés y para usuarios de pago. Meta AI, en Instagram y Facebook, se puede usar para escribir un mensaje, hacerle preguntas, incluso en un chat de grupo, pedirle que modifique una foto o generar una imagen desde cero. Por ahora no está disponible en la Unión Europea.
“El tema fundamental es que aquí se están proporcionando funcionalidades con herramientas que no han terminado de ser testeadas y, de hecho, el testeo lo van a hacer los mismos usuarios”, comenta Degli-Esposti. “De alguna forma es como si sutilmente admitieran que ponen a tu disposición una herramienta, pero matizan que esta herramienta puede que aún tenga problemas, que es como decir que aún está en fase de desarrollo. Tendrían que comunicarte que estás asumiendo un riesgo adicional”.
En los términos de Meta AI se hace una velada alusión a que la inteligencia artificial generativa aún se encuentra en una fase incipiente, aunque se habla en positivo de ello. “Las IA son una nueva tecnología y siguen mejorando”, rezan las condiciones de uso y rematan con una advertencia: “No podemos garantizar que sean seguras, que nunca sufran errores ni que funcionen sin interrupciones, demoras o imperfecciones”. En otro apartado, el texto interpela directamente al usuario: “Reconoces y aceptas que tú, no Meta, eres responsable de tu uso del contenido generado por la IA en función de tus Instrucciones”.
Son conceptos que podrían estar claros para un usuario avanzado de sistemas de IA generativa, pero no para toda la gente. “La clave está en la falta de cultura y educación actual sobre la IA generativa, sobre cómo obtenemos información de ella, cómo se debe contrastar y cómo debemos aproximarnos a ella”, señala Javier Borràs, investigador del CIDOB especializado en la intersección entre tecnología y democracia. “Estos sistemas, por su propia naturaleza, no te ofrecen respuestas verdaderas o falsas. Te ofrecen un resultado basado en una predicción estadística extraída de todos los datos que tienen. No distinguen entre lo que es verdadero y falso, te ofrecen una probabilidad. Este conocimiento no está extendido entre los usuarios”.
En busca de un usuario formado e informado
El dilema ético viene al poner a disposición del público masivo de las redes sociales herramientas de IA generativa fácilmente accesibles. ¿No debería hacerse? Borràs apunta que los usuarios terminarían por utilizar otros sistemas de terceros. “Quizá lo que deberían hacer [las redes sociales] es que esta información, de que los resultados pueden ser inexactos y que se deben contrastar, esté clara cuando obtienes un resultado. El usuario debería tener todo el rato el recordatorio de que esto puede suceder, que aparezca cuando obtiene una respuesta”, plantea el investigador del CIDOB.
En la versión en inglés, Meta AI tiene una letra pequeña, como descargo de responsabilidad, bajo la barra para preguntar al sistema: “Los mensajes generados con Meta AI pueden ser imprecisos o inapropiados. Obtén más información”, esta última parte permite pinchar en un enlace. Al mismo tiempo, recuerda en las condiciones de uso: “Si planeas usar las Respuestas [de Meta AI] por cualquier motivo, será tu exclusiva responsabilidad verificarlas”.
Una de las preocupaciones de introducir herramientas de IA generativa accesibles a los usuarios de redes sociales es la expansión de la desinformación. Un mal para el que han servido de altavoz estas plataformas desde hace años. Sin embargo, no está claro que la IA haya tenido un gran impacto en este campo durante el año electoral de 2024, crítico por el número de elecciones que había en todo el planeta. Borràs no cree que las herramientas de las redes sociales tengan un mayor impacto del que pueden tener sistemas de terceros.
Es un debate donde aparece la responsabilidad individual. Degli-Esposti destaca que desde el punto de vista ético existe otra visión que pone por delante este aspecto: “El autor es el que proporciona el prompt al sistema. Esto quiere decir que se mantiene un elemento de autonomía por parte del usuario, que es el que va guiando a la IA en su generación y es el que decide si se queda con ese producto final”.
El contraargumento viene porque cuando sus usuarios utilizan su IA generativa, las redes sociales obtienen beneficios, a nivel competitivo, de entrenamiento de los algoritmos e incluso de carácter económico. Pues cuanto más contenido se genere y se comparta se podrá introducir en la plataforma más publicidad, la principal fuente de ingresos de las redes sociales.
“Se necesitaría un proceso de educación a los usuarios, para que tengan una cultura de cómo funciona la IA generativa y de los riesgos que tiene. Y las propias empresas que se lucran con ello tendrían que tener la responsabilidad de ser parte de este proceso”, opina Borràs. Y añade que la formación debería ir más allá: alcanzar al sistema educativo y al tejido empresarial. Una fórmula para que todos usemos con confianza los sistemas de IA generativa.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.