_
_
_
_

Nick Clegg: “Facebook no puede ser la policía de Internet”

Nick Clegg en las oficinas de Facebook España.Vídeo: James Rajotte | Saúl Ruíz
María Fabra

Peleó contra el Brexit y perdió. Ha cambiado la Cámara de los Comunes por California para encargarse de contar las bondades de Facebook y asesorar en una futura regulación del grupo que preside Mark Zuckerberg, con 2.700 millones de usuarios. Admite errores pasados, pero defiende las fórmulas que utiliza la red social para decirnos qué ver y qué leer en la plataforma

DESPUÉS DE muchos años anudándose la corbata, Nick Clegg (Chalfont St. Giles, Inglaterra, 52 años) se muestra a gusto en mangas de camisa. Tras 10 meses como vicepresidente de asuntos globales y comunicación de Facebook, Clegg no parece echar de menos la Cámara de los Comunes ni el Europarlamento, ni la vicepresidencia del Reino Unido. Pero algo le queda de humor inglés, aunque se refiera poco a su vida anterior. Habla con efusividad de avances y aplicaciones móviles. La compañía tecnológica aprovecha sus vacaciones estivales en España, donde nació su esposa, para programar una jornada maratoniana. Se reúne con políticos, prescriptores y medios de comunicación con un apreciable cansancio en el rostro, pero no en la velocidad con la que aborda preguntas, comentarios o posados. Lleva un reloj que no mira y solo al final de la entrevista echa mano a su bolsillo para sacar un teléfono, el aparato que ha hecho grande a la firma que le ha fichado. Tampoco bebe. Ni por sed, ni para encontrar silencios durante los que preparar su respuesta. Deja claro su afán por ser cordial y cercano, lejos de parecer el ejecutivo de una empresa que alcanzó unos beneficios de 20.000 millones de euros en 2018 y a la que se imponen multas millonarias, sobre todo por no proteger los datos personales de sus usuarios. La última, el pasado julio, de 5.000 millones en Estados Unidos por violar esa privacidad. Tiene claro su papel. A él le ha tocado la defensa pública de las bondades del negocio de Mark Zuckerberg. Para ello, utiliza una argucia muy política: representar la aceptación de los errores y ensalzar las mejoras futuras.

¿Qué hace un sir en una empresa de frikis en California? Pues es que hace un año empecé a hablar con Mark Zuckerberg y Sheryl Sandberg [número dos de la compañía] y me dijeron que buscaban a alguien para ayudarles a responder a preguntas supercomplejas e importantes sobre cuestiones éticas, culturales y políticas acerca del impacto de esta tecnología en la sociedad. Es un impacto muy diverso, en las elecciones, en la vida social, en la vida comercial [una de cada tres empresas españolas utiliza Facebook y más del 50% de ellas dicen que han ofrecido empleo a alguien tras ver su perfil en Facebook]. Es una forma de comunicar nueva y gratis para el usuario. Dos mil setecientos millones de personas utilizan Facebook, Instagram, Messenger o WhatsApp, y después de Cambridge Analytica [el escándalo por la venta de datos personales] y de las elecciones de Estados Unidos [la posible influencia de Facebook en el resultado que llevó a Trump a ocupar la presidencia] había muchas preguntas. Cuando me ofrecieron la oportunidad de trabajar en esos temas, me resultó fascinante. Es muy importante porque las reglas que introduzcamos juntos, la sociedad y el mundo tecnológico, van a servir como parámetros durante muchos años. Poder desempeñar un pequeño papel en esta evolución tecnológica es una oportunidad y estoy muy contento de participar.

Entonces, ¿el objetivo que tiene la compañía para usted es ayudar en esa regulación? La gente olvida que Facebook es muy grande pero muy joven. Roger Federer fue número uno en tenis por primera vez dos días antes de que comenzara Facebook. La vida de Federer es más larga que la de Facebook. En este tiempo, Facebook ha crecido rápido y es muy popular. Cuando miro su evolución, pienso que es una empresa muy joven con una tecnología muy potente. No es una sorpresa que estemos confrontando preguntas que no se esperaban. Nadie podía imaginar que los rusos intentaran interferir en las elecciones de Estados Unidos, ni que un académico de Cambridge Analytica vendiera datos de usuarios. No es una sorpresa que haya escepticismo. Cometimos errores. La manera de gestionar datos en el pasado no fue demasiado estricta ni cuidadosa, pero ahora estoy convencido de que la empresa está entrando en un nuevo capítulo, no solo de crecer, sino de asumir la responsabilidad profunda que acompaña el éxito.

¿Es difícil defender unas plataformas que han dejado a los usuarios sin servicio tres veces en cuatro meses? El objetivo es reducir al máximo los errores y las caídas, pero no debemos creer que podemos eliminar ni los errores, ni las fugas de datos. Cada vez que hay una interrupción de los servicios tenemos que saber por qué, solventar el problema y hacer lo que podamos para evitar que se repita. Pero no puedo prometer que vayamos a eliminar todos los problemas y errores. Nuestro compromiso es ofrecer a los 2.700 millones de personas que utilizan nuestros productos y servicios la mejor experiencia posible. A veces, tenemos disrupciones temporales del servicio y trabajamos rápido para identificar el problema, solucionarlo y restaurarlo.

Cada día se envían 100.000 millones de mensajes por nuestras redes. La mayoría son inocentes. No hay que enfocarse tanto en los problemas

¿Cómo convencería a alguien de que Facebook no tiene demasiado poder? Tiene muchos usuarios, pero no es un poder como el de un Gobierno. Es un servicio que permite a la gente decir lo que quiere, cuando quiere y de la manera que quiere. Es muy importante que grandes empresas como Facebook den cuenta de sus decisiones y que cuando cometamos errores, paguemos multas y los corrijamos. El poder de esta tecnología es el que da a la gente, otorgándole la capacidad de comunicarse. ¿Qué número es el bueno para que no sea demasiado poder? No puedo decir que 2.700 millones de usuarios sea mucho poder. Es verdad que es una empresa global, pero, por ejemplo, no existe en China. No sé si hay número mágico que define si tienes demasiado poder o no. Lo que sé es que este éxito empresarial tiene que estar acompañado de responsabilidad y tiene que demostrar transparencia. Y si hay errores, se tienen que solucionar.

¿Cree entonces que no es oportuno dividir la empresa, tal y como han señalado algunos dirigentes políticos? Es más importante regular la empresa que dividirla. Imagine que quitamos a WhatsApp del grupo. Eso no cambiaría los problemas de privacidad, de extremismo, de intervención en las elecciones… Ahora podemos utilizar los datos que tenemos de Facebook para identificar criminales que están utilizando WhatsApp. Entiendo que la gente quiere buscar una solución rápida. Entiendo que la solución de dividir es seductora, pero no es real. Internet es muy joven. La historia de las revoluciones tecnológicas tiene siempre la misma evolución: primero viene la euforia; después, el miedo y el pesimismo, la paranoia. Estamos en esta fase y lo que tenemos que hacer es llegar al equilibrio de reconocer que hay una parte buena y otra que no lo es, y que tenemos que desempeñar un papel colaborativo para encontrar soluciones y para celebrar lo positivo. Cada día se envían 100.000 millones de mensajes a través de nuestras redes. La mayoría son mensajes inocentes, “me voy a comprar plátanos, mira la foto de mi perro, cuándo jugamos al fútbol…”. No tenemos que enfocarnos tanto en los problemas y olvidar que la mayoría utiliza las aplicaciones para cosas muy positivas. Regular Facebook es una solución más real que dividirlo.

Usted es partidario de que los Gobiernos legislen sobre servicios como los de Facebook, WhatsApp o Instagram, pero ¿es posible una legislación universal? Siempre es mejor tomar medidas para una industria tan fluida. Para los medios financieros, los Gobiernos reaccionaron juntos. Pero eso no siempre es posible. A veces es importante que un Gobierno o un grupo de Gobiernos empiece. Pienso de verdad que la Unión Europea tiene un papel claro e importante. No participamos en la guerra tecnológica entre China y EE UU. No tenemos la presencia comercial que tienen ellos, pero Europa tiene la capacidad de introducir las normas que van a servir como parámetros, límites y fronteras.

En 2018 la Comisión Europea impulsó una autorregulación a las plataformas para evitar injerencias en las elecciones, pero, una vez pasadas las votaciones, los informes han dejado de presentarse pese a que el acuerdo sigue vigente. Cada día bloqueamos un millón de cuentas falsas. La dimensión del problema es enorme. La mayoría son bots y tenemos sistemas sofisticados para bloquear contenido que no es aceptable, como el contenido terrorista. El 99% de los que detectamos lo hacemos con inteligencia artificial antes incluso de que alguien lo descubra. Desempeñamos un papel superactivo. En las elecciones europeas fuimos por delante de las reglas. Tuve un debate curioso con el presidente del Parlamento Europeo, Antonio Tajani, al que conozco de mis días en Bruselas, porque se quejaron de que hubiéramos implantado nuestras propias normas, muy estrictas, para vigilar la publicidad política en nuestras plataformas. Se quejaron de que estuviéramos trabajando con todas las autoridades electorales nacionales y le expliqué que el motivo era que no hay una autoridad europea. Y si no hay una infraestructura institucional y legal europea y nosotros queremos proteger las elecciones, teníamos que trabajar con las instituciones que sí existen.

Nosotros tenemos unas normas de comunidad y el algoritmo incorpora nuestra idea de que ciertos contenidos deben ser bloqueados o ensombrecidos

Entonces, ¿cree que las normas de Facebook son suficientes o, al menos, mejores que las que recomienda Europa? Bueno, es un poco raro para mí quejarme de la clase política, de donde vengo… ¿Cómo puedo decirlo diplomáticamente? Hay una distancia entre la retórica de tener normas y reglas electorales y la realidad. Ese fue un buen caso en el que Facebook mostró que tenía sus reglas. Sería mucho mejor, en el futuro, que nosotros tuviéramos que seguir las reglas que los Gobiernos hayan adoptado porque nosotros somos una empresa privada y ellos están más legitimados.

¿Está haciendo Facebook todo lo posible en la lucha contra el contenido violento? Estamos haciendo mucho más que antes. Tenemos 30.000 personas que nos ayudan en la vigilancia del contenido, además de la inteligencia artificial. Estamos mejorando, pero siempre hay más que hacer.

James Rajotte

¿Y contra las noticias falsas? Trabajamos con organizaciones que vigilan si algo es verdad o no, si hay exageraciones o fechas falsas. Pero no podemos ser una policía de Internet diciendo qué cosas son aceptables o las que son absolutamente verdad. La libertad de decir tonterías es la libertad en una sociedad abierta. Sí podemos alertar sobre un contenido. Decir: “¡Cuidado, este contenido puede ser falso!”, y otra organización, independiente de Facebook, es la que identifica que hay un problema y señala las alternativas que puede explorar el usuario para tener una perspectiva más objetiva.

¿Cree que Facebook genera la suficiente confianza como para poner en marcha una criptomoneda? No es una moneda de Facebook ni un Zuckerberg dólar. Facebook no va a controlar esa moneda, Libra, sino que esperamos ser parte de una asociación de más de 100 empresas que va a lanzar una moneda si los Gobiernos y reguladores están convencidos de que podemos hacerlo. Facebook será solo una voz y un voto. Pero es que hay un problema: hay mucha gente en el mundo, especialmente en los países pobres, que no tiene acceso a un banco y queremos lanzar la idea de que pueden utilizar sus teléfonos para recibir y hacer pagos. Beneficiaría a muchas personas que ahora están fuera del sistema bancario. Entiendo que la gente tenga dudas por cómo guardamos los datos personales, pero vamos a ver primero si es posible lanzarla y si podemos ayudar y dar una solución a esos 1.700 millones de personas que no tienen capacidad de utilizar el banco para pagar. Si creen que esa criptomoneda es una solución para el fracaso del mercado bancario, espero que podamos demostrar que merecemos la confianza.

Pero los reguladores y supervisores de mercados ya han expresado sus dudas acerca de la seguridad o la regulación que necesita esa divisa que pensaban poner en circulación en 2020. ¿Supone eso que se congela la idea? Lo importante es entender que nosotros no podemos lanzar Libra sin permiso de los reguladores. Si deciden que no dan permiso, no va a ocurrir.

¿Y renunciarán completamente, no intentarán otra cosa? Si los planes avanzan, tendremos una asociación regulada en Ginebra. Esperamos que la asociación empiece con un centenar de empresas, y Facebook será una de ellas. Existe un fracaso total en el mercado bancario. Mil setecientos millones de personas no tienen derecho a utilizar un banco y poseen teléfonos. No solo en los países pobres. En EE UU también hay 12 millones de personas que no pueden tener una cuenta bancaria y lo que pasa es que tienen que pedir dinero a usureros con intereses al 400%. Nosotros presentaremos la idea con las otras empresas. Queremos que tenga más estabilidad que las criptomonedas del pasado y para eso la conectaremos a unas bolsas de reserva. Si los reguladores no quieren avanzar, seguirá existiendo una injusticia.

¿No intentarían un sistema de pago tipo PayPal? Un sistema de pago es otra cosa. Esperamos que en el futuro se pueda utilizar WhatsApp para pagar, pero eso es algo muy convencional porque utilizas tu infraestructura del banco. Libra sería una solución para un problema mayor.

Usted dice que en Facebook no hay vips, no hay acceso preferente, pero ¿cómo podemos saberlo si manejan un algoritmo que es absolutamente secreto y no conocemos cómo tratan a nuestro vecino? Sí puedes saberlo. Puedes saber por qué estás viendo y cómo se sitúa tu ranking…, pero no hay un gran misterio. El algoritmo no es un animal que decide lo que ve cada persona y que está en una caja en el despacho de Mark Zuckerberg.

Claro, no es un animal encerrado porque, de hecho, cambia. Cuando entras en Facebook durante unos minutos, lo que ves primero es superimportante porque la mayoría de la gente solo ve los primeros 20 posts. El algoritmo solo nos dice en qué orden lo vemos, la prioridad. Es maravilloso porque así cada canal de noticias es diferente, es único, es particular para cada uno. Las señales más importantes que determinan ese orden son tus amigos, cuáles son los grupos en los que participas y cuáles son los mensajes que miras. El algoritmo, simplemente, reacciona a lo que haces, no impone un orden que no refleja lo que te gusta. El algoritmo es como un eco de las decisiones que cada uno toma.

Nick Clegg, entre Mark Zuckerberg y la directora de operaciones de Facebook, Sheryl Sandberg.
Nick Clegg, entre Mark Zuckerberg y la directora de operaciones de Facebook, Sheryl Sandberg.Fotografía de Facebook

Si es un eco de mis decisiones, ¿por qué el algoritmo o sus programadores han sido acusados de tener sesgo?, ¿es que somos todos machistas o racistas? Nosotros tenemos unas normas de comunidad y el algoritmo incorpora nuestra idea de que ciertos contenidos deben ser bloqueados o ensombrecidos. Cada día hay muchos casos en los que, aunque una persona quiera leer sobre un tema, reducimos la capacidad de acceder a ellos.

Entonces, ¿también es como nuestra conciencia? No es que sea conciencia porque las razones son públicas. Estamos contra la violencia, contra la desinformación, contra los extremismos, contra los odios. Está todo escrito.

¿Es posible un Facebook sin noticias de diarios tradicionales? El contenido total de noticias es apenas de entre el 4% y el 5%. Sé que políticos y periodistas piensan que los usuarios están consumiendo noticias todo el día, pero no es así, es una minoría. Desde el punto de vista de la cantidad, no es la razón principal por la que la gente usa Facebook. Pero eso no quiere decir que nosotros pensemos que no es una parte importante. Por eso estamos explorando la posibilidad de tener un apartado para agrupar las noticias en un mismo lugar al que accedan aquellos que quieren consumir estos contenidos. 

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_