_
_
_
_
educación
Opinión
Texto en el que el autor aboga por ideas y saca conclusiones basadas en su interpretación de hechos y datos

Niños y tecnología: de la cultura de la temeridad a la de la precaución

¿Por qué no se pide a las empresas tecnológicas que hagan la prueba de los beneficios educativos de sus productos o de su inocuidad para la salud de nuestros hijos?

getty

Francia quiere proteger a los bebés de móviles, tabletas y televisores con un etiquetado en los embalajes que advierta de los problemas de salud que los más pequeños pueden sufrir por la exposición a estas pantallas. Esa proposición de ley, ya aprobada en el Senado, pero que aún debe ser votada en la Asamblea Nacional, busca obligar a los fabricantes de esos dispositivos a que incluyan un aviso sobre los riesgos para el desarrollo durante la primera infancia (de 0 a 3 años).

Más información
¿Qué hay detrás de que un niño se muerda las uñas?
Ocho alimentos que nutren el cerebro de los niños

¿Medida exagerada? Tenemos pruebas de los riesgos que puede tener el consumo de pantalla en los niños: merma de la atención, aumento de la impulsividad, disminución del vocabulario, etc. Basándose en esos estudios, las principales asociaciones pediátricas recomiendan que los niños de menos de 2 años no estén expuestos a las pantallas, y que los de entre 2 a 5 años no lo estén más de una hora al día. Pero, ¿son suficientes esos estudios?, ¿son exageradas esas recomendaciones? ¿Implica necesariamente que un niño (el mío o el suyo) que usa la tecnología tenga todos esos problemas? ¿Todos los niños que usan tecnología siempre sufrirán esos problemas? Si solo hablamos de riesgos, ¿es un motivo suficiente para prohibir, o para regular a las empresas que diseñan esos dispositivos?

En realidad, de lo que se trata, es mucho más amplio y complejo que de responder a la pregunta de lo que ocurrirá con seguridad si mi hijo usa un dispositivo de forma puntual o continuada. Se trata de entender la diferencia entre la cultura de la temeridad y la de la precaución.

En 1986, el transbordador espacial Challenger explotó 73 segundos después de su lanzamiento al espacio, ante la mirada horrorizada de millones de americanos que seguían el despegue en directo. Fue el accidente más grave en la historia de la conquista del espacio. Murieron siete personas, de las cuales una no era astronauta: Christa, una maestra de primaria que había sido elegida para participar en un programa educativo que consistía en dar clases a los niños americanos en directo desde el espacio. Una idea “innovadora”, que tenía como objetivo la revitalización del interés general por la educación.

Poco después, se creó una comisión Presidencial de investigación para indagar en las causas de la explosión. La comisión estaba formada por personas, o bien afines, o que se debían al Gobierno americano o a la NASA. Solo un miembro era complemente independiente: Richard Feynman, Premio nobel de física. El informe de la comisión fue criticado por ser demasiado complaciente a los intereses de los que lo habían encargado. Algunos ingenieros que estuvieron participando en las pruebas preparatorias de la misión sabían que la explosión no fue un incidente fortuito, sino que fue la consecuencia de varias negligencias serias que se habían identificado antes del despegue. Esos ingenieros intentaron dar fe de esas negligencias durante la comisión presidencial, pero fueron callados, ignorados por los medios, uno incluso fue despedido de su trabajo. Años después, cuenta la verdad en reportajes que ya no son noticias. Y se puede leer la apreciación de los hechos de Robert Feynman en un texto que fue relegado al Apéndice F del informe de la Comisión. Pero, ¿qué es lo que pasó antes del despegue del Challenger?

Los ingenieros ya habían advertido del riesgo de explosión de unas juntas llamadas O-Rings, dada la escasa capacidad de dilatación de esas juntas en presencia de cambios extremos de temperatura. Ante previsiones de temperaturas muy bajas en víspera del despegue, advirtieron del riesgo de explosión, pidiendo un atraso del lanzamiento hasta encontrar una solución al problema de las gomas.

Entonces ocurrió algo inédito. Los altos mandos de la NASA retaron a los ingenieros que recomendaban no despegar, de hacer la prueba de que la nave iba a explotar. Los ingenieros podían proporcionar pruebas del riesgo de explosión de la nave, pero no podrían probar, fuera de toda duda razonable, que la nave iba a explotar. Para entenderlo mejor, es como si la NASA dijera: “Si hay un X % de posibilidades de que explote, no es suficiente para parar el lanzamiento, solo pararemos la misión si nos prueban que el riesgo de explosión es del 100%.” En definitiva, lo que hicieron los altos mandos de la NASA fue, ni más ni menos, invertir el peso de la prueba. ¿Por qué lo hicieron?

Hacía años que el gobierno no había cumplido con una misión espacial y estaba siendo criticado por ello por la prensa. La maestra debía dar clases desde el espacio en días lectivos, retrasar el vuelo hacía caer esas clases en días de fin de semana. El subcontratista de los O-rings no quería quedar mal con la NASA, la NASA no quería quedar mal con el gobierno, y el gobierno no quería quedar mal con la ciudadanía. En definitiva, las expectativas políticas, mediáticas y sociales eran grandes: había presión por cumplir. Y los riesgos eran trabas, obstáculos. Incómodos para los intereses particulares de todos los actores involucrados. La única salida para el despegue: invertir el peso de la prueba.

En su informe, Feynman va más allá y dice que la NASA estuvo sistemáticamente infravalorando los riesgos, que la decisión de incluir a la maestra en la tripulación se tomó con frivolidad, ya que la nave Challenger no era un vuelo comercial, sino una misión experimental. Contrasta la evaluación del riesgo de catástrofe que manejaban los altos mandos de la NASA con la de los ingenieros. Los altos mandos decían que había una posibilidad de catástrofe de 1 sobre cada 100,000 despegues, mientras que los ingenieros hablaban de 1 sobre cada 200. Esa discrepancia de criterio era consecuencia lógica de una cultura en la que no se quería acoger malas noticias, sino solo las buenas -las que beneficiaban a la reputación de la NASA y al Gobierno en la opinión pública-, lo que dificultaba el realismo en la toma de decisiones. Feynman escribe en su informe:

"Es preciso hacer recomendaciones para que los altos mandos de la NASA vivan en un mundo de realidad. Comprender los puntos débiles y las imperfecciones de la tecnología permiten intentar eliminarlos activamente. La NASA se debe a los ciudadanos, de los que pide apoyo, de ser honesto y de dar toda la información, de forma que esos ciudadanos puedan tomar buenas decisiones para la asignación de sus limitados recursos".

Cuando leo sobre esa historia, no puedo impedir hacer paralelismos con la introducción masiva de las tecnologías en la infancia. No porque piense que algún dispositivo tecnológico vaya a explotar en las manos de nuestros hijos, sino por la inversión del peso de la prueba de un experimento a gran escala. No se pide a las empresas tecnológicas que hagan la prueba de los beneficios educativos de sus productos, o de su inocuidad para la salud de nuestros hijos, sino que se exige a los que invitan a la precaución y a la prudencia (llamándolos “tecnófobos”) que hagan ellos la prueba del daño. Y como la ciencia es muy costosa y muy lenta, y la obsolescencia tecnológica es muy rápida, las evidencias siempre llegarán tarde. Llegarán cuando esa tecnología sea obsoleta y dé paso a otra a la que tampoco verán necesario probar sus bondades o su inocuidad. Y el daño, ya estará hecho.

En realidad, lo que ocurre es que somos a la vez sujeto y objeto de la ciencia, somos a la vez juez y parte de la investigación. Si nos estudiamos a nosotros mismos, entonces ¿no hay peligro de carecer de objetividad en enfocar la investigación y en acatar sus resultados? Quizás esa paradoja puede explicar que nos cueste tanto ser objetivos en encarnar la “sana duda” y que nos resulte tan incómodo hacernos preguntas arriesgadas. Quizás explica que nos cueste tanto creernos los resultados de las investigaciones, o nos cueste tanto difundirlos cuando suponen grandes cambios en nuestros estilos de vida o desautorizan nuestras opiniones o nuestras mayores ilusiones. “No me lo creo”, decía aquel tras leer un informe sobre el cambio climático. ¿Cómo llamar al que ignora o no quiere saber, pero, pese a ello, no duda en actuar? Temerario, sin más. Y cuando hay intereses económicos de por medio, todo se vuelve aun más borroso.

El Premio Nobel Feynman apunta a un fallo entre los datos proporcionados por la ciencia y la toma de decisión de los que gestionan los recursos económicos. Concluye su informe con un llamamiento a la cultura de la precaución: “Para que una tecnología sea exitosa, la realidad debe prevalecer sobre las relaciones públicas, porque la naturaleza nunca puede ser engañada.”

Catherine L’Ecuyer es autora de Educar en el asombro y de Educar en la realidad. Su blog: www.catherinelecuyer.com

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_