Selecciona Edición
Entra en EL PAÍS
Conéctate ¿No estás registrado? Crea tu cuenta Suscríbete
Selecciona Edición
Tamaño letra

La concepción de una Internet más inteligente

La inteligencia artificial que permitiría a las máquinas pensar en lugar de limitarse a seguir órdenes ha sido esquiva con los investigadores

Artículo publicado en la edición del jueves 23 de octubre de la selección semanal de The New York Times ofrecida por EL PAIS.

A partir de los miles de millones de documentos que constituyen Internet y los vínculos que los entretejen, los informáticos y un creciente grupo de empresas de reciente creación están encontrando nuevas maneras de explotar la inteligencia humana. Su objetivo es añadir un elemento de significado a la Red actual que haría de ella más una guía que un catálogo, e incluso proporcionaría los cimientos para sistemas que puedan razonar a semejanza de los seres humanos. Ese nivel de inteligencia artificial, en el que las máquinas pensarían en lugar de limitarse a seguir órdenes, ha sido esquivo con los investigadores.

Conocida como Web 3.0, la iniciativa está en sus primeros estadios, y la propia idea ha generado escepticismo y ha sido tachada de inalcanzable. Pero las tecnologías subyacentes ganan adeptos con rapidez en grandes empresas como IBM y Google, así como en pequeñas compañías. Sus proyectos a menudo se centran en sencillas y prácticas aplicaciones, desde recomendaciones vacacionales a predicciones sobre el próximo éxito musical.

Pero en el futuro, unos sistemas más potentes podrían actuar como asesores personales en ámbitos tan diversos como la planificación económica, con un sistema inteligente que, por ejemplo, trazaría un plan de jubilación para una pareja, o una asesoría educativa, que ayudaría a un estudiante de secundaria a dar con la universidad adecuada. Los proyectos destinados a crear la Web 3.0 se valen de unos ordenadores cada vez más potentes que pueden realizar búsquedas rápidas y completas en Internet. “Yo lo llamo la Base de Datos Internacional”, comenta Nova Spivack, fundador de una nueva empresa cuya tecnología detecta relaciones entre bits de información rastreando la Red. “Pasaremos de una Red de documentos conectados a una Red de datos conectados”.

En los últimos meses, la Web 2.0, que engloba la capacidad para vincular aplicaciones (como la cartografía) y servicios (como las páginas para colgar fotos) en la Red, se ha convertido en el elemento de moda como sucedió con las puntocom en Sillicon Valley.

Pero hasta ahora no había aflorado el interés comercial por la Web 3.0, o la “Red semántica”, por la idea de añadir significado. El ejemplo clásico de la Web 2.0 eran las páginas “híbridas”: por ejemplo, la conexión de una ciberpágina de alquiler de viviendas con Google Maps para crear un servicio nuevo y más útil que muestra automáticamente la ubicación de cada oferta de alquiler.

En cambio, el Santo Grial de los artífices de la Red semántica es la creación de un sistema que dé una respuesta razonable y completa a una sencilla demanda: “Busco un lugar cálido para pasar las vacaciones y dispongo de 2.300 euros. Ah, y tengo un hijo de 11 años”.

Con el sistema actual, esa demanda puede suponer horas de búsqueda en listas de vuelos, hoteles y coches de alquiler, y las opciones con frecuencia son contradictorias. Con la Web 3.0, la misma búsqueda ofrecería un paquete vacacional completo con una planificación tan meticulosa como si lo hubiera organizado un agente de viajes humano.

Cómo se crearán esos sistemas y cuándo ofrecerán respuestas coherentes es motivo de un acalorado debate entre investigadores, académicos y tecnólogos comerciales. Algunos se centran en crear una gran estructura nueva que sustituya a la Red actual; otros desarrollan pragmáticas herramientas que se valen de la Red actual. Pero todos coinciden en que si aparecen esos sistemas, adquirirán de inmediato un mayor valor comercial que los buscadores actuales, que ofrecen miles o incluso millones de documentos, pero como norma no responden preguntas de forma directa.

Un ejemplo extraordinariamente rentable pone de relieve el potencial que entraña explotar el conocimiento humano: la tecnología básica que hizo posible Google, conocida como Page Rank, aprovecha de manera sistemática el conocimiento humano y las decisiones sobre qué es importante para otros resultados de búsqueda.

Hoy en día, los investigadores van más allá. Por ejemplo, la empresa de Spivack, Radar Networks, es una de las que trabaja para explotar el contenido de páginas de software social, que permiten a los usuarios colaborar para recabar y sumar sus ideas a una amplia gama de contenidos, que van desde los viajes al cine. La tecnología de Radar se apoya en una base de datos de próxima generación que almacena asociaciones, como la relación de una persona con otra (compañero, hermano), en lugar de elementos específicos como texto o números.

Un ejemplo que indica el potencial de esos sistemas es KnowItAll, un proyecto de un grupo de miembros de la Universidad de Washington que ha sido financiado por Google. Un sistema de prueba creado mediante esa tecnología es Opine, que está diseñado para extraer y agregar información colgada por los usuarios en páginas de productos y reseñas.

Un proyecto de demostración que se centra en hoteles comprende” conceptos como temperatura de la habitación, comodidad de las camas y precio del hotel, y puede distinguir entre ideas como “estupendo”, “casi estupendo” o “en general bien” para ofrecer respuestas útiles y directas.

Mientras que las páginas actuales de recomendaciones sobre viajes obligan a la gente a examinar largas listas de comentarios y observaciones, el sistema de la Web 3.0 sopesaría y clasificaría todos los comentarios y, mediante una deducción cognitiva, encontraría el hotel adecuado para cada usuario.

“El sistema sabrá que impoluto es mejor que limpio”, comenta Oren Etzioni, un investigador de inteligencia artificial de la Universidad de Washington que es el jefe del proyecto. “Cada vez hay una mayor conciencia de que el texto en la Red es un recurso tremendo”.

En su estado actual, a menudo se define a Internet como algo que se encuentra en su fase Lego, en la que los diferentes elementos pueden unirse todos unos con otros. Quienes idean la siguiente fase, la Web 3.0, la ven como una era en la que las máquinas empezarán a hacer cosas aparentemente inteligentes.

Los investigadores y empresarios dicen que, aunque es improbable que existan sistemas completos de inteligencia artificial a corto plazo, si es que llegan a existir, el contenido de la Red ya se está volviendo más inteligente. Webcams inteligentes vigilan a los intrusos, mientras que programas de correo electrónico reconocen fechas y ubicaciones.

Existe un debate en torno a si sistemas como Radar serán la fuerza impulsora detrás de la Web 3.0, o si la inteligencia surgirá de forma más orgánica a partir de tecnologías que extraigan sistemáticamente significado de la Red actual. Quienes pertenecen al segundo bando afirman que ven sus primeros ejemplos en servicios como del.icio.us y Flickr, los sistemas de marcadores y para compartir fotografías adquiridos por Yahoo, y Digg, un servicio de noticias que recurre a las opiniones agregadas por los lectores para encontrar artículos de interés.

En Flickr, por ejemplo, los usuarios etiquetan las fotos, simplificando así la identificación de imágenes de maneras que en el pasado habían esquivado a los científicos. “Con Flickr puedes dar con imágenes que un ordenador nunca podría encontrar”, afirma Prabhakar Raghavan, jefe de investigación de Yahoo. “Algo que nos ha desafiado durante 50 años de repente se ha vuelto trivial. Sin la Red, no habría sido así”.