_
_
_
_
Reportaje:Sillicon Valley | VIAJES POR LA HISTORIA

La gran revolución del siglo XX

Yolanda Monge

Corría el año 1971 cuando Intel creó el primer microprocesador. Era capaz de hacer unos 6.000 cálculos en un solo segundo. Quedaba despejado el camino hacia los ordenadores y la era de Internet. Desde entonces todo el mundo se ha hecho familiar con el nombre de Silicon Valley y se han diseñado miles de modelos de ordenadores, cada cual más sofisticado. Intel hoy día factura 35.000 millones de dólares (26.000 millones de euros) anuales en microprocesadores y demás artículos relacionados. Cada año invierte unos 6.000 millones en investigación y desarrollo y emplea a unas 100.000 personas. Y sigue sumando. Intel no se ha limitado a operar en la meca de la tecnología. En los años ochenta desembarcó en India y en China, integrando sus plantas en ambos países dentro de sus proyectos más importantes. Además, la compañía ha contratado a investigadores en países tan diversos como Filipinas, Irlanda o Rusia.

Todo se hizo más sencillo: las funciones de control no ocupaban decenas de circuitos
El microprocesador 4004 nació para vivir en una calculadora, el PC todavía estaba lejos
AMD reaccionó como un competidor honrado y avisó a Intel de la filtración

Intel había nacido en 1968, cuando los emprendedores Gordon Moore y Robert Noyce dejaron su trabajo en la empresa Fairchild Semiconduc-tors y se unieron para crear una compañía a su medida. Comenzaron creando semiconductores y chips. Terminaron por establecer un postulado: la Ley de Moore. El enunciado es sencillo: "El número de transistores de un circuito integrado por los mínimos componentes se duplica aproximadamente cada 24 meses". Esto significa que cada dos años los creadores de circuitos son capaces de integrar más y más transistores, doblando su capacidad cada dos años. De ahí la revolución en la tecnología en los años recientes. Precios cada vez más bajos y ordenadores más rápidos y potentes. De hecho en el último cuarto de siglo la capacidad de transistores en un microprocesador se ha incrementado en más de 3.000 veces.

A la hora del bautizo, los fundadores pensaron en darle a su empresa un nombre compuesto, formado por sus dos apellidos: Moore Noyce. Sonaba gracioso, ya que pronunciadas en inglés, estas dos palabras significan "más ruido" ("more noise"). Al final, por aquello de que las compañías deben de tener una imagen seria, se inclinaron por unir las primeras letras de los nombres Integrated Electronics. Acababa de nacer Intel.

En los setenta nadie veía el verdadero potencial de la informática. El microprocesador 4004 nació para vivir en una calculadora. Y el nacimiento del PC estaba aún relativamente lejos. Según comentaba recientemente el presidente de Intel, Emeritus Moore, "a mediados de los setenta alguien me vino con una idea de lo que básicamente sería el PC. La idea era que podíamos colocar un procesador 8080 con un teclado y una pantalla y venderlo en el mercado doméstico. Y yo pregunté: ¿Para qué serviría? Y la única respuesta fue que las amas de casa podrían llevar las cuentas desde ahí. Personalmente, no vi nada útil en esta idea, así que ni me lo pensé dos veces". Ni siquiera en Intel son profetas en su tierra. "Al rebajar el tamaño y el precio, Intel abrió el camino para llegar a los ordenadores tal y como los conocemos hoy", asegura el historiador David K. Allison.

Pero con el tiempo llegó el primer PC, el primer ordenador personal. Y con el tiempo, el dominio de la empresa IBM en el mercado. Fue precisamente IBM quien elegiría a Intel para crear los microprocesadores de sus primeros modelos. El 3 de noviembre de 1962, el diario The New York Times publicó por primera vez el término "computadora personal", donde el padre del primer ordenador de uso comercial, John Mauchly, decía que no había "razón alguna para pensar que el niño o niña medios no pueden ser los dueños de una computadora personal". Todo un visionario. Mauchly murió en 1980. Pero hubiera visto su sueño confirmado al ver a los menores (y no tan menores) jugando horas y horas con sus consolas de videojuegos.

Con el microprocesador de Intel todo se hizo más sencillo: los cálculos aritméticos y lógicos se agilizaron. Las funciones de control ya no ocupaban decenas y decenas de circuitos, sino uno solo, de silicona y relativamente fácil de fabricar. "Nuestros investigadores han logrado unos hitos clave y maravillosos con los avances en el rendimiento informático en paralelo y con múltiples núcleos", afirma Justin Rattner, investigador y director de tecnología en Intel. "Estos avances indican un camino en el futuro cercano", añade, "para redefinir lo que todos esperamos de nuestros ordenadores y de Internet tanto en nuestros hogares como en las oficinas".

Los historiadores de la informática llevan décadas debatiendo cuál fue el primer ordenador personal. Hay quien dice que fue el Altair 8800, puesto en venta en diciembre de 1974 por la compañía MITS de Nuevo México. Este ordenador llevaba un microprocesador Intel 8080, no tenía teclado y costaba entre 400 y 500 dólares. Dos desconocidos estudiantes de Harvard -Bill Gates y Paul Allen- leyeron sobre este nuevo producto, se hicieron con un modelo y diseñaron una versión del lenguaje de programación Basic para el Altair. Los dos se mudaron a Nuevo México y crearon una nueva compañía: Micro-Soft.

Allá por 1978, Intel vendió el 8088 a IBM, para que lo instalara dentro de sus recién creados ordenadores personales, de un tamaño minúsculo comparados con sus antecesores. La revista Fortune no se lo pensó dos veces, intuyó el filón, y nombró a Intel "un triunfo de los negocios en los años setenta". Los años pasaron, la técnica se perfeccionó, y, en seis años, Intel llegaría a vender 15 millones de procesadores para otros tantos millones de ordenadores a lo largo y ancho del mundo. Más adelante, llegaría el color, la capacidad de operar varios programas a la vez y la velocidad de vértigo. Al final de los ochenta, Intel permitió "el hecho de tener un ordenador con pantalla a color por vez primera y hacer edición en el escritorio a una velocidad importante", cuenta David K. Allison, historiador de tecnologías en el Museo Nacional de Historia Americana.

El año 1993 fue un año con algunas fotos para la historia. Checoslovaquia se dividió, Bill Clinton se mudó a la Casa Blanca y Yasir Arafat e Isaac Rabin se dieron la mano en una imagen histórica en Washington. También fue un año revolucionario para Intel, que creó el microprocesador Pentium. Es curioso que en ese mismo año IBM anunciara pérdidas por casi 5.000 millones de dólares, las más abultadas que jamás había experimentado una compañía americana hasta la fecha. Aun así, con el Pentium, los ordenadores se adaptaron a la realidad: veloces como la vida misma, con sonidos naturalistas e imágenes que nada tenían que envidiar a las fotografías.

El primer Pentium, de 32 bits, contenía 3,3 millones de transistores, el triple que su antecesor, el modelo 80486. De la fotografía, el Pentium permitió el paso al vídeo. Del vídeo, a la videoconferencia. Y de ahí, a las comunicaciones en tiempo real, la realidad virtual y el universo multimedia. Intel fue mejorando sus Pentium hasta que el modelo número 4 se vendió como el máximo de la perfección. "Si la velocidad de los coches hubiera aumentado igual en el mismo tiempo, ahora podríamos conducir desde San Francisco a Nueva York (4.125 kilómetros) en unos 13 segundos", anunció la compañía entonces.

La siguiente gran revolución llegó en mayo de 1997, cuando Intel presentó el procesador Pentium II, con siete millones y medio de transistores y que abrió el camino hacia sistemas operativos más complejos y programas de navegación en Internet con aplicaciones en tres dimensiones. El Pentium II permitió la entrada en el mercado de los PC de reproductores de DVD y gráficos de alta calidad.

Cuando parecía que todo estaba en calma, llegó Apple. La compañía de Steve Jobs había usado los procesadores de IBM, llamados PowerPC, desde 1994. Al final, hasta los Mac cayeron rendidos ante Intel. Los nuevos modelos de la compañía californiana, como el MacBook, en venta desde 2006, están construidos sobre un microprocesador Intel Core. A estas alturas todos los Macs que se ponen en venta han migrado ya a Intel, generando todo un filón de negocio.

Pero no hay gran empresa sin un gran rival. Sucede desde siempre: Microsoft contra Apple, Coca-Cola contra Pepsi, Nintendo contra Sega. La Némesis de Intel es AMD. En este momento ambas se encuentran sumidas en una cruenta guerra de precios. Intel va ganando la mano debido a su alianza con Apple. Mientras la obsesión de Intel fue siempre crear microprocesadores más y más rápidos, AMD ha prestado atención también a reducir el consumo de energía y en mejorar la función de los nuevos modelos. AMD le enseñó a Intel que no todo está en la rapidez y la compañía demostró haber aprendido la lección cuando comercializó el Core 2 Duo: contiene dos procesadores y su funcionalidad ha sido todo un éxito. "Los procesadores Core 2 Duo son, simplemente, los mejores procesadores del mundo", dijo en 2006 Paul Otellini, presidente y consejero delegado de Intel. "Desde que Intel presentó el procesador Pentium, en el sector no ha ocurrido un cambio tan significativo en el corazón del ordenador. El procesador Core 2 Duo para sobremesa es toda una maravilla en ahorro de energía, cuenta con 291 millones de transistores y consume un 40% menos de energía, a la vez que ofrece el rendimiento necesario para las aplicaciones actuales y las del futuro". AMD marcó el camino en esta ocasión y se ha revelado en los últimos años como un rival creíble, con un 20% de la cuota de mercado frente al 80% de Intel. Incluso la marca de ordenadores Dell se ha pasado a AMD.

En la agenda de Intel está seguir rebajando los precios de sus últimos modelos Pentium y Core, con descuentos de hasta un 70%. Debido a estas reducciones, los beneficios de Intel se situaron en unos 1.600 millones de dólares en el primer trimestre de 2007. El beneficio por acción cayó un 17% y el beneficio operativo, un 3%. Al producir más barato, las ventas aumentan pero el dinero recibido desciende. La compañía está en una operación de reajuste de plantilla que le costará unos 6.000 empleos en todo el mundo.

En 1995 la mítica rivalidad entre AMD e Intel saltó a las primeras páginas de los diarios con un verdadero caso de espionaje industrial. La policía detuvo a Guillermo Gaede, un argentino de 43 años que trabajó tanto para AMD como para Intel y que en 1993 intentó vender dos diseños de Intel (el preciado Pentium y el i486) a AMD. En ese momento, AMD reaccionó como un competidor honrado. Al recibir unas fotos y una oferta de venta enviadas por Gaede, llamó a Intel y le avisó de la filtración. El argentino pasó 33 meses en la cárcel.

La historia de Intel es la historia de toda una revolución que está lejos de acabar. Según el historiador David K. Allison, "el futuro puede pasar por acabar con los discos duros e integrar la memoria de los ordenadores en tarjetas flas, que almacenan memoria permanentemente, aunque se desconecte la corriente. Hasta ahora se usa este tipo de memoria en móviles, PDA o cámaras de fotos. Según este experto, el nuevo gran paso que la informática tiene que dar es construir los ordenadores personales con ellas.

Un joven prueba un programa en un centro de investigación de Microsoft en Silicon Valley.
Un joven prueba un programa en un centro de investigación de Microsoft en Silicon Valley.AFP
Instalaciones de la multinacional Oracle en Redwood City, en la bahía de San Francisco.
Instalaciones de la multinacional Oracle en Redwood City, en la bahía de San Francisco.BLOOMBERG

RUTA DE VIAJE. El traje de conejo

Si algo llama la atención en el museo del chip de Intel son los famosos "trajes de conejo", trajes que mantienen el proceso de creación de chips en un entorno esterilizado, libre de contaminaciones externas. Se usaron ampliamente en los ochenta hasta que los robots sustituyeron, poco a poco, a las personas. Hoy día los trabajadores vestidos de blanco son, en su mayoría, supervisores. Y ya no tienen que tratar directamente con productos químicos que pueden ser potencialmente peligrosos para su salud. Visten de un material blanco antiestático, con máscaras que les cubren la cara y un sistema especial de ventilación para que puedan respirar aire filtrado.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Sobre la firma

Yolanda Monge
Desde 1998, ha contado para EL PAÍS, desde la redacción de Internacional en Madrid o sobre el terreno como enviada especial, algunos de los acontecimientos que fueron primera plana en el mundo, ya fuera la guerra de los Balcanes o la invasión norteamericana de Irak, entre otros. En la actualidad, es corresponsal en Washington.

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_