Una forma alternativa de multiplicar matrices
Un producto de matrices, diferente al que estudiamos en el colegio, resulta crucial en diversas áreas de las matemáticas y en la solución de algunas conjeturas
Todos conocemos a un amigo del instituto que odiaba las matemáticas. Mateo, por poner nombre a nuestro compañero, no podía entender qué motivo hacía de todo ese enjambre de símbolos algo útil para la vida. Uno de los temas que más enerva a Mateo es la multiplicación de matrices. Recordemos que las matrices son tablas de números A = (A(j,k)) (normalmente con el mismo número de filas y columnas), donde el número A(j,k) se sitúa en la fila j y la columna k. Nacieron del álgebra lineal y sin ellas no existirían los ordenadores o los móviles, por poner un ejemplo que no se cuenta en el instituto.
La suma de dos matrices A = (A(j,k)) y B = (B(j,k)) es más que aceptable. En cada posición (j,k) simplemente sumamos los elementos que había en esa misma posición en las matrices A y B, así A + B = (A(j,k) + B(j,k)). Pero el producto tiene un aspecto más enrevesado que desconcierta a Mateo. Si A y B tienen n filas y n columnas, entonces la posición (j,k) de A · B es el resultado de multiplicar el primer elemento de la fila j de A por el primer elemento de la columna k de B, hacer lo propio con los segundos elementos, con los terceros, etc. y sumar finalmente todos esos n productos.
Para colmo, resulta que A · B no es lo mismo que B · A, en general. Llegados a este punto, Mateo se indigna: ¿No era cierto que el orden de los factores no altera el producto? Pues no, la propiedad conmutativa del producto de números no funciona para el producto de matrices. Esto puede parecer desalentador, pero lo cierto es que la ausencia de la propiedad conmutativa es muy común en la vida cotidiana. No es lo mismo calentar agua y verter aceite que calentar aceite y verter agua (no hagan el experimento). Tampoco que un trilero intercambie los vasos de las posiciones 1 y 2 seguido de las posiciones 1 y 3 a que lo haga en orden inverso. Podríamos continuar así un buen rato.
En 1925, Werner Heisenberg dio un giro dramático a nuestra comprensión del mundo físico al demostrar que se pueden deducir fenómenos cuánticos desde las ecuaciones de la física de Newton
Pese al desconcierto de Mateo, las matrices tienen aplicaciones en una enorme cantidad de contextos, entre ellas en la mecánica cuántica. En 1925, Werner Heisenberg dio un giro dramático a nuestra comprensión del mundo físico al demostrar que se pueden deducir fenómenos cuánticos desde las ecuaciones de la física de Newton, cuando interpretamos las variables que dependen del tiempo como matrices infinitas en lugar de funciones. La mecánica matricial rápidamente atrajo la atención de John von Neumann (eminente matemático conocido en otros círculos por su participación en el Proyecto Manhattan o en el diseño de los ordenadores modernos), que observó por primera vez que las geometrías euclídea y riemanniana —los modelos fundamentales en mecánica clásica y relatividad general, respectivamente— no reflejan nuestro conocimiento del mundo cuántico.
La teoría de álgebras de von Neumann estudia objetos no conmutativos como las matrices de Heisenberg y da rigor matemático a la mecánica matricial. El programa científico iniciado por von Neumann es un reto científico que trasciende a sus propias contribuciones y en el que han participado matemáticos de talla indiscutible. Gracias a su trabajo, hoy podemos hablar de geometría no conmutativa, probabilidad cuántica, espacios de operadores, grupos cuánticos, espacios Lp no conmutativos... Teorías matemáticas todas ellas que aparecen nuevamente de forma natural en física teórica.
A pesar de todo ello, Mateo no puede evitar pensar que el producto de matrices es innecesariamente complicado e introduce uno nuevo: A • B = (A(j,k) . (B(j,k)). Es decir, como en la suma, el resultado es una matriz que tiene en la posición (j,k) el producto de los elementos de la posición (j,k) de A y B. Mateo está orgulloso, no sólo A • B es mucho más sencillo que A · B, también es cierto que A • B = B • A.
Los multiplicadores de Schur aparecen en múltiples ocasiones desde mediado el siglo XX. Los trabajos de Alexander Grothendieck orbitan en torno a una caracterización de ellos
Es posible que su profesor suspenda a Mateo por tal aberración, o posiblemente se sonría y le explique que A • B es el producto de Hadamard, así llamado en honor a su creador, el matemático francés Jacques Hadamard (1865-1963). Este producto también se conoce como producto de Schur, pues fue el matemático ruso-alemán Issai Schur (1875-1941) quien realmente explotó sus propiedades. A pesar de su naturaleza conmutativa, el producto de Schur esconde muchos fenómenos cuánticos. Si fijamos una matriz M, la transformación de matrices que asigna a cualquier matriz A el producto M • A se conoce como multiplicador de Schur de símbolo M.
Los multiplicadores de Schur son transformaciones misteriosas que aparecen en múltiples ocasiones ilustres desde mediado el siglo XX. Los primeros trabajos de Alexander Grothendieck —Medalla Fields en 1966 y con una vida excepcionalmente dramática—, orbitan en torno a una caracterización suya de ciertos multiplicadores de Schur. Desde finales de los años 70, el matemático danés Uffe Haagerup codificó profundas propiedades geométricas de ciertos grupos en términos de propiedades analíticas de multiplicadores de Schur. En 2011 los multiplicadores de Schur aparecieron en dos resultados fundamentales: la solución de la conjetura de Krein (1964) por Denis Potapov y Fedor Sukochev, así como un resultado muy innovador de Vincent Lafforgue y Mikael de la Salle que abre una puerta a la conjetura de rigidez de Connes, uno de los problemas más difíciles del área. El último episodio de esta historia es un resultado reciente, que resuelve un problema sobre armonías cuánticas formulado por Mikael de la Salle.
Así pues, seguro que Mateo se siente aliviado al comprobar que su sentido común no le lleva a sinsentidos, solo es necesario explorar un poco más. Quizás, después de comprender por qué sus ideas son útiles, se sienta más animado a profundizar en las ideas de otros y revisar el producto de matrices y qué es eso de la ausencia de conmutatividad.
Javier Parcet es investigador científico del Consejo Superior de Investigaciones Científicas en el Instituto de Ciencias Matemáticas (ICMAT)
Edición y coordinación: Ágata A. Timón G Longoria (ICMAT).
Café y Teoremas es una sección dedicada a las matemáticas y al entorno en el que se crean, coordinado por el Instituto de Ciencias Matemáticas (ICMAT), en la que los investigadores y miembros del centro describen los últimos avances de esta disciplina, comparten puntos de encuentro entre las matemáticas y otras expresiones sociales y culturales y recuerdan a quienes marcaron su desarrollo y supieron transformar café en teoremas. El nombre evoca la definición del matemático húngaro Alfred Rényi: “Un matemático es una máquina que transforma café en teoremas”.
Puedes seguir a MATERIA en Facebook, Twitter e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.