Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.
Recientemente se dio a conocer que John J. Hopfield y Geoffrey E. Hinton han sido galardonados con el Premio Nobel de física por sus descubrimientos e invenciones sobre aprendizaje automático (‘machine learning’) y redes neuronales artificiales. No obstante, el otorgamiento de este importante premio ha suscitado cierta controversia, al plantearse la duda de si este tipo de invenciones tienen, en realidad, una relación directa con la física o no.
Desde el punto de vista de las patentes, y citando la nota de prensa de la Real Academia Sueca de las Ciencias:
«John Hopfield inventó una red neuronal que […] utiliza la física que describe las características de los materiales debido a su espín atómico, una propiedad que hace de cada átomo un pequeño imán. La red neuronal en su conjunto se describe de forma equivalente a la energía en sistemas de espines que se encuentran en la física, y se entrena encontrando valores para las conexiones entre los nodos, de forma que las imágenes guardadas tengan menor energía».
Esta invención se divulga en la patente europea EP 0223468 B1 con título «Circuito para determinar el mejor ajuste a señales de entrada», y asignada a la empresa AT&T. En la descripción de la solicitud de patente, sus inventores (entre ellos, J. J. Hopfield) afirmaron que habían descubierto que la ganancia de los amplificadores en nuestro circuito exhibe control sobre la forma de la curva, de una manera que no es diferente al proceso de recocido (en inglés, ‘annealing’). Al igual que en algunos problemas de cristales de espín, en los que se espera que la descripción del campo efectivo -seguida continuamente desde temperaturas altas hasta temperaturas más bajas- conduzca a un estado cercano al estado de reposo termodinámico, en nuestros circuitos comenzamos con ganancias de amplificador bajas y aumentamos lentamente las ganancias hasta sus niveles definitivos. Esto produce mejores resultados computacionales”. Así pues, para esta invención la conexión con la física (o, al menos, una inspiración) parece justificada.
Por otro lado, y citando de nuevo a la Academia:
«Geoffrey Hinton utilizó la red de Hopfield como base para una nueva red neuronal, que utiliza un método diferente: la máquina de Boltzmann. Ésta puede aprender a reconocer elementos característicos en un determinado tipo de datos. Hinton utilizó herramientas de la física estadística, es decir, la ciencia de los sistemas construidos a partir de muchos componentes similares».
Aunque algunas arquitecturas de redes neuronales basadas en las máquinas de Boltzmann dieron lugar a aplicaciones de éxito en los años 90, entrenar redes multicapa profundas con muchas conexiones entre capas consecutivas seguía siendo un desafío técnico. Y, en este contexto, para muchos investigadores el entrenamiento de redes multicapa densas parecía inalcanzable. Esta situación cambió en la década de los 2000, y una figura destacada en este avance fue G. E. Hinton, con su propuesta de utilizar una máquina de Boltzmann restringida (RBM) para el aprendizaje automático. Esta importante mejora se divulga, por ejemplo, en la solicitud de patente internacional WO 2001/067382 A1 con el título «Dispositivo entrenable», presentada por el University College de Londres. En la solicitud se explica que “los RBM pueden entrenarse de forma fiable y precisa cuando sólo se realiza una iteración durante el procesamiento iterativo con respecto a cada señal de entrenamiento, antes de obtener los componentes de actualización del peso. Por lo tanto, el entrenamiento puede realizarse mucho más rápidamente y, en consecuencia, puede utilizarse en más aplicaciones. Sorprendentemente, el inventor también ha demostrado que este nuevo método de entrenamiento consigue resultados más precisos que el método de entrenamiento convencional”. En este segundo caso, y a pesar de la relación entre el concepto de máquinas de Boltzmann y la mecánica estadística, la conexión entre las RBM y la física no parece tan estrecha como en el primer caso.
A la luz de la información publicada en estas patentes, no resulta fácil llegar a un consenso sobre si la inteligencia artificial está realmente basada en la física per se. Sin embargo, es justo decir que la física tiene un papel fundamental en su desarrollo, al igual que muchos otros campos como la informática, la ingeniería de software o las matemáticas. Más allá de ello, lo que es realmente evidente es que las tecnologías interdisciplinares pueden conducir a grandes logros (incluso a un premio Nobel) y que éste es, como en muchos otros casos, un gran ejemplo de cómo la ciencia y las patentes caminan juntas hacia la innovación y el progreso.