Contenidos
Una tecnología que copia la arquitectura de la masa gelatinosa presente en la cabeza de los humanos puede ser la solución para el reinvento del desarrollo computacional.
Viene creciendo la cantidad de neurocientíficos que piensan que el cerebro de los humanos es una especie de “máquina de predicción” capaz de pronosticar lo que está ocurriendo antes de que suceda.
Las redes neuronales cerebrales y los límites de la computación digital
La idea se basa en que las percepciones de los humanos son, en parte, hipótesis. Experimentos de neurocientíficos computacionales con redes neuronales artificiales, componentes de los algoritmos de la inteligencia artificial (IA); apuntan a que el cerebro evoluciona como una máquina de predicción capaz de optimizar su consumo de energía.
La vida evolucionó desarrollando un perfecto balance entre lo que podía computar y lo que podía consumir. Combinando genes y formas, lo analógico y lo digital, software y hardware, emoción y razón, el universo hizo inteligencia biológica, que utiliza mucha menos energía que las computaciones de los humanos en computadores digitales.
La IA progresó de una forma muy distinta a la biología, obedeciendo a las leyes de la competición industrial y de la geopolítica científica casi tanto como a las leyes de la física. Los pioneros de la computación, John von Neumann y Alan Turing, estuvieron inspirados por la biología de los humanos, y además por las matemáticas de Kurt Goedel sobre los límites de la lógica y los algoritmos para comprender la realidad. Ellos fueron los creadores de los primeros computadores digitales, con el financiamiento del “Manhattan Project” y con fondos militares en la “Guerra Fría”.
Cálculos que consumen mucho más energía que los realizados por el cerebro de los humanos
Por medio de la física de semiconductores los computadores expandieron su capacidad de computar a medida que el tamaño de los chips iba reduciéndose. Entre los años 1980 y 2010 la capacidad de memoria y de computación de los microprocesadores se duplicó cada 2 años. Lo que ocasionó una división entre la actividad de los fabricantes de chips (hardware) y la actividad de los creadores de programas y algoritmos (software). Los científicos y los informáticos se acostumbraron a pensar solo en el algoritmo, seguros de que se ejecutaría en máquinas capaces de calcular cualquier cosa.
Sin embargo, han notado que los límites de este modelo ya se están alcanzando. Por un lado, los chips no se pueden reducir más de tamaño (ya se está alcanzando el límite de los dos nanómetros, ya no existe más espacio para continuar reduciéndolos). Por otro, solo en Corea del Sur y en Taiwan saben cómo fabricar los chips más avanzados, lo que provoca una incierta situación geopolítica.
Aunque también hay otro problema, se trata del consumo energético. Este empieza a ser otro obstáculo insuperable para las delicadas cadenas de producción mundial. Se cree que el 3 por ciento del total de la electricidad usada en todo el mundo se consume en los centros de datos. Esto es mucho más que toda la electricidad usada en Gran Bretaña. Las proyecciones señalan a que este consumo en el año 2030 se elevará hasta el 13 por ciento.
Imitar la capacidad de predicción del cerebro de los humanos
Los supercomputadores empleados en los modelos del clima, en el diseño de medicamentos, de vehículos y de aviones, también consumen muchísima energía (casi la misma electricidad que una ciudad de diez mil habitantes).
Por ejemplo, el supercomputador Summit perteneciente al Laboratorio Nacional de Oak Ridge, producirá cada año emisiones de dióxido de carbono equivalentes a las de más treinta mil vuelos de ida y vuelta entre Londres y Washington. Una ronda de entrenamiento de un algoritmo potente de inteligencia artificial (los traductores de idiomas, por ejemplo) cuesta $ 4 millones en factura de electricidad. Mientras que una sola transacción de monedas digitales gasta la misma cantidad de electricidad que la consumida por una familia típica en una semana.
Estos exorbitantes gastos limitan lo que se puede/debe computar. Los expertos están buscando mejorar esta situación, aunque de forma descoordinada. Sin embargo, algo los une, los científicos voltearon a mirar hacia la biología para buscar en ella inspiración en las estructuras vivas, que son capaces de computar con un consumo de energía mucho más bajo.
Los creadores de algoritmos buscan incorporar la capacidad de predicción del cerebro de los humanos que fue mencionada al principio de este artículo, empleando la física del proceso, para minimizar el número de parámetros de AI.
Los poderosos no se ponen de acuerdo
Aunque la tendencia de los que manejan el poder no va por el mismo rumbo. La carrera hacia la superinteligencia artificial empezó en el año 2020 con “Open AI”, que fue fundado por el multimillonario Elon Musk, que reveló GPT-3 con capacidad de ciento setenta y cinco mil millones de parámetros en el algoritmo.
Seguido por Google en 2021, con 1,6 billones de parámetros en el algoritmo y la Academia de Inteligencia Artificial de Beijing (China), con 1,75 billones de parámetros. Sin embargo, esta vía de incrementar sin más el tamaño del algoritmo no parece estar claro que conduzca hacia la superinteligencia artificial, ya que el gasto energético le pone un límite que quizá no pueda ser superado.
Hay quienes sí tienen claro que para progresar la única solución es volver la mirada otra vez hacia la biología. Como en el cerebro de los humanos, el hardware y el software (algoritmo) tienen que estar íntimamente relacionados. En este sentido, un campo especialmente interesante que está comenzando a ganar tracción es la de los chips neuromórficos.
El diseño neuromórfico en la computación
Esta clase de diseño imita la arquitectura de la masa gelatinosa presente en la cabeza de los humanos, con unidades informáticas localizadas cerca de la memoria. Los científicos emplean computación analógica, capaz de procesar señales continuas, de la misma forma que las neuronas reales.
Ya varios ordenadores neuromórficos analógicos están en funcionamiento. Un ejemplo de ello es NeuRRAM en los Estados Unidos, el cual gasta mil veces menos que un chip digital. Otro ejemplo es el Neurogrid de “Brains in Silicon”, en Stanford (EEUU).
Mientras que en Europa, IMEC desarrolló el primer chip neuromórfico de autoaprendizaje en todo el mundo. Y pudo demostrar su capacidad para aprender a componer música. Aún no se conoce completamente como estos nuevos sistemas llegarán al mundo real. Pero si se sabe que el diseño de hardware es muy costoso y arriesgado, desarrollar un chip nuevo puede costar entre $ 30 y $ 80 millones, además de 2 a 3 años de trabajo.
Una situación geopolítica que permita dar el siguiente paso
Es posible que se necesite de una situación geopolítica como la que permitió el nacimiento de los primeros computadores, la que sirva de empujón para dar el siguiente paso. En China, la computación neuromórfica, es vista como una de las áreas capaces de sobrepasar a los sistemas digitales actuales. Y hay laboratorios dedicados a esta área en todas las universidades chinas más importantes.
Mientras que en los Estados Unidos, la CDAO (Oficina de Inteligencia Digital y Artificial de las fuerzas armadas), y otras organizaciones militares, están desarrollando y financiando la implementación de hardware neuromórfico para empleo en combate. Las aplicaciones también incluyen drones, robots y auriculares/gafas inteligentes.
En un mundo con poca estabilidad y otra vez amenazado por guerras, la geopolítica posiblemente llevará a la humanidad a reinventar la computación y reconectarse con Turing, von Neumann y Goedel para supear sus límites. Y como estos genios lo sabían bien, la realidad no se puede simular en algoritmos digitales. Se debe volver a la realidad de la física, que siempre escapa del control completo de la lógica de los humanos, para poder avanzar.