Los aislamientos impuestos durante la pandemia por los distintos gobiernos para prevenir los contagios impulsaron procesos globales de digitalización. Si bien estos desarrollos ya estaban instalados, las empresas, organizaciones y corporaciones internacionales tuvieron que adoptarlos de forma acelerada y masiva. Sin embargo, es posible que en pocos años vuelvan a modificar sus operaciones debido a un nuevo avance de la humanidad: la computación cuántica.
Antes de explicar qué es la computación cuántica es importante aclarar que todavía falta innovación científica y tecnológica para aplicar esta innovación. De todas formas, los expertos en el campo aseguran que la transición de un mundo digital a uno cuántico es inevitable. Por ese motivo, es importante entender qué significa este concepto y cuáles son los beneficios que generará en la próxima década.
¿Qué es la computación cuántica?
La computación cuántica es una rama de la informática que utiliza los principios de la mecánica cuántica para procesar información de manera radicalmente diferente a las computadoras tradicionales.
En lugar de usar bits clásicos, que solo pueden representar 0 o 1, la computación cuántica utiliza qubits, que pueden representar simultáneamente múltiples estados gracias a la superposición cuántica.
Además, los qubits pueden estar entrelazados, lo que significa que el estado de uno puede estar intrínsecamente relacionado con el estado de otro, incluso si están separados por grandes distancias. Estas características únicas de la computación cuántica permiten realizar cálculos y resolver problemas de manera mucho más eficiente en ciertos casos, especialmente en tareas que involucran un gran número de cálculos o análisis complejos. Sin embargo, la computación cuántica aún se encuentra en desarrollo y enfrenta desafíos técnicos significativos antes de alcanzar todo su potencial.
En 1936, Alan Turing sentó las bases para los algoritmos y las computadoras modernas. Las máquinas han evolucionado enormemente desde entonces, resolviendo problemas matemáticos en segundos que llevarían horas o días a un humano. Sin embargo, todavía tienen limitaciones y pueden tardar décadas en resolver desafíos muy complejos en física, química o biología.
Para superar estas limitaciones, los expertos en informática han estado buscando soluciones y han encontrado una en la computación cuántica.
Esta tecnología aprovecha las leyes de la mecánica cuántica para resolver problemas demasiado complejos para las computadoras tradicionales. IBM desarrolló el computador cuántico más avanzado del mundo en 2021.Cuando en 1936 el matemático Alan Turing sentó las bases para los algoritmos y la computación moderna, jamás creyó que las máquinas evolucionarían hasta resolver algunos de los problemas más complejos de la ciencia. La máquina que creó en ese momento podía reconocer lenguajes formales de manera autónoma y, para la época, ese avance cambió la forma de analizar la realidad.
¿Cuál es el origen de la computación cuántica?
Antes de pasar al funcionamiento de la computación cuántica, vale la pena realizar un breve recorrido por su historia reciente. El consenso internacional de expertos en informática reconoce a Paul Benioff como el ideólogo de la computación cuántica. En 1981, este físico estadounidense dio a conocer su teoría más extensa y compleja. La misma propone tomar las leyes cuánticas y aplicarlas a la informática.
“La mecánica cuántica se llevó a cabo entre 1900 y 1925, y sigue siendo la piedra angular en la que se basan la química, la física de la materia condensada y tecnologías que van desde los chips informáticos a la iluminación LED”, destacan en Microsoft. Y suman: “A pesar de estos éxitos, incluso algunos de los sistemas más sencillos parecían quedar fuera del alcance de la capacidad humana para modelar con mecánica cuántica”.
Las computadoras actuales, que para los profesionales en cuántica ya son “tradicionales”, leen bits, que pueden tomar el valor de 0 o 1 y son considerados sus unidades mínimas de información. A partir de este sistema, las máquinas trabajan a nivel de voltajes eléctricos. La propuesta de Benioff es modificar este accionar para que las computadoras utilicen cuantos, que pueden adoptar el valor de 0 o 1 pero también el de 1 y 0 a la vez.
Teóricamente, esto es posible gracias a las leyes de la mecánica cuántica y el beneficio es que se pueden llevar a cabo más operaciones al mismo tiempo. Por lo tanto, la resolución de un problema se acorta significativamente.
En paralelo al trabajo de Benioff, los científicos Richard Feynman y Yuri Manin produjeron algunos dispositivos que hoy son considerados como los prototipos de las computadoras cuánticas.
Qué son los bits cuánticos
Los bits cuánticos, comúnmente conocidos como qubits, son los elementos básicos de información en la computación cuántica. A diferencia de los bits clásicos en la computación tradicional, que solo pueden tomar dos estados, 0 o 1, los qubits tienen la capacidad única de representar múltiples estados simultáneamente debido a la propiedad cuántica llamada superposición.
En un qubit, su estado puede ser una combinación lineal de los estados 0 y 1, lo que se denota como |0⟩ y |1⟩. Matemáticamente, un qubit se puede representar como α|0⟩ + β|1⟩, donde α y β son coeficientes complejos que determinan la probabilidad de encontrar el qubit en el estado 0 o 1 cuando se mide.
Otra característica importante de los qubits es el entrelazamiento cuántico, que permite que dos o más qubits estén fuertemente correlacionados entre sí, incluso si están separados por grandes distancias. Esta propiedad es esencial para realizar ciertos cálculos cuánticos y aplicaciones de computación cuántica, como la factorización de números grandes y la resolución de problemas de optimización.
Criterios de DiVincenzo
Una computadora cuántica tiene características técnicas muy diferentes a las de una computadora clásico. Los criterios de DiVincenzo deben tenerse en cuenta a la hora de diseñar una computadora cuántica. Esto nos permite establecer las directrices generales que deben seguirse, en particular definiendo las cuatro características fundamentales que debe poseer una máquina de este tipo:
- Debe ser capaz de representar los QuBits;
- Capaz de realizar un grupo de transformaciones unitarias sobre las mismas;
- Preparar un estado inicial con suficiente confianza;
- Ser capaz de medir el resultado final;
La velocidad a la que se realizan los distintos cálculos en el QuBit, entre el momento en que se inicializa el estado y el momento en que se mide, debe ser tal que no se pierda información debido a la decoherencia (véase el párrafo siguiente). Así, sólo se puede realizar un número finito de operaciones antes de perder la información.
Otro aspecto clave para aprovechar al máximo una computadora cuántica es su escalabilidad. Esto significa que a medida que se aumenta el número de qubits utilizados, el procesador no debería tener problemas o costos inmanejables. Esto contrasta con las computadoras clásicas, donde se puede aumentar la potencia y velocidad al miniaturizar los procesadores, sin perder rendimiento. Sin embargo, existe un límite físico para la miniaturización en las computadoras clásicas que no se aplica a las computadoras cuánticas.
¿Cómo funciona esta tecnología?
Como se estableció anteriormente, las computadoras cuánticas no trabajan con bits. A la mínima unidad de lenguaje que puede interpretar una máquina de estas características se la denomina cúbits. Estos indican la cantidad de bits que pueden estar en superposición y, por lo tanto, condensar más información.
Un ejemplo simple para entender este modelo es el siguiente. En un sistema tradicional, una combinación de tres bits puede generar ocho valores diferentes entre sí. Pero el registro que hace la máquina solo puede tomar uno de esos ocho valores. La gran diferencia que establece la computación cuántica es que, gracias a la superposición de los bits, se pueden tomar los ocho valores distintos al mismo tiempo.
Por lo tanto, el tiempo que llevaría realizar una operación con el modelo cuántico es exponencialmente menor al que existe hoy en día con las computadoras “tradicionales”: un computador cuántico con 30 cúbits podría llegar a procesar 10 mil millones de operaciones por segundo.
“De forma más simplificada, es como si los bits 0 y 1 se correspondiesen con huecos, de manera que un hueco vacío es un bit 0 y un hueco ocupado por un electrón es un bit 1. Es por este motivo que estos dispositivos se llaman electrónicos”, destacan desde el Banco Interamericano de Desarrollo, entidad que busca impulsar la computación cuántica. Y agregan: “Por su lado, los cúbits también pueden estar en cualquiera de los infinitos estados intermedios entre el 0 y el 1, como sea mitad 0 y mitad 1, o tres cuartos de 0 y un cuarto de 1. Este fenómeno se conoce como superposición cuántica”.
Supercomputadoras vs computadoras cuánticas
En la actualidad, a las computadoras más potentes del mundo se las conoce como supercomputadoras. Las mismas se componen de miles de núcleos de CPU y GPU clásicos y pueden llegar a ocupar grandes habitaciones enteras. Cuando los científicos necesitan resolver algún problema o ecuación matemática, suelen recurrir a estas máquinas.
“Sin embargo, incluso las supercomputadoras más potentes luchan por resolver ciertos tipos de problemas”, advierten desde IBM. “Si una supercomputadora se paraliza, probablemente se deba a que se le pidió a la gran máquina tradicional que resolviera un problema con un alto grado de complejidad. Cuando las computadoras tradicionales fallan, a menudo se debe a la complejidad”, continúan.
Cuando se habla de problemas complejos se hace referencia a la modelación del comportamiento de átomos en una molécula. O al proceso de examinar una gran base de datos con información de una proteína para identificar patrones de funcionamiento o reacción ante un cambio ambiental.
Una supercomputadora usaría toda su capacidad para determinar estas soluciones “a la fuerza”. A través de su sistema de operaciones verificaría todas las opciones posibles de una en una hasta llegar a la conclusión indicada. Esto podría tomar años y por lo tanto sería poco eficiente, ya que para ese momento la respuesta no sería de utilidad. Además, se requeriría una gran capacidad de almacenamiento para guardar la información que se va generando en el proceso.
Mientras tanto, los algoritmos cuánticos funcionan a partir de un paradigma diferente. Lo que hacen es crear espacios multidimensionales en los que emergen los patrones que vinculan puntos de datos particulares. El tiempo requerido para esto es mucho menor, ya que se utiliza un procedimiento denominado paralelismo cuántico que analiza todas las posibilidades a la vez.
Esto ocurre porque un cubit por sí solo no tiene una finalidad determinada. Lo que es importante es su capacidad para colocar datos cuánticos que estas unidades mínimas de información contienen en un estado de superposición. Por lo tanto, esto representa una combinación de todas las configuraciones posibles del cubit con el que la máquina está trabajando.
En esa línea, otra característica crucial de los cúbits es su capacidad de entrelazamiento. Este es un efecto mecánico cuántico que logra correlacionar el comportamiento de dos cosas separadas. Al lograr el entrelazamiento de dos cúbits, cualquier cambio que se lleve a cabo en uno de ellos impactará de forma directa en el otro. A partir de esto, los algoritmos cuánticos encuentran soluciones a sistemas complejos gracias a su capacidad de aprovechar estas relaciones.
Cuáles son los componentes de una computadora cuántica
A pesar de ser máquinas complejas, las computadoras cuánticas no tienen un gran tamaño. Las desarrolladas hasta el momento no son más grandes que una oblea, por lo que no requieren de mucho espacio físico, como es el caso de una supercomputadora. De todas formas, eso no significa que los componentes que la rodean tengan las mismas dimensiones.
Equipo de enfriamiento
El sistema de hardware que acompaña al procesador cuántico puede alcanzar el tamaño de un automóvil. Esto se debe a que el sistema requiere de un equipo de enfriamiento mucho más sofisticado que el de una computadora tradicional. Estas últimas suelen utilizar pequeños ventiladores que son suficientes para que el equipo opere de forma correcta. Pero para una computadora cuántica esto no es suficiente.
En este tipo de máquinas es necesario un equipo de superfluidos que permita al procesador alcanzar temperaturas operativas ultrafrías. “Los primeros prototipos, como el procesador cuántico Sycamore, de Google, están encerrados en cámaras de vacío e inmersos en enormes criostatos que mantienen el chip a menos 273,05 grados. Funcionan, pues, a 0,1 grados sobre el cero absoluto”, explican desde la empresa.
Recientemente, una nota publicada en la revista Nature, especializada en ciencia, reveló que “dos equipos de investigadores han conseguido que unos cúbits cuánticos desempeñen su función a una temperatura entre diez y quince veces mayor”. “Siguen necesitando, de todas formas, temperaturas extremadamente bajas, de entre 271 y 272 grados bajo cero”, afirma el artículo.
Superconductores
Al operar a temperaturas tan bajas, el resto de los materiales que requiere un ordenador cuántico también poseen características especiales. Por ejemplo, algunos componentes de los procesadores deben permitir que los electrones se muevan entre ellos sin que haya resistencia. Por ese motivo, se emplean superconductores, que permiten que los electrones se emparejen y transporten cargas a través de aislantes. A este proceso se lo conoce como efecto túnel.
Control
Otro aspecto importante para operar una computadora cuántica es el control de los cúbits. Para lograr esto, quienes operan estas máquinas “disparan” fotones de microondas a las unidades mínimas de información para determinar su accionar. De esta manera, pueden hacer que retengan datos, los cambien o incluso se lean unidades individuales de información cuántica.
¿Cuánto cuesta una computadora cuántica y qué empresas la tienen?
Hace ya varios años, la NASA adquirió un ordenador cuántico que costó aproximadamente 15 millones de dólares. El mismo, llamado D-Wave Two, no solo es utilizado por esa organización, sino que también es compartido con empresas como Google y científicos particulares de los Estados Unidos.
Por otro lado, la computadora cuántica de IBM es la primera instalada fuera de Estados Unidos. La misma se encuentra en Stuttgart, Alemania, y lleva el nombre de “Q System One”. Si bien no hay referencias exactas sobre su valor, se estima que es similar al de la máquina de la NASA.
Además, IBM cuenta con el apoyo de países como Francia y Alemania que se plantearon el objetivo a nivel estatal de ser pioneros en este dominio. Tal es el compromiso que Francia destinó una inversión total de 2.180 millones de dólares durante cinco años y Alemania una de 2.000 millones para desarrollar una computadora cuántica en 2025.
De todas formas, la tecnología cuántica no es exclusiva del mundo occidental. En oriente también aspiran a impulsar estos dispositivos y a principios de 2021 la empresa china SpinQ Technology anunció el lanzamiento de la primera computadora cuántica comercial.
Según los directivos de la compañía, este producto tendrá un valor de cincuenta mil dólares y está pensado para ser utilizado en escuelas y universidades. De todas formas, aclaran que la capacidad de procesamiento será mucho menor en comparación a los dispositivos de la NASA o de IBM. Mientras estos últimos pueden procesar hasta 50 cúbits por segundo, los prototipos chinos solo alcanzan hasta 2 unidades mínimas de información por segundo. Pero la intención no es competir con las grandes corporaciones internacionales, sino popularizar el uso de las computadoras cuánticas.
Esta capacidad es bastante inferior si se tiene en cuenta que el anuncio más reciente de IBM destaca que su dispositivo más avanzado contempla un nuevo procesador que tiene 127 cúbits. Esto representa el doble que el Hummingbird (65 cúbits), la versión previa presentada en 2020, y al Falcon (27 cúbits) que fue dado a conocer en 2019. Y el objetivo es llegar a 1.121 cúbits en el modelo Condor de 2023.
Coste computacional, qué es
El costo computacional cuántico se refiere a la cantidad de recursos necesarios para realizar una tarea o resolver un problema utilizando algoritmos cuánticos y computación cuántica. En lugar de basarse en bits clásicos, que solo pueden representar 0 o 1, la computación cuántica utiliza qubits, que pueden representar superposiciones de 0 y 1 simultáneamente y estar entrelazados con otros qubits.
El costo computacional cuántico se mide en términos de tiempo de ejecución y otros recursos, como la cantidad de qubits necesarios y la cantidad de operaciones cuánticas realizadas. La complejidad computacional cuántica puede ser diferente de la complejidad computacional clásica, lo que significa que ciertos problemas que son difíciles o incluso imposibles de resolver en un tiempo razonable con computadoras clásicas pueden abordarse de manera más eficiente con computadoras cuánticas.
Sin embargo, es importante destacar que la computación cuántica todavía se encuentra en sus primeras etapas y enfrenta desafíos significativos, como la corrección de errores cuánticos y la escalabilidad, para realizar todo su potencial. A medida que la tecnología cuántica avance, se espera que el costo computacional cuántico disminuya para ciertas tareas específicas, revolucionando la forma en que abordamos problemas complejos en diversos campos, como la criptografía, la simulación de sistemas cuánticos y la optimización.
¿Qué se puede hacer con una computadora cuántica?
Como mencionamos antes, la computación cuántica tiene aplicaciones muy interesantes en diversas industrias. Por ejemplo, en el desarrollo de autos eléctricos, empresas como Mercedes Benz buscan fabricar baterías más eficientes para impulsar sus automóviles con energía renovable. Actualmente, no hay supercomputadoras que puedan simular con precisión los procesos dentro de una batería, pero las computadoras cuánticas podrían hacerlo de manera más rápida y precisa.
Otro ejemplo está en La Organización Europea para la Investigación Nuclear, donde estudian cómo funcionan las leyes de la física en niveles microscópicos. La cantidad de datos generados es tan grande que ni las supercomputadoras avanzadas pueden procesarlos eficientemente. Aquí, la computación cuántica ayuda a los investigadores a acceder a modelos más detallados y complejos.
Además, las computadoras cuánticas pueden resolver cuestiones en otras áreas, como optimizar rutas de envío de productos, mejorando las cadenas de suministro internacionales. También la empresa ExxonMobil utiliza la computación cuántica para resolver desafíos en el transporte de gas a escala global, lo que es crucial para enfrentar el cambio climático. La computación cuántica permitirá tomar miles de millones de decisiones pequeñas y tener en cuenta millones de patrones para lograr un transporte más eficiente y sustentable. En resumen, la computación cuántica tiene el potencial de resolver problemas complejos y mejorar distintos aspectos de la tecnología y la investigación en diversas áreas.
Computación cuántica y temple cuántico
La diferencia entre la computación cuántica y el temple cuántico radica en sus enfoques y objetivos. La computación cuántica utiliza qubits para realizar cálculos y resolver problemas complejos de manera más eficiente que las computadoras clásicas, aprovechando propiedades cuánticas como la superposición y el entrelazamiento. El temple cuántico, por otro lado, es una técnica específica dentro de la computación cuántica que se enfoca en resolver problemas de optimización combinatoria utilizando el proceso de recocido cuántico para encontrar soluciones óptimas.
El futuro de la computación cuántica
En la actualidad, son pocas las empresas que tienen la posibilidad de contar con computadoras cuánticas. Se espera que para el final de la década este contexto cambie y cada vez más compañías puedan contar con estas máquinas. Así, la cantidad de información disponible para tomar decisiones en los distintos ámbitos sociales y académicos aumentará y se lograrán soluciones a problemas que hoy son imposibles de resolver.
A corto plazo, el desafío que afronta la computación cuántica es aumentar su capacidad de procesamiento. Como se mencionó, IBM busca que su próximo modelo supere los mil cúbits por segundo, lo que representa uno de los hitos más importantes para la historia de esta disciplina.
De todas formas, a la par de este desarrollo surge otro problema que muchos investigadores ven con preocupación. Si bien un cúbit tiene la capacidad de tomar más valores que 0 o 1, su naturaleza sigue siendo binaria y, por lo tanto, tiene un carácter bidimensional. Esto limita el acercamiento a distintos campos de la ciencia que tienen estructuras multidimensionales, lo que representaría a futuro un límite para la computación cuántica.
Para evitar que el avance de la innovación se estanque en ese punto, los expertos en el tema ya están ideando una nueva unidad mínima de información: los cúdits. Los mismos surgen al dejar atrás el enfoque clásico de la física cuántica y la aplicación de secuencias matemáticas tan complejas que requieren de grandes grupos de profesionales para llevarse a cabo.
La ventaja que aportarían los cúdits es la posibilidad de aumentar la eficiencia de los algoritmos al operar en más de dos dimensiones. Por el momento, los avances en este campo recién comienzan, pero se espera que en los próximos años permitan expandir aún más la capacidad de los procesadores cuánticos.
Finalmente, un aspecto a tener en cuenta es que la computación cuántica no reemplazará a nivel masivo a los dispositivos tradicionales. La expectativa de los expertos es que ambos sistemas convivan entre sí y se complementen para lograr el mejor ecosistema informático posible.
Para lograr esto, se requerirá de otro avance que también se está desarrollando. El mismo implica la creación de plataformas que permitan el intercambio de operaciones entre las unidades básicas de información de cada sistema: bits y cúbits o cúdits. De este modo, la información que se obtenga a partir de los procesadores cuánticos podrá ser utilizada por todas las personas con acceso a un dispositivo informático y no solo por aquellos con computadoras cuánticas
Decoherencia
Un fenómeno que hay que tener en cuenta a la hora de desarrollar un QuBit es la decoherencia, que provoca la pérdida de información. Similar en algunos aspectos al ruido de la electrónica clásica, no está relacionado con una perturbación externa, sino que depende en gran medida de la metodología utilizada para desarrollar el QuBit.
Se trata de un acontecimiento probabilístico que provoca una pérdida espontánea e inevitable de información. Del mismo modo que un electrón en un estado excitado tiende a perder energía espontáneamente, para volver al estado fundamental. Esto no ocurriría en un sistema completamente aislado y se debe a las interacciones incontroladas con el entorno cuya función de onda no está completamente aislada de la del sistema. Cabe señalar que la decoherencia sigue siendo un fenómeno cuántico, representado mejor por la Esfera de Bloch (Figura 1), que también es una excelente representación para un QuBit.
Este fenómeno conduce a la pérdida del estado de superposición entre dos estados, convirtiéndose en una mezcla estadística, que puede ser descrita por el operador de densidad.
Figura 1 – Esfera de Bloch, representación geométrica del Qubit. Esfera de radio unitario. El radio, que se obtiene uniendo cualquier punto de la superficie con el centro de la esfera, representa el estado que puede asumir el qubit. Cuando el radio apunta al norte de la esfera, por definición el estado del qubit coincide con “0”. Cuando el rayo apunta al sur de la esfera, el estado del qubit coincide con “1”. En todos los demás casos, con el rayo que atraviesa la superficie de la esfera, el estado relativo del qubit puede definirse por referencia a dos cantidades específicas: los ángulos formados por el rayo con respecto al eje vertical de la esfera y su proyección sobre el plano que pasa horizontalmente por la esfera en su centro.
Qubit
Suponiendo un átomo con un solo electrón en la última órbita ocupada, el electrón puede ser desplazado (excitado) a una órbita más externa iluminándolo con una luz de una frecuencia y duración determinadas. En este caso, el electrón realiza un salto cuántico a un estado energético superior. Si el estado es estable, puede utilizarse, junto con el estado de menor energía, para representar los números 0 y 1 respectivamente.
Si el átomo “excitado” es alcanzado por otro pulso de luz, similar al anterior, el electrón vuelve a su estado de menor energía, liberando un fotón.
En el caso particular de que la duración del primer pulso de luz dure la mitad del tiempo necesario para cambiar el estado del electrón, éste estará en ambas órbitas simultáneamente. El electrón estará entonces en una “superposición” de los dos estados.
Según esta lógica, se puede almacenar una unidad de información, el qubit.
Así, las leyes de la mecánica cuántica implican que, además de los estados 1 y 0, también es posible un tercer estado, un estado intermedio o indeterminado, que no puede ser considerado como 1 o 0. Esto significa que un qubit (el equivalente cuántico del bit) no sólo puede estar en dos estados correspondientes a los valores lógicos 0 y 1, sino que puede estar simultáneamente en el estado 0 y en el estado 1. De ello se desprende que dos qubits pueden estar simultáneamente en los cuatro estados 00, 01, 10 y 11. Esto hace que el qubit sea mucho más versátil en los problemas computacionales que el bit real.
Un qubit puede definirse mediante notación matemática, lo que significa que si se mide, podrá ser 0 con probabilidad |a|2 y 1 con probabilidad |b|2, siendo a y b números complejos.
El símbolo | ⟩ representa un vector orientado. El estado – es diferente del estado +, como puede verse en la figura 3. El estado de un qubit se representa mediante un vector que llega a cualquier punto del círculo.
Figura 3 – a y b números reales.
Suponemos que los dos estados son equiprobables (todos los resultados posibles son probables). En el caso de que el átomo se encienda durante la mitad del tiempo, en comparación con el tiempo necesario para la conmutación, se obtiene una superposición de estados. Así, si el bit es |0>, se convierte en |0> + |1>. Al recibir otro impulso igual al anterior, el bit pasa al estado |1>. Un pulso completo equivale al operador NOT, mientras que un medio pulso equivale a la raíz cuadrada de NOT. La relación se aplica:
x
Además del operador NOT existen otros tipos de operadores en la mecánica cuántica, que se pueden aplicar a las cantidades |0> y |1> y a sus combinaciones para transformarlas. Uno de ellos es el operador de Hadamard (H).
Analizar el circuito cuántico propuesto por Deutsch como circuito universal para construir una computadora cuántica, indicando con:
c – entrada de control;
t – entrada del objetivo;
se puede deducir que si medimos c y obtenemos 0 también t estará en 0; viceversa si medimos c obtenemos 1 t también estará en 1. Esto es porque el valor 0 de c no hace conmutar a t, mientras que el valor 1 lo hace conmutar. Entra en juego el principio de entrelazamiento: fenómeno cuántico, no reducible a la mecánica clásica, por el que, en determinadas condiciones, dos o más sistemas físicos representan subsistemas de un sistema mayor cuyo estado cuántico no puede describirse individualmente, sino sólo como una superposición de varios estados.
Figura 4 – Circuito cuántico que implementa el algoritmo de Deutsch. La U indica la transformación.
Si dos qubits están ambos en la superposición de 0 y 1 se definen como enredados si el resultado de la medición de uno de ellos está siempre correlacionado con el resultado de la medición del otro qubit.
El entrelazamiento, junto con la superposición, es la piedra angular de todo el funcionamiento de la computadora cuántica. Porque sin el entrelazamiento, ¿cómo podrían correlacionarse los resultados obtenidos con los valores de entrada?
Con los tres mecanismos fundamentales de superposición, entrelazamiento e interferencia, es posible construir toda una lógica de circuito cuántico, al menos a nivel conceptual, con la que se puede destacar la extraordinaria capacidad de cálculo de una computadora cuántica.
Aplicaciones de la computación cuántica en la IA
La investigación resultante de la interacción entre la teoría cuántica y la IA puede clasificarse a grandes rasgos en dos categorías:
- utilizando algunas ideas de la teoría cuántica para resolver algunos problemas de la IA;
- la aplicación de ciertas ideas desarrolladas en la IA a la teoría cuántica.
En algunas investigaciones se han observado similitudes entre la estructura matemática utilizada por la comunidad de IA en el análisis semántico del lenguaje natural y las utilizadas en la mecánica cuántica. La observación de estas similitudes es útil, ya que puede aportar sugerencias sobre cómo se pueden tomar prestadas algunas ideas de la mecánica cuántica en el análisis semántico o incluso de forma más general en la IA. Además, si algunos aspectos semánticos de las lenguas naturales pueden expresarse correctamente en el marco de la teoría cuántica, por ejemplo la ambigüedad por superposición, el hecho de que los algoritmos cuánticos sean adecuados para simular sistemas cuánticos sugiere que la informática cuántica podría acelerar enormemente el procesamiento de las lenguas naturales.
Nelson, McEvoy y Pointer señalaron que las asociaciones de palabras en las lenguas naturales pueden mostrar “acciones espectrales a distancia”. Bruza et al. propusieron un modelo de asociaciones de palabras en términos de productos tensoriales para poder describir la “activación espectral remota” de forma similar al entrelazamiento cuántico.
Entre los diversos puntos en los que se encuentran la computación cuántica y la IA, tenemos:
Redes bayesianas cuánticas
Los problemas en los que el mundo es realmente aleatorio, y los problemas en los que el mundo no es aleatorio, pero no es perfectamente conocido, pueden modelarse utilizando redes de creencias (o redes de Bayes) y redes de decisión (o diagramas de influencia). Una red de creencias es un grafo sin ciclos directos en el que:
- Los nodos están formados por un conjunto de variables aleatorias.
- Los nodos están conectados por un conjunto de arcos que representan influencias causales mutuas.
- Cada nodo se caracteriza por una tabla de probabilidad condicional que cuantifica los efectos que los padres tienen sobre él.
El mecanismo de inferencia sobre redes de creencias calcula la distribución de probabilidad a posteriori para un conjunto de variables de consulta, dados los valores exactos de algunas variables de prueba. Una vez construida la red que modela el sistema, el objetivo de su análisis es recoger pruebas y modificar su comportamiento en función de ellas.
Para modelar este comportamiento, se requiere una teoría estadística de la evidencia, que se basa en el teorema de Bayes:
Dónde:
- la probabilidad de que la hipótesis sea verdadera dada la evidencia E;
- la probabilidad a priori de que la hipótesis sea cierta en ausencia de pruebas específicas.
Esta ecuación es la base de todos los sistemas modernos de Inteligencia Artificial para la inferencia probabilística, ya que permite expresar la independencia condicional entre variables sin recurrir a una tabla de distribuciones de probabilidad conjuntas, lo que simplifica enormemente el cálculo de los resultados de las consultas.
En efecto, una vez definida la topología de una red de creencias, basta con especificar la tabla de probabilidades condicionales de cada nodo, y el proceso de actualización bayesiano (inferencia) incorpora las evidencias de una en una modificando la creencia previa en las variables desconocidas. Las redes de decisión amplían las redes de creencias incorporando acciones y utilidades: las preferencias de un agente entre los estados del mundo se resumen en una función de utilidad, que asocia a cada estado un único número que expresa su deseabilidad. Las utilidades se combinan con las probabilidades de las acciones para proporcionar una utilidad esperada de cada acción.
Al maximizar una función de utilidad que refleja correctamente las medidas de rendimiento por las que se juzga su comportamiento, un agente obtiene el mejor rendimiento posible.
Tucci introdujo una generalización cuántica de las redes bayesianas en la que a sus nodos se les asignan amplitudes complejas en lugar de probabilidades y la utilizó para calcular las probabilidades de algunos experimentos físicos. Pearl introdujo la noción de redes bayesianas causales que aumenta las redes bayesianas con un conjunto de operaciones locales que especifican cómo se comportan las distribuciones de probabilidad con respecto a las intervenciones externas. Para proporcionar un modelo gráfico de la causalidad en el mundo cuántico, Laskey definió una noción de redes causales cuánticas en las que las operaciones locales están representadas por superoperadores, que es un popular formalismo matemático de la dinámica de los sistemas cuánticos abiertos.
Reconocimiento y discriminación de estados cuánticos y operaciones cuánticas
El reconocimiento de patrones es el reconocimiento automático de patrones y regularidades en los datos y tiene aplicaciones en el análisis estadístico de datos, el procesamiento de señales, el análisis de imágenes, la recuperación de información, la bioinformática, la compresión de datos, los gráficos por computadora y el Machine learning. Es un área importante de la IA y la discriminación de objetos puede considerarse un caso especial de reconocimiento de patrones. Sin embargo, los investigadores de la IA sólo han considerado el reconocimiento y la discriminación de objetos clásicos. En los últimos 20 años, los físicos han llevado a cabo una gran cantidad de trabajos sobre discriminación y reconocimiento de estados cuánticos y operaciones cuánticas, sin saber mucho de los trabajos existentes sobre IA. La discriminación inequívoca de los estados cuánticos puede formularse: Un sistema se prepara en un número de conjuntos finitos conocidos de estados cuánticos puros y esperamos determinar en qué estado cuántico se encuentra realmente el sistema con el requisito de que una vez que se informa de un resultado, éste debe ser verdadero. Este problema fue considerado por primera vez por Ivanovic para el caso de n = 2. El caso general fue examinado por Chefles. Se demostró que la probabilidad óptima de éxito de la discriminación es matemáticamente equivalente al conocido problema de programación semidefinida. Se proporcionó una estimación de la probabilidad de éxito. El problema de la discriminación de los estados cuánticos se generalizó al caso de los estados mixtos.
Recientemente, la discriminación de las operaciones cuánticas ha recibido una atención considerable. El problema de la discriminación de las transformaciones unitarias ha sido resuelto por Acín y D’Ariano, Presti y Paris. En particular, se obtuvo una caracterización completa de la distinguibilidad perfecta de las operaciones cuánticas descubriendo una condición necesaria y suficiente factible bajo la cual una operación cuántica desconocida elegida secretamente de un conjunto finito de operaciones cuánticas puede ser perfectamente identificada y diseñando un protocolo óptimo para tal discriminación con un número mínimo de consultas. Un problema especialmente interesante es la discriminación de las operaciones cuánticas que actúan sobre un sistema cuántico multipartito de las operaciones locales y la comunicación clásica. Sorprendentemente, se demuestra que el entrelazamiento no es necesario para este tipo de discriminación de operadores unitarios. El problema de reconocimiento de patrones para los estados cuánticos fue considerado por Sasaki y Carlini: dado un conjunto de estados cuánticos modelo, decidir cuál de ellos es el más cercano a un estado de entrada. Una diferencia esencial entre el reconocimiento de patrones cuánticos y clásicos es que en el caso cuántico pueden necesitarse múltiples copias del patrón y de los estados de entrada, ya que en la estrategia de reconocimiento se emplean mediciones cuánticas que suelen cambiar los estados de los sistemas medidos. Se ha propuesto un método de aprendizaje bayesiano para realizar la tarea de reconocimiento de patrones cuánticos.
Aprender sobre los estados cuánticos y las operaciones cuánticas
Consideremos un ejemplo sencillo de aprendizaje conceptual supervisado. En el caso clásico, el conjunto de datos de entrenamiento se proporciona en forma de D = {(, c()): i = 1, …, n}, donde son instancias y c() = 1 o 0 ∀ i.
En el caso cuántico, las instancias se sustituyen por estados cuánticos, |. Si las descripciones de las instancias cuánticas | se dan de forma clásica, el problema de aprendizaje cuántico degenera inmediatamente en un problema de aprendizaje clásico. Más interesante es el caso en el que no se dispone de descripciones clásicas de estos estados cuánticos. Para aprender un concepto a partir del conjunto de entrenamiento cuántico, es necesario extraer información clásica de ellos y, por tanto, hay que realizar ciertas mediciones cuánticas sobre estos estados cuánticos. Dado que estas mediciones cuánticas destruirán los estados cuánticos originales, pueden necesitarse múltiples copias de estos estados cuánticos. Esto es contrario al caso clásico.
La tomografía de estados cuánticos puede considerarse un tipo de aprendizaje cuántico. El escenario es el siguiente: existe un proceso físico que puede producir repetidamente un estado cuántico. Preparamos todas las copias necesarias del estado aplicando este proceso. El objetivo es aprender una descripción del estado a partir de los resultados de las mediciones realizadas en estas copias. Un problema similar para las operaciones cuánticas se conoce como tomografía de procesos cuánticos, cuya teoría fue desarrollada por Chuang y Nielsen y Poyatos, Cirac y Zoller.
Redes neuronales cuánticas
Las redes neuronales cuánticas son modelos de redes neuronales computacionales basados en los principios de la mecánica cuántica. Las primeras ideas sobre la computación neural cuántica fueron publicadas de forma independiente en 1995 por Subhash Kak y Ron Chrisley, comprometiéndose con la teoría de la mente cuántica, que postula que los efectos cuánticos desempeñan un papel en la función cognitiva. Sin embargo, la investigación típica sobre redes neuronales cuánticas consiste en combinar los modelos clásicos de redes neuronales artificiales con las ventajas de la información cuántica para desarrollar algoritmos más eficaces. Una importante motivación para estas investigaciones es la dificultad de entrenar las redes neuronales clásicas, especialmente en aplicaciones de big data. La mayoría de las redes neuronales cuánticas se desarrollan como redes feed-forward.
Al igual que sus homólogos clásicos, esta estructura recibe la entrada de una capa de qubits y la transfiere a otra capa de qubits. Esta capa de qubits evalúa esta información y pasa el resultado a la siguiente capa. Finalmente, el camino lleva a la capa final de qubits. Las capas no tienen que tener la misma anchura, lo que significa que no tienen que tener el mismo número de qubits que la capa anterior o posterior. Esta estructura se entrena para saber qué camino tomar de forma similar a las redes neuronales artificiales clásicas. Esto se discute en una sección inferior. Las redes neuronales cuánticas hacen referencia a tres categorías diferentes: computadora cuántico con datos clásicos, computadora clásico con datos cuánticos y computadora cuántica con datos cuánticos.
Algoritmos genéticos cuánticos
El algoritmo genético cuántico (QGA) combina la computación cuántica y los algoritmos genéticos, creando un nuevo algoritmo evolutivo de probabilidad. En 1996, Narayanan y Moore propusieron por primera vez el algoritmo genético cuántico, que se utilizó con éxito para resolver el problema TSP. El QGA es esencialmente un tipo de algoritmo genético y puede aplicarse en el campo en el que se puede aplicar el algoritmo genético convencional. La eficiencia del QGA es significativamente mejor que la del algoritmo genético convencional. El QGA tiene un valor de población pequeño, una velocidad de convergencia rápida, una gran capacidad de optimización global y una buena solidez. El vector de estado cuántico se introduce en el algoritmo genético para expresar el código genético y las puertas lógicas cuánticas se utilizan para realizar la evolución cromosómica. De este modo, se obtienen mejores resultados.
Problemas de la computación cuántica
La computación cuántica tiene un gran potencial en varios campos, pero también enfrenta desafíos para lograr su pleno desarrollo y aplicaciones prácticas a gran escala. Algunos de los problemas más destacados son:
- Corrección de errores cuánticos: Los qubits, al ser extremadamente sensibles a las interferencias y los errores, son propensos a sufrir decoherencia, lo que puede llevar a pérdida de información y errores en los cálculos. Desarrollar técnicas efectivas de corrección de errores cuánticos es crucial para obtener resultados precisos y confiables en la computación cuántica.
- Escalabilidad: Actualmente, las computadoras cuánticas son pequeñas y cuentan con un número limitado de qubits. Aumentar la cantidad de qubits y mantener la estabilidad y la precisión de los cálculos a medida que crece la escala es un desafío técnico considerable.
- Ruido y decoherencia: Los qubits son sensibles al ruido ambiental y a las interacciones con su entorno, lo que puede afectar negativamente la calidad de los resultados. Reducir la decoherencia y mejorar la coherencia cuántica es un desafío clave.
- Requisitos de hardware: La construcción y el mantenimiento de computadoras cuánticas requieren condiciones especiales de laboratorio y hardware avanzado, lo que aumenta los costos y las complejidades técnicas.
- Dificultad en la programación: La programación de algoritmos cuánticos es compleja y requiere un enfoque diferente al de la programación tradicional. Se necesitan herramientas y lenguajes de programación adecuados para facilitar el desarrollo de algoritmos cuánticos.
- Número limitado de algoritmos cuánticos ventajosos: Si bien la computación cuántica ofrece ventajas para ciertos problemas, aún no se han descubierto muchos algoritmos cuánticos que superen significativamente a los algoritmos clásicos en una amplia variedad de aplicaciones.
- Interconexión y comunicación cuántica: La interconexión de múltiples qubits y la comunicación entre ellos en un sistema cuántico es un desafío técnico que debe resolverse para construir computadoras cuánticas más grandes y eficientes.
A pesar de estos problemas, la investigación y el desarrollo en el campo de la computación cuántica continúan avanzando, y se espera que con el tiempo se superen muchos de estos desafíos y se realicen avances significativos en esta emocionante área de la ciencia y la tecnología.
Conclusiones
Las tres clases de investigación para los investigadores de inteligencia artificial en la intersección de la computación cuántica, la teoría cuántica y la inteligencia artificial son:
– Diseño de algoritmos cuánticos para resolver problemas de IA de forma más eficiente;
– Desarrollar formas más eficaces de formalizar los problemas en la IA tomando prestadas ideas de la teoría cuántica;
– Desarrollar nuevas técnicas de inteligencia artificial para abordar los problemas del mundo cuántico.
La primera clase de investigación se encuentra todavía en una fase temprana de desarrollo y no se ha avanzado mucho. En cuanto a la segunda clase, la investigación se ha vuelto muy activa en los últimos años, especialmente a través del Simposio Internacional sobre Interacción Cuántica. Pero parece que algunos de estos trabajos son bastante superficiales y que es necesario un análisis teórico más profundo de los métodos formales desarrollados. En particular, se necesita más investigación experimental para comprobar su eficacia. En cambio, la investigación de tercera clase avanza de forma constante.
El potencial de la computación cuántica en la inteligencia artificial pronto será evidente, pero aún no sabemos cómo traducir ese potencial en realidad.
Por Agustín Jamele