Compartir a través de


Conceptos avanzados de la matriz en la computación cuántica

En este artículo se exploran los conceptos de valores propios, vectores propios y exponenciales. Estos conceptos forman un conjunto fundamental de herramientas para matrices que se usan para describir e implementar algoritmos cuánticos. Para conocer los conceptos básicos de vectores y matrices en la computación cuántica, consulte Vectores y matrices.

Valores propios y vectores propios

Considere una matriz $cuadrada M$ y un vector $v$. $v$ es un vector propio de $M$ si $Mv = cv$ para cualquier valor de $c$. El entero $c$ es el valor propio que corresponde al vector propio $v$.

En general, una matriz $M$ puede transformar un vector en cualquier otro vector. Un vector propio es especial porque no se modifica, salvo que se multiplica por un número. Si $v$ es un vector propio con un valor $propio c$, $av$ también es un vector propio (para cualquier a distinto de cero$$) con el mismo valor propio. Por ejemplo, para la matriz de identidades, cada vector $v$ es un vector propio con un valor propio de $1$.

Como otro ejemplo, considere una matriz diagonal$D$ que solo tiene entradas distintas de cero en la diagonal:

$$\begin{bmatrix}&d_1 amp; 0 & 0 0 \\ & d_2 & 0 \\ 0 & 0 & d_3 \end{bmatrix}. $$

Los vectores

$$\begin{bmatrix}1 \\ 0 \\ 0 \end{bmatrix}, \begin{bmatrix}0 \\ 1 \\ 0\end{bmatrix}\text{and}\begin{bmatrix}0 \\ 0 \\ 1\end{bmatrix}$$

son vectores propios de esta matriz con los valores propios $d_1$, $d_2$ y $d_3$, respectivamente. Si $d_1$, $d_2$, and $d_3$ son números distintos, estos vectores (y sus múltiplos) son los únicos vectores propios de la matriz $D$.

En general, en una matriz diagonal, es fácil leer los valores propios y vectores propios. Los valores propios son todos los números que aparecen en la diagonal y sus respectivos vectores propios son los vectores de unidad que contienen una entrada igual a $1$ y las otras entradas iguales a $0$.

Tenga en cuenta en el ejemplo que los vectores propios de $D$ forman una base para $vectores 3$ dimensionales. Una base es un conjunto de vectores, de modo que cualquier vector se puede escribir como una combinación lineal de dicho conjunto. De forma más específica, $v_1$, $v_2$ y $v_3$ forman una base si cualquier vector $v$ se puede escribir como $v=a_1 v_1 + a_2 v_2 + a_3 v_3$ para algunos números $a_1$, $a_2$ y $a_3$.

Teorema espectral

En la computación cuántica, solo hay dos matrices que se encuentran: Hermitian y unitaria. Recuerde que una matriz hermitiana (también denominada autocontigua) es una matriz cuadrada compleja igual a su propia transposición conjugada compleja, mientras que una matriz unitaria es una matriz cuadrada compleja cuyo inverso es igual a su transponeción conjugada compleja.

Hay un resultado general conocido como teorema espectral, lo que implica que para cualquier matriz $hermitiana o unitaria M$, existe una U$ unitaria $de modo que $M=U^\dagger D U$ para alguna matriz $diagonal D.$ Además, las entradas diagonales de $D$ son los valores propios de M$, y las columnas de $$U^\dagger$ son los vectores propios correspondientes.

Esta factorización se conoce como descomposición espectral o eigendecomposition.

Exponencial de matriz

Una matriz exponencial se define en analogía exacta con la función exponencial. La exponencial de matriz de una matriz $A$ se puede expresar como

$$ e^A=\mathbf{1} + A + \frac{A^2}{2!}+\frac{A^3}{3!}+\cdots$$

Los exponenciales de matriz son importantes porque la evolución cuántica del tiempo mecánico se describe mediante una matriz unitaria de la forma $e^{iB}$ para la matriz $hermitiana B$. Por esta razón, la realización de exponenciales matriciales es una parte fundamental de la computación cuántica y, como tal, Q# ofrece rutinas intrínsecas para describir estas operaciones.

La manera más fácil de entender cómo calcular la exponencial de una matriz es a través de los valores propios y los vectores propios de esa matriz. En concreto, el teorema espectral comentado anteriormente dice que, para toda matriz hermitiana o unitaria, $A$ existe una matriz unitaria $U$ y una matriz diagonal $D$ tal que $A=U^\dagger D U$. Debido a las propiedades de unitariedad, $A^2 = U^\dagger D^2 U$ y, de forma similar para cualquier potencia, $p$$A^p = U^\dagger D^p U$. Si esto se sustituye por la definición de operador del operador exponencial:

$$ e^A= U^\dagger\left(\mathbf{1} +D +\frac{D^2 2}{!}+\cdots\right)U= ^\dagger\begin{bmatrix}\exp(D_{{11}) & 0 &\cdots&erio; 0\\ & \exp(D_{22})&\cdots&erio; 0\\ \vdots &\vdots &\ddots&\vdots\\ 0& 0&\cdots&\exp(D_{NN}) \end{bmatrix} U. $$

En otras palabras, si se transforma en la base propia de la matriz $A$, calcular la exponencial de la matriz equivale a calcular la exponencial ordinaria de los valores propios de la matriz. Dado que muchas operaciones de la computación cuántica implican la creación de exponenciales de matrices, este truco de transformación en la base propia de una matriz para simplificar el proceso de la exponencial del operador aparece con frecuencia. Es la base de muchos algoritmos cuánticos, como los métodos de simulación cuántica de estilo Trotter-Suzuki, que se explican más adelante en esta guía.

Otra propiedad útil contiene matrices involutorias. Una matriz $involutoria B$ es unitaria y hermitiana, es decir, $B=^B^{-1}=\dagger$. A continuación, una matriz involutoria es una matriz cuadrada igual a su propia inversa, $B^2=\mathbf{1}$. Al aplicar esta propiedad a la expansión anterior de la matriz exponencial, agrupar los $\mathbf{1}$ términos y B$, y $aplicar el teorema de Maclaurin a las funciones de coseno y seno, la identidad

$$e^{iBx}=\mathbf{1} \cos(x)+ iB\sin(x)$$

contiene para cualquier valor $real x$. Este truco es especialmente útil porque permite razonar sobre las acciones que tienen los exponenciales de matriz, incluso si la dimensión de $B$ es exponencialmente grande, para el caso especial cuando $B$ es involutorio.