Conceptos avanzados de la matriz en la computación cuántica

En este artículo, se exploran los conceptos de valores propios, vectores propios y exponenciales. Estos conceptos forman un conjunto fundamental de herramientas para matrices que se usan para describir e implementar algoritmos cuánticos. Para conocer los conceptos básicos de vectores y matrices a medida que se aplican a la computación cuántica, consulte Álgebra lineal para la computación cuántica y vectores y matrices.

Valores propios y vectores propios

Supongamos que $M$ es una matriz cuadrada y $v$ es un vector que no sea un vector con todo ceros (por ejemplo, el vector cuyas entradas sean todas iguales a $0$).

$v$ es un vector propio de $M$ si $Mv = cv$ para cualquier valor de $c$. El entero $c$ es el valor propio que corresponde al vector propio $v$. En general, una matriz $M$ puede transformar un vector en cualquier otro vector. Sin embargo, un vector propio es especial porque se deja sin cambios, excepto que se multiplica por un número. Tenga en cuenta que si $v$ es un vector propio con un valor propio $c$, $av$ también es un vector propio (para cualquier valor de $a$ distinto de cero) con el mismo valor propio.

Por ejemplo, para la matriz de identidades, cada vector $v$ es un vector propio con un valor propio de $1$.

Como otro ejemplo, considere una matriz diagonal$D$ que solo tiene entradas distintas de cero en la diagonal:

$$\begin{bmatrix}&d_1 amp; 0 & 0 0 \\& d_2 & 0 0 \\ amp; 0 && d_3 \end{bmatrix}. $$

Los vectores

$$\begin{bmatrix}1 \\ 0 \\ 0 \end{bmatrix}, \begin{bmatrix}0 \\ 1 \\ 0\end{bmatrix}\text{and}\begin{bmatrix}0 \\ 0 \\ 1\end{bmatrix}$$

son vectores propios de esta matriz con los valores propios $d_1$, $d_2$ y $d_3$, respectivamente. Si $d_1$, $d_2$, and $d_3$ son números distintos, estos vectores (y sus múltiplos) son los únicos vectores propios de la matriz $D$. En general, en una matriz diagonal, es fácil leer los valores propios y vectores propios. Los valores propios son todos los números que aparecen en la diagonal y sus respectivos vectores propios son los vectores de unidad que contienen una entrada igual a $1$ y las otras entradas iguales a $0$.

Observe que en el ejemplo anterior los vectores propios de $D$ forman una base para $3$ vectores tridimensionales. Una base es un conjunto de vectores, de modo que cualquier vector se puede escribir como una combinación lineal de dicho conjunto. De forma más específica, $v_1$, $v_2$ y $v_3$ forman una base si cualquier vector $v$ se puede escribir como $v=a_1 v_1 + a_2 v_2 + a_3 v_3$ para algunos números $a_1$, $a_2$ y $a_3$.

En la computación cuántica, básicamente solo se encuentran dos matrices: hermítica y unitaria. Recuerde que una matriz hermitiana (también denominada autocontigua) es una matriz cuadrada compleja igual a su propia transponeción conjugada compleja, mientras que una matriz unitaria es una matriz cuadrada compleja cuya inversa es igual a su transponeción conjugada compleja.

Hay un resultado general conocido como el teorema espectral, lo que implica lo siguiente: para cualquier matriz hermiiana o unitaria $M$, existe una U$ unitaria $de modo que $M=U^\dagger D U$ para alguna matriz $diagonal D$. Además, las entradas diagonales de $D$ serán los valores propios de $M$ y las columnas de $U^\dagger$ serán los vectores propios correspondientes. Esta factorización se conoce como descomposición espectral o eigendecomposition.

Exponenciales de matriz

Una exponencial de matriz también se puede definir mediante una analogía exacta con la función exponencial. La exponencial de matriz de una matriz $A$ se puede expresar como

$$ e^A=\mathbf{1} + A + \frac{A^2 2}{!}+\frac{A^3}{3!}+\cdots$$

Esto es importante porque la evolución del tiempo en la mecánica cuántica se describe mediante una matriz unitaria de la forma $e^{iB}$ para la matriz hermitiana $B$. Por esta razón, la realización de exponenciales matriciales es una parte fundamental de la computación cuántica y, como tal, Q# ofrece rutinas intrínsecas para describir estas operaciones. En la práctica, hay muchas maneras de calcular una exponencial de matriz en un equipo clásico y, en general, aproximarse numéricamente a este tipo de valor exponencial es una actividad peligrosa. Consulte Cleve Moler and Charles Van Loan. "Nineteen dubious ways to compute the exponential of a matrix." SIAM review 20.4 (1978): 801-836 para obtener más información sobre los desafíos que conlleva.

La manera más fácil de entender cómo calcular la exponencial de una matriz es a través de los valores propios y los vectores propios de esa matriz. En concreto, el teorema espectral comentado anteriormente dice que, para toda matriz hermitiana o unitaria, $A$ existe una matriz unitaria $U$ y una matriz diagonal $D$ tal que $A=U^\dagger D U$. Debido a las propiedades de unitariedad, $A^2 = U^\dagger D^2 U$ y, de forma similar para cualquier potencia, $p$$A^p = U^\dagger D^p U$. Si esto se sustituye por la definición de operador del operador exponencial:

$$ e^A= U^\dagger\left(\mathbf{1} +D +\frac{D^2 2}{!}+\cdots\right)U= ^\dagger\begin{bmatrix}\exp(D_{{11}) & 0 &\cdots&Amp; 0\\ 0 & \exp(D_{22})&\cdots&Amp; 0\\ \vdots &\vdots &\ddots&\vdots\\ 0& 0&\cdots&\exp(D_{NN}) \end{bmatrix} U. $$

En otras palabras, si se transforma en la base propia de la matriz $A$, calcular la exponencial de la matriz equivale a calcular la exponencial ordinaria de los valores propios de la matriz. Dado que muchas operaciones de la computación cuántica implican la creación de exponenciales de matrices, este truco de transformación en la base propia de una matriz para simplificar el proceso de la exponencial del operador aparece con frecuencia. Es la base de muchos algoritmos cuánticos, como los métodos de simulación cuántica de estilo Trotter-Suzuki, que se explican más adelante en esta guía.

Otra propiedad útil contiene matrices involutorias. Una matriz $involutoria B$ es unitaria y hermitiana, es decir, $B=^{-1}=B^\dagger$. A continuación, una matriz involutoria es una matriz cuadrada igual a su propia inversa, $B^2=\mathbf{1}$. Al aplicar esta propiedad a la expansión anterior de la matriz exponencial, agrupar los $\mathbf{1}$ términos y $B$ , y aplicar el teorema de Maclaurin a las funciones de coseno y seno, la identidad

$$e^{iBx}=\mathbf{1} \cos(x)+ iB\sin(x)$$

contiene para cualquier valor $real x$. Este truco es especialmente útil porque permite razonar sobre las acciones que tienen las matrices exponenciales, incluso si la dimensión de $B$ es exponencialmente grande, para el caso especial cuando $B$ es involutorio.

Pasos siguientes