Uso de vectores y matrices en la computación cuántica

Es esencial tener cierta familiaridad con vectores y matrices para comprender la computación cuántica. El artículo Álgebra lineal para la computación cuántica proporciona un breve actualizador, y se recomienda a los lectores que quieran profundizar más para leer una referencia estándar en álgebra lineal, como Strang, G. (1993). Introducción al álgebra lineal (Vol. 3). Wellesley, MA: Wellesley-Cambridge Pulse o una referencia en línea como Álgebra lineal.

Vectores

Un vector de columna (o simplemente vector) $v$ de dimensión (o tamaño) $n$ es una colección de números complejos $n$$(v_1,v_2,\ldots,v_n)$ organizados como una columna:

$$v=\begin{bmatrix} v_1\\ v_2\\ \vdots\\ v_n \end{bmatrix}$$

La norma de un vector $v$ se define como $\sqrt{\sum_i |v_i|^2}$. Puede decirse que un vector es de norma unitaria (también puede denominarse vector unitario) si su norma es $1$. El elemento contiguo de un vector$v$ se indica como $v^\dagger$ y se define como el siguiente vector de fila, donde $*$ denota el valor conjugado complejo,

$$\begin{bmatrix}\\ v_1 \vdots \\ v_n \end{bmatrix}^\dagger=\begin{bmatrix}v_1^* & \cdots&Amp; v_n^*\end{bmatrix}$$

Observe que hay una distinción entre un vector de columna $v$ y un vector de fila $v^\dagger$.

Producto interno

Dos vectores se pueden multiplicar con el producto interno, también conocido como producto escalar. Como su nombre implica, el resultado del producto interno de dos vectores es escalar. El producto interno proporciona la proyección de un vector sobre otro y es muy valioso al describir cómo expresar un vector como una suma de otros vectores más sencillos. El producto interno entre dos vectores de columna $u=(u_1 , u_2 , \ldots , u_n)$ y $v=(v_1 , v_2 , \ldots , v_n)$, que se indica como $\left\langle u, v\right\rangle$, se define como

$$\left\langleu, v u^\dagger v=\right\rangle=\begin{bmatrix} u_1^* & \cdots&Amp; u_n^* \end{bmatrix}\begin{bmatrix}v_1\\ \vdots\\ v_n=\end{bmatrix}u_1^{*} v_1 + + \cdots _n^{*} v_n. $$

Esta notación también permite que la norma de un vector $v$ se escriba como $\sqrt{\langle v, v\rangle}$.

Un vector se puede multiplicar por un número $c$ para formar un nuevo vector cuyas entradas se multiplican por $c$. También se pueden sumar dos vectores $u$ y $v$ para formar un nuevo vector cuyas entradas son la suma de las entradas $u$ y $v$. Estas son las operaciones siguientes:

$$\mathrm{Si}~u =\begin{bmatrix} u_1\\ u_2\\ \vdots\\ u_n \end{bmatrix}~\mathrm{y}~ v =\begin{bmatrix} v_1\\ v_2\\ \vdots\\ v_n \end{bmatrix},~\mathrm{depués}~ au+bv =\begin{bmatrix} au_1+bv_1\\ au_2+bv_2\\ \vdots\\ au_n+bv_n \end{bmatrix}. $$

Una matriz de tamaño $m \times n$ es una colección de números complejos $mn$ organizados en filas $m$ y columnas $n$, como se muestra a continuación:

$M =\begin{bmatrix} M_{11}~~{ M_{12}~~\cdots~~ M_{1n}\\ M_~~{{21} M_~~{22}{\cdots~~ M_{2n}\\\ddots\\ M_{m1}~~ M_{m2~~\cdots}~~ M_{mn.}\\\end{bmatrix}$

Tenga en cuenta que un vector de dimensión $n$ es simplemente una matriz de tamaño $n \times 1$. Al igual que con los vectores, una matriz se puede multiplicar por un número $c$ para obtener una nueva matriz en la que cada entrada se multiplica por $c$, y se pueden sumar dos matrices del mismo tamaño para generar una nueva matriz cuyas entradas son la suma de las entradas respectivas de las dos matrices.

Multiplicación de matrices

También se pueden multiplicar dos matrices, $M$ de dimensión $m\times n$ y $N$ de dimensión $n \times p$, para obtener una nueva matriz $P$ de dimensión $m \times p$, como se muestra a continuación:

$$\begin{\begin{align}&Amp;\begin{bmatrix}{~~~~{11}\cdots~~{12}{M_ M_ M_1n~~{{21}~~{22}~~}\\{\cdots M_ M_ M_{2n\ddots\\}\\ M_{m1~~} M_{m2}~~~~{\cdots M_mn}\begin{bmatrix}\end{bmatrix} N_~~{{11}{12}\cdots~~~~ N_ N_{1p}\\ N_~~{~~\cdots{22}{21}~~ N_ N_2p}\\\ddots\\ N_{{n1~~} N_{n2~~{~~}\cdots N_np~~}\end{bmatrix}=\begin{bmatrix}{{11} P_ P_ {12}~~\cdots~~{P_1p}\\ P_~~{{21} P_\cdots{22}~~{~~ P_{2p}\\\ddots\\ P_{m1}~~ P_{m2~~\cdots}~~ P_mp{}\end{bmatrix}\end{align}$$

donde las entradas de $P$ son $P_{ik}=\sum_j M_{ij}N_{jk}$. Por ejemplo, la entrada $P_{11}$ es el producto interior de la primera fila de $M$ con la primera columna de $N$. Tenga en cuenta que, dado que un vector es simplemente un caso especial de una matriz, esta definición se extiende a la multiplicación matriz-vector.

Todas las matrices que se consideren serán matrices cuadradas, donde el número de filas y columnas son iguales, o vectores, que solo corresponde a $1$ columna. Una matriz cuadrada especial es la matriz de identidad, indicada $\mathbb{\mathbb{I}$, que tiene todos sus elementos diagonales iguales a $1$ y los elementos restantes iguales a $0$:

$\mathbb{\mathbb{I}=\begin{bmatrix}1 ~~ 0 0\cdots~~~~ 0 ~~\\ 1~~~~\cdots0\ddots\\\\~~ 0 ~~ 0\cdots~~~~ 1 .\end{bmatrix}$

Para una matriz $cuadrada A$, una matriz $B$ es su inversa si $AB = BA =\mathbb{\mathbb{I}$. No es necesario que exista la inversa de una matriz, pero cuando existe, es única y se denota como $A^{-1}$.

Para cualquier matriz $M$, la transposición contigua o conjugada de $M$ es una matriz $N$, tal como $N_{ij}= M_{ji}^*$. El elemento contigo de $M$ normalmente se indica como $M^\dagger$. Una matriz $U$ es unitaria si $UU^\dagger= U^\dagger U =\mathbb{I}$ o equivalente, $U^={{-1} U^.\dagger$ Una propiedad importante de las matrices unitarias es que conservan la norma de un vector. Esto ocurre porque

$\langlev,v \rangle=v^ v v^\dagger=\dagger U^{-1} U v=^ U^\dagger U^\dagger U v =\langle U v, U v.\rangle$

Se dice que una matriz $M$ es hermitiana si $M=M^\dagger$.

Producto tensorial

Otra operación importante es el producto de Kronecker, también llamado producto directo de matrices o producto tensorial. Tenga en cuenta que el producto de Kronecker se distingue de la multiplicación de matrices, que es una operación completamente diferente. En la teoría de la computación cuántica, el producto tensorial se usa normalmente para denotar el producto de Kronecker.

Considere los dos vectores $v=\begin{bmatrix}a \\ b \end{bmatrix}$ and $u =\begin{bmatrix} c \\ d \\ e \end{bmatrix}$. Su producto tensorial se indica como $v \otimes u$, y da como resultado una matriz de bloques.

$$\begin{bmatrix} a \\ b \end{bmatrix}\otimes\begin{bmatrix} c \\ d \\ e \end{bmatrix}=\begin{bmatrix} a \begin{bmatrix} c \\ d \\ e \end{bmatrix}\\[1.5em] b \begin{bmatrix} c \\ d \\ e\end{bmatrix}\end{bmatrix}=\begin{bmatrix} a c \\ a d \\ a e \\ b c \\ b d \\ be\end{bmatrix}$$

Observe que el producto tensor es una operación en dos matrices o vectores de tamaño arbitrario. El producto tensorial de dos matrices $M$ de tamaño $m\times n$ y $N$ de tamaño $p \times q$ es una matriz mayor $P=M\otimes N$ de tamaño $mp \times nq$ y se obtiene a partir de $M$ y $N$, como se indica a continuación:

$$\begin{align}M \otimes N &=\begin{bmatrix}{~~~~\cdots{11}M_ M_{1n\ddots\\}\\ M_{m1~~~~}\cdots M_{mn}\end{bmatrix}\otimes\begin{bmatrix} N_ N_{11}{{~~\cdots~~1q}\\\ddots\\ N_{p1~~}\cdots~~ N_{pq\end{bmatrix}\\&}amp;=\begin{bmatrix}{~~{11}{11}~~\begin{bmatrix}{\cdotsM_ N_ N_{1q}\\\ddots\\ N_{p1}\cdots~~~~ N_{pq\end{bmatrix}~~}\cdots~~{ M_1n}\begin{bmatrix} N_{11}\cdots~~{~~ N_1q}\\{\ddots\\ N_{p1~~~~\cdots} N_pq\ddots\\}\end{bmatrix}\\ M_{m1 N_ N_~~{\cdots~~{11}{1q}\\}\begin{bmatrix}\ddots\\ N_{p N_{1}~~~~\cdots N_pq~~{\end{bmatrix}~~\cdots} M_mn N_}\begin{bmatrix}{{11}~~\cdots~~{N_1q}\\\ddots\\ N_{p1\cdots}~~~~ N_{pq.}\end{bmatrix}\end{bmatrix} \end{align} $$

Esto se muestra mejor con un ejemplo: $$\begin{bmatrix} a\ b \\ c\ d\otimes\begin{bmatrix}\end{bmatrix}e\ f\\ g\ h=\begin{bmatrix}\end{bmatrix}a\begin{bmatrix} e\ f\\ g\ h \end{bmatrix} b\begin{bmatrix} e\ f\\ g\ h\\\end{bmatrix} [1em] c\begin{bmatrix} e\ f\\ g\ h \end{bmatrix}\begin{bmatrix} d e\ f g\ h\\ ae\end{bmatrix}\begin{bmatrix}=\end{bmatrix}\ af\ be\ bf \\ ag\ ah\ bg\ bh \\ ce\ cf\ de\ df \\ cg\ ch\ dg\ dh .\end{bmatrix} $$

Una convención de notación útil final que rodea a los productos tensoriales es que, para cualquier vector $v$ o matriz $M$, $v^{\otimes n}$ o $M^{\otimes n}$ es la abreviatura de un producto tensorial repetido $n$-fold. Por ejemplo:

\begin{align}&Amp;\begin{bmatrix} 1 \\ 0 \end{bmatrix}^ 1}\begin{bmatrix}= 1 \\ 0 \end{bmatrix}, \qquad\begin{bmatrix} 1 \\ 0 \end{bmatrix}^{\otimes 2}\begin{bmatrix}= 1 \\ 0 0 \\0 \\\end{bmatrix}, \qquad\begin{bmatrix} 1 \\ -1 \end{bmatrix}^{\otimes{\otimes 2\begin{bmatrix}}= 1 \\ -1 \\-1 1 \end{bmatrix}\\,&\\ amp;\begin{bmatrix} 0 & 1 \\ 1& 0 \end{bmatrix}^{\otimes 1}=\begin{bmatrix} 0& 1 \\ 1& 0 , \qquad\begin{bmatrix} 0 \end{bmatrix}& 1 \\ 1& 0 \end{bmatrix}^{\otimes 2}=\begin{bmatrix} 0 & 0& 0& 1 \\ 0 & 0& 1& 0 0 \\& 1& 0& 0\\ 1 & 0& 0& 0\end{bmatrix}. \end{align}

Pasos siguientes