Compartir a través de


Vectores y matrices en la computación cuántica

Cierta familiaridad con el álgebra lineal es esencial para comprender la computación cuántica. En este artículo se presentan los conceptos básicos del álgebra lineal y cómo trabajar con vectores y matrices en la computación cuántica.

Vectores

Un vector de columna, o vector para short, $v$ de dimensión (o tamaño) $n$ es una colección de $n$ números $complejos (v_1,v_2,\ldots,v_n)$ organizados como una columna:

$$v=\begin{bmatrix} v_1\\ v_2\\ \vdots\\ v_n \end{bmatrix}$$

La norma de un vector $v$ se define como $\sqrt{\sum_i |v_i|^2}$. Un vector se denomina vector de unidad si su norma es $1$.

El adyacente de un vector $de columna v$ es un vector de fila que se indica como $v^\dagger$ y se define como la transposición conjugada de $v$. Para un vector $de columna v$ de dimensión $n$, el adyacente es un vector de fila de la dimensión $1 \times n$:

$$\begin{bmatrix}\\ v_1 \vdots \\ v_n \end{bmatrix}^\dagger=\begin{bmatrix}v_1^* & \cdots&erio; v_n^*\end{bmatrix}$$

donde $v_i^*$ denota el conjugado complejo de $v_i$.

Mediante el álgebra lineal, el estado de un cúbit $\psi= a \ket{0} + b \ket{1}$ se describe como un vector$\begin{bmatrix} de estado cuántico a \\ b \end{bmatrix}$, donde $|a|^2 + |b|^2 = 1$. Para obtener más información, consulte El cúbit.

Producto escalar

Dos vectores se pueden multiplicar juntos a través del producto escalar, también conocido como producto de punto o producto interno. Como indica el nombre, el resultado del producto escalar de dos vectores es un escalar. El producto escalar proporciona la proyección de un vector a otro y se usa para expresar un vector como una suma de otros vectores más sencillos. El producto escalar entre dos vectores $de columna u$ y $v$ se denota como $\left\langle u, v\right\rangle= ^\dagger v $ y se define como

$$\left\langleu, v u\right\rangle=^\dagger v=\begin{bmatrix}u_1^* & \cdots&erio; u_n^* \end{bmatrix}v_1 \vdots\\ v_n= \end{bmatrix}u_1^* v_1 + \cdots + u_n^* v_n.\\\begin{bmatrix} $$

Con el producto escalar, la norma de un vector $v$ se puede escribir como $\sqrt{\langle v, v\rangle}$.

Puede multiplicar un vector con un número $$ a para formar un nuevo vector cuyas entradas se multiplican por .$$ También se pueden sumar dos vectores $u$ y $v$ para formar un nuevo vector cuyas entradas son la suma de las entradas $u$ y $v$. Estas son las operaciones siguientes:

$$\mathrm{Si u u_1 u_2 \vdots\\ u_n \end{bmatrix}~\mathrm{y =\begin{bmatrix}}~ v v_1\\\\ v_2 \vdots\\ v_n \end{bmatrix},}~~\mathrm{ au+bv =\begin{bmatrix} au_1+bv_1\\ au_2+bv_2\\ \vdots\\ au_n+bv_n\\\\ =\begin{bmatrix}}~\end{bmatrix}$$

Matrices

Una matriz de tamaño $m \times n$ es una colección de $números complejos m\cdot n$ organizados en $filas m$ y $n$ columnas, como se muestra a continuación:

$M =\begin{bmatrix} M_{~~{11} M_{12}\cdots~~~~ M_{1n}\\ M_~~{{21} M_\cdots{22}~~{~~ M_{2n}\\\ddots\\ M_{m1}~~ M_{m2~~\cdots}~~ M_{mn}\\\end{bmatrix}$

Nota:

Tenga en cuenta que un vector de dimensión $n$ es simplemente una matriz de tamaño $n \times 1$.

Las operaciones cuánticas se representan mediante matrices cuadradas, es decir, el número de filas y columnas es igual. Por ejemplo, las operaciones de un solo cúbit se representan mediante $2 2$ \times matrices, como la operación Pauli $X$.

$$X =\begin{bmatrix} 0 & 1 \\ 1 & 0 \end{bmatrix}$$

Sugerencia

En Q#, la operación Pauli $X$ se representa mediante la X operación .

Al igual que con los vectores, puede multiplicar una matriz con un número $c$ para obtener una nueva matriz donde cada entrada se multiplica con $c$ y se pueden agregar dos matrices del mismo tamaño para generar una nueva matriz cuyas entradas son la suma de las entradas respectivas de las dos matrices.

Multiplicación de matrices

También puede multiplicar una matriz $M$ de dimensión $m\times n$ y una matriz $N$ de dimensión $n \times p$ para obtener una nueva matriz $P$ de dimensión $m \times p$ de la siguiente manera:

$$\begin{\begin{align}&erio;\begin{bmatrix} {\cdots~~{11}{12}~~~~ M_ M_ M_{1n}\\ M_{21}{~~ M_~~\cdots{~~{22} M_{2n}\\\ddots\\ M_{m1~~} M_{m2}~~~~\cdots M_{mn\end{bmatrix}\begin{bmatrix}} N_~~~~~~{{11}{12}\cdots N_ N_1p}\\ N_{21}~~{ N_~~\cdots{22}~~ N_2p\ddots\\}\\ N_{{n1~~{} N_n2}~~{\cdots~~ N_n P_~~{{11}p P_{}\end{bmatrix}=\begin{bmatrix} {12}~~\cdots~~ {P_1p}\\ P_~~{{21} P_\cdots{22}~~{~~ P_{2p}\\\ddots\\ P_{m1}~~ P_{m2~~\cdots}~~ P_mp{}\end{bmatrix}\end{align}$$

donde las entradas de $P$ son $P_{ik}=\sum_j M_{ij}N_{jk}$. Por ejemplo, la entrada $P_{11}$ es el producto escalar de la primera fila de $M$ con la primera columna de $N$. Tenga en cuenta que, dado que un vector es simplemente un caso especial de una matriz, esta definición se extiende a la multiplicación matriz-vector.

Tipos especiales de matrices

Una matriz cuadrada especial es la matriz de identidad, indicada como $\mathbb{\mathbb{I}$, que tiene todos sus elementos diagonales iguales a $1$ y los elementos restantes iguales a $0$:

$\mathbb{\mathbb{I}=\begin{bmatrix} 1 ~~ 0 ~~\cdots~~ 0\\ 0 ~~ 1 ~~\cdots~~ 0\\~~\ddots\\ 0 ~~ 0 ~~\cdots~~ 1 \end{bmatrix}.$

Para una matriz cuadrada A$, una matriz $$B$ es su inversa si $AB = BA =\mathbb{\mathbb{I}$. Si una matriz $A$ tiene un inverso, la matriz inversa es única y se escribe como $A^{-1}$.

Para cualquier matriz $M$, la transposición contigua o conjugada de $M$ es una matriz $N$, tal como $N_{ij}= M_{ji}^*$. El adyacente de $M se indica $M^\dagger$$.

Una matriz$U$ es unitaria si $UU^\dagger= U^\dagger U =\mathbb{I}$ o de forma equivalente, $U^{{-1}= U^\dagger$. Una propiedad importante de las matrices unitarias es que conservan la norma de un vector. Esto ocurre porque

$\langle v,v \rangle=v^\dagger v = v^\dagger U^{-1} U v = v^\dagger U^\dagger U v =\langle U v, U v\rangle.$

Nota:

Las operaciones cuánticas se representan mediante matrices unitarias, que son matrices cuadradas cuyo adyacente es igual a su inversa.

Una matriz $M$ se denomina Hermitian si $M=^\dagger$.

En la computación cuántica, básicamente solo se encuentran dos matrices: hermítica y unitaria.

Producto tensorial

Otra operación importante es el producto tensor, también denominado producto directo de matriz o producto Kronecker.

Considere los dos vectores $v=\begin{bmatrix}a \\ b \end{bmatrix}$ y $u =\begin{bmatrix} c \\ d \end{bmatrix}$. Su producto tensorial se indica como $v \otimes u$, y da como resultado una matriz de bloques.

$$\begin{bmatrix}a \\ b \end{bmatrix}\begin{bmatrix}\otimesc \\ d \end{bmatrix}\begin{bmatrix}=a \begin{bmatrix} c \\ d \end{bmatrix}\\[1.5em] b \begin{bmatrix} c \\ d\begin{bmatrix}=\end{bmatrix}\end{bmatrix} a c \\ a d \\ d b c \\ b d\end{bmatrix}$$

Nota:

Tenga en cuenta que el producto tensor se distingue de la multiplicación de matriz, que es una operación completamente diferente.

El producto tensor se usa para representar el estado combinado de varios cúbits. La eficacia real de la computación cuántica proviene del aprovechamiento de varios cúbits para realizar cálculos. Para más información, consulte Operaciones en varios cúbits.

El producto tensor de dos matrices cuadradas M y N de tamaño $n n$\times es una matriz $P=M\otimes N$ mayor de tamaño $n^2 \times n^2$.$ $$ $ Por ejemplo:

$$\begin{bmatrix}a\ b \\ c\ d \end{bmatrix}\otimes\begin{bmatrix} e\ f g\\\ h \end{bmatrix}=\begin{bmatrix} a\begin{bmatrix} e\ f g\\\ h \end{bmatrix} b\begin{bmatrix} e\ f g\\\ h \end{bmatrix}\\[1em] c\begin{bmatrix} e\ f\\ g\ h e\end{bmatrix}\begin{bmatrix}\ f\\ g\ h=\begin{bmatrix} \end{bmatrix}\end{bmatrix}ae\ af\ be\ bf \\ ag\ ah\ bg\ bh \\ ce\ cf\ de\ df \\ cg\ ch\ dg\ dh .\end{bmatrix} $$

Valores propios y vectores propios

Considere una matriz $cuadrada M$ y un vector $v$. $v$ es un vector propio de $M$ si $Mv = cv$ para cualquier valor de $c$. El entero $c$ es el valor propio que corresponde al vector propio $v$.

En general, una matriz $M$ puede transformar un vector en cualquier otro vector. Un vector propio es especial porque no se modifica, salvo que se multiplica por un número. Si $v$ es un vector propio con un valor $propio c$, $av$ también es un vector propio (para cualquier a distinto de cero$$) con el mismo valor propio. Por ejemplo, para la matriz de identidades, cada vector $v$ es un vector propio con un valor propio de $1$.

Como otro ejemplo, considere una matriz diagonal$D$ que solo tiene entradas distintas de cero en la diagonal:

$$\begin{bmatrix}&d_1 amp; 0 & 0 0 \\ & d_2 & 0 \\ 0 & 0 & d_3 \end{bmatrix}. $$

Los vectores

$$\begin{bmatrix}1 \\ 0 \\ 0 \end{bmatrix}, \begin{bmatrix}0 \\ 1 \\ 0\end{bmatrix}\text{and}\begin{bmatrix}0 \\ 0 \\ 1\end{bmatrix}$$

son vectores propios de esta matriz con los valores propios $d_1$, $d_2$ y $d_3$, respectivamente. Si $d_1$, $d_2$, and $d_3$ son números distintos, estos vectores (y sus múltiplos) son los únicos vectores propios de la matriz $D$.

En general, en una matriz diagonal, es fácil leer los valores propios y vectores propios. Los valores propios son todos los números que aparecen en la diagonal y sus respectivos vectores propios son los vectores de unidad que contienen una entrada igual a $1$ y las otras entradas iguales a $0$.

Tenga en cuenta en el ejemplo que los vectores propios de $D$ forman una base para $vectores 3$ dimensionales. Una base es un conjunto de vectores, de modo que cualquier vector se puede escribir como una combinación lineal de dicho conjunto. De forma más específica, $v_1$, $v_2$ y $v_3$ forman una base si cualquier vector $v$ se puede escribir como $v=a_1 v_1 + a_2 v_2 + a_3 v_3$ para algunos números $a_1$, $a_2$ y $a_3$.