Condividi tramite


Vettori e matrici nel calcolo quantistico

Una certa familiarità con l'algebra lineare è essenziale per comprendere il calcolo quantistico. Questo articolo presenta i concetti di base dell'algebra lineare e come usare vettori e matrici nel calcolo quantistico.

Vettori

Un vettore di colonna o un vettore per short, $v$ di dimensione (o dimensione) $n$ è una raccolta di $n$ numeri $complessi (v_1,v_2,\ldots,v_n)$ disposti come colonna:

$$v=\begin{bmatrix} v_1\\ v_2\\ \vdots\\ v_n \end{bmatrix}$$

La norma di un vettore $v$ è definita come $\sqrt{\sum_i |v_i|^2}$. Un vettore viene chiamato vettore di unità se la norma è $1$.

L'elemento adiacente di un vettore di colonna v$ è un vettore $di riga indicato come $v^\dagger$ ed è definito come trasposizione coniugata di $v$. Per un vettore $di colonna v$ della dimensione $n$, l'adiacente è un vettore di riga della dimensione $1 \times n$:

$$\begin{bmatrix}\\ v_1 \vdots \\ v_n \end{bmatrix}^\dagger=\begin{bmatrix}v_1^* & \cdots&Amp; v_n^*\end{bmatrix}$$

dove $v_i^*$ indica il complesso coniugato di $v_i$.

Usando l'algebra lineare, lo stato di un qubit $\psi= a \ket{0} + b \ket{1}$ viene descritto come vettore$\begin{bmatrix} di stato quantistico a \\ b \end{bmatrix}$, dove $|a|^2 + |b|^2 = 1.$ Per altre informazioni, vedere Qubit.

Prodotto scalare

Due vettori possono essere moltiplicati insieme tramite il prodotto scalare, noto anche come prodotto punto o prodotto interno. Come suggerisce il nome, il risultato del prodotto scalare di due vettori è un scalare. Il prodotto scalare fornisce la proiezione di un vettore su un altro e viene usato per esprimere un vettore come somma di altri vettori più semplici. Il prodotto scalare tra due vettori $di colonna u$ e $v$ è indicato come $\left\langle u, v u^\dagger v\right\rangle= $ ed è definito come

$$\left\langleu, v u^\dagger v=\right\rangle=\begin{bmatrix} u_1^* & \cdots&Amp; u_n^* \end{bmatrix}v_1 \vdots\\ v_n= \end{bmatrix}u_1^* v_1 + + \cdots u_n^* v_n.\\\begin{bmatrix} $$

Con il prodotto scalare, la norma di un vettore $v$ può essere scritta come $\sqrt{\langle v, v\rangle}$.

È possibile moltiplicare un vettore con un numero $per$ formare un nuovo vettore le cui voci vengono moltiplicate per $un oggetto$ . È anche possibile sommare due vettori $u$ e $ v$ per formare un nuovo vettore i cui elementi sono la somma degli elementi di $u$ e $v$. Queste operazioni sono le seguenti:

$$\mathrm{Se}~u u_1 =\begin{bmatrix}\\ u_2\\ \vdots\\ u_n \end{bmatrix}~\mathrm{e}~ v =\begin{bmatrix} v_1\\ v_2\\ \vdots\\ v_n \end{bmatrix},~\mathrm{}~ au+bv =\begin{bmatrix} au_1+bv_1+au_2\\+bv_2\\ \vdots\\ au_n+bv_n\end{bmatrix}$$

Matrici

Una matrice di dimensioni $m n$ \times è una raccolta di $numeri complessi m\cdot$ disposti in $m$ righe e $n$ colonne, come illustrato di seguito:

$M =M_ M_{11}~~~~{{12}~~\cdots M_{1n}\\ M_{{21}~~ M_~~~~\cdots{22}{ M_{2n}\\\ddots\\ M_{m1~~} M_{m2}~~\cdots~~ M_{mn\begin{bmatrix}}\\\end{bmatrix}$

Nota

Si noti che un vettore di dimensione $n$ è semplicemente una matrice di dimensione $n \times 1$.

Le operazioni quantistiche sono rappresentate da matrici quadrate, ovvero il numero di righe e colonne è uguale. Ad esempio, le operazioni a qubit singolo sono rappresentate da $2 2$ \times matrici, ad esempio l'operazione Pauli X$ $

$$X =\begin{bmatrix} 0 & 1 1 \\ & 0 \end{bmatrix}$$

Suggerimento

In Q#l'operazione Pauli $X$ è rappresentata dall'operazione X .

Come per i vettori, è possibile moltiplicare una matrice con un numero $c$ per ottenere una nuova matrice in cui ogni voce viene moltiplicata con $c$ e due matrici della stessa dimensione possono essere aggiunte per produrre una nuova matrice le cui voci sono la somma delle rispettive voci delle due matrici.

Moltiplicazione di matrici

È anche possibile moltiplicare una matrice $M di dimensione $m n\times$ e una matrice $N$ della dimensione $n \times p$ per ottenere una nuova matrice $P$ della dimensione $m \times p$ come$ indicato di seguito:

$$\begin{\begin{align}&Amp;\begin{bmatrix} M_ M_ M_{{12}\cdots~~~~1n}\\ M_{21}~~{ M_{22}{~~~~\cdots M_{2n}\\\ddots\\ M_{m1}~~ M_{m2{}\cdots~~~~ M_mn}\begin{bmatrix}\end{bmatrix} N_{11}~~ N_{~~\cdots{12}~~ N_{1p}\\ N_{{21}~~ N_~~~~\cdots{22} N_ N_2p{\ddots\\}\\ N_{n1}~~ N_{n2}~~~~{\cdots N_np{~~{11}\end{bmatrix}=\begin{bmatrix}} P_ P_{{11}~~ {12}~~\cdots~~ {P_1p}\\ P_ P_{21}~~{ P_{22}{~~~~{\cdots2p}\\\ddots\\ P_{m1}~~ P_{m2~~\cdots}~~ P_mp{}\end{bmatrix}\end{align}$$

dove gli elementi di $P$ sono $P_{ik}=\sum_j M_{ij}N_{jk}$. Ad esempio, la voce $P_{11}$ è il prodotto scalare della prima riga di $M$ con la prima colonna di $N$. Tenere presente che, poiché un vettore è semplicemente un caso speciale di matrice, questa definizione si estende alla moltiplicazione matrice-vettore.

Tipi speciali di matrici

Un tipo particolare di matrice quadrata è la matrice identità, denotata con $\mathbb{\mathbb{I}$, in cui tutti gli elementi diagonali sono pari a $1$ e gli elementi restanti sono pari a $0$:

$\mathbb{\mathbb{I}=\begin{bmatrix} 1 ~~ 0 ~~\cdots~~ 0\\ 0 ~~ 1 ~~\cdots~~ 0\\~~\ddots\\ 0 ~~ 0 ~~\cdots~~ 1 \end{bmatrix}.$

Per una matrice quadrata $A$, una matice $B$ è la sua inversa se $AB = BA =\mathbb{\mathbb{I}$. Se una matrice $A$ ha un inverso, la matrice inversa è univoca e viene scritta come $A^{-1}$.

Per qualsiasi matrice $M$, la trasposta coniugata o aggiunta di $M$ è una matrice $N$ tale che $N_{ij}= M_{ji}^*$. L'adiacente di $M è indicato $M^\dagger$$.

Una matrice $U$ è unitaria se $UU^\dagger= U^\dagger U =\mathbb{I}$ oppure, in modo equivalente, $U^{{-1}= U^\dagger$. Una proprietà importante delle matrici unitarie è che mantengono la norma di un vettore. Ciò si verifica perché

$\langle v,v \rangle=v^\dagger v = v^\dagger U^{-1} U v = v^\dagger U^\dagger U v =\langle U v, U v\rangle.$

Nota

Le operazioni quantistiche sono rappresentate da matrici unitari, che sono matrici quadrate le cui adiacente sono uguali al relativo inverso.

Una matrice $M$ viene chiamata Hermitian se $M=^\dagger$.

Nel calcolo quantistico sono essenzialmente presenti solo due matrici: Hermitian e unitari.

Prodotto tensoriale

Un'altra operazione importante è il prodotto tensore, detto anche prodotto diretto matrice o prodotto Kronecker.

Si considerino $i due vettori v=\begin{bmatrix}a \\ b \end{bmatrix}$ e $u =\begin{bmatrix} c \\ d \end{bmatrix}$. Il loro prodotto tensoriale è denotato come $v \otimes u$ e il risultato è una matrice a blocchi.

$$\begin{bmatrix}a \\ b \end{bmatrix}\otimes\begin{bmatrix} c \\ d \end{bmatrix}\begin{bmatrix}=a \begin{bmatrix} c \\ d \end{bmatrix}\\[1.5em] b \begin{bmatrix} c d\begin{bmatrix}=\end{bmatrix}\end{bmatrix}\\ a c \\ a d b \\ c d b d \\\end{bmatrix}$$

Nota

Si noti che il prodotto tensore è distinto dalla moltiplicazione della matrice, che è un'operazione completamente diversa.

Il prodotto tensore viene usato per rappresentare lo stato combinato di più qubit. La potenza reale del calcolo quantistico deriva dall'uso di più qubit per eseguire calcoli. Per altre informazioni, vedere Operazioni su più qubit.

Il prodotto tensore di due matrici quadrate M e N di dimensioni $n\times$ è una matrice $più grande P=M\otimes N$ di dimensioni $n^2 \times n^2$.$ $$ $ Ad esempio:

$$\begin{bmatrix}a\ b \\ c\ d \end{bmatrix}\otimes\begin{bmatrix} e\ f\\ g\ h \end{bmatrix}=\begin{bmatrix} a\begin{bmatrix} e\ f\\ g\ h \end{bmatrix} b e\begin{bmatrix}\ f\\ g\ h \end{bmatrix}\\[1em] c\begin{bmatrix} e\ f\\ g\ h \end{bmatrix} d\begin{bmatrix} e\ f\\ g\ h=\begin{bmatrix} \end{bmatrix}\end{bmatrix}ae\ af\ be\ bf \\ ag\ ah\ bg\ bh \\ ce\ cf\ de\ df \\ cg\ ch\ dg\ dh .\end{bmatrix} $$

Autovettori e autovalori

Si consideri una matrice $quadrata M$ e un vettore $v$. Il vettore $v$ è un autovettore di $M$ se $Mv = cv$ per un numero $c$. Il numero intero $c$ è l'autovalore corrispondente all'autovettore $v$.

In generale, una matrice $M$ può trasformare un vettore in qualsiasi altro vettore. Un eigenvetore è speciale perché è invariato, tranne per essere moltiplicato per un numero. Se $v$ è un eigenvector con eigenvalue $c$, $av$ è anche un eigenvector (per qualsiasi valore diverso da zero $$a) con lo stesso eigenvalue. Ad esempio, per la matrice di identità, ogni vettore $v$ è un autovettore con autovalore $1$.

Come altro esempio, si consideri una matrice$diagonale D$, che contiene solo voci non zero sulla diagonale:

$$\begin{bmatrix}&d_1 amp; 0 & 0 0 \\ & d_2 & 0 0 \\ amp; 0 && d_3 \end{bmatrix}. $$

I vettori

$$\begin{bmatrix}1 \\ 0 \\ 0 \end{bmatrix}, \begin{bmatrix}0 \\ 1 \\ 0\end{bmatrix}\text{e}\begin{bmatrix}0 \\ 0 \\ 1\end{bmatrix}$$

sono gli autovettori di questa matrice con rispettivi valori $d_1$, $d_2$ e $d_3$. Se $d_1$, $d_2$ e $d_3$ sono numeri distinti, questi vettori (e i relativi multipli) sono gli unici autovettori della matrice $D$.

In generale, per una matrice diagonale è facile leggere gli eigenvalue e gli eigenvettori. Gli autovalori sono tutti i numeri visualizzati sulla diagonale e i rispettivi autovettori sono i vettori di unità con un elemento uguale a $1$ e gli elementi rimanenti uguali a $0$.

Si noti nell'esempio che gli eigenitori di $D$ formano una base per $vettori tridimensionali$. Una base è composta da un set di vettori tale che qualsiasi vettore possa essere scritto come una combinazione lineare di essi. Più esplicitamente, $v_1$, $v_2 $ e $v_3 $ formano una base se un vettore $v$può essere scritto come $v= a_1 v_1 + a_2 v_2 + a_3 v_3$ per alcuni numeri $a_1$, $a_2$ e $a_3$.