Usare vettori e matrici nel calcolo quantistico

Per comprendere il calcolo quantistico è essenziale avere una certa familiarità con i vettori e le matrici. L'articolo Algebra lineare per il calcolo quantistico fornisce un breve aggiornamento e i lettori che vogliono approfondire sono consigliati per leggere un riferimento standard sull'algebra lineare, ad esempio Strang, G. (1993). Introduzione all'algebra lineare (Vol. 3). Wellesley, MA: Wellesley-Cambridge Press o un riferimento online come l'algebra lineare.

Vettori

Un vettore colonna (o semplicemente vettore) $v$ di dimensione $n$ è un insieme di $n$ numeri complessi $(v_1,v_2,\ldots,v_n)$ disposti in colonna:

$$v=\begin{bmatrix} v_1\\ v_2\\ \vdots\\ v_n \end{bmatrix}$$

La norma di un vettore $v$ è definita come $\sqrt{\sum_i |v_i|^2}$. Un vettore è detto a norma unitaria (o vettore unitario) se la sua norma è $1$. La trasposta di un vettore$v$ è indicata come $v^\dagger$ ed è definita come il vettore riga seguente, dove $*$ denota il coniugato complesso,

$$\begin{bmatrix}\\ v_1 \vdots \\ v_n \end{bmatrix}^\dagger=\begin{bmatrix}v_1^* & \cdots&Amp; v_n^*\end{bmatrix}$$

Si noti che esiste una distinzione tra un vettore colonna $v$ e un vettore riga $v^\dagger$.

Prodotto interno

Due vettori possono essere moltiplicati tra loro attraverso il prodotto interno, detto anche prodottoscalare. Come suggerisce il nome, il risultato del prodotto interno di due vettori è scalare. Il prodotto interno fornisce la proiezione di un vettore su un altro ed è prezioso per descrivere come esprimere un vettore come somma di altri vettori più semplici. Il prodotto interno tra due vettori colonna $u=(u_1 , u_2 , \ldots , u_n)$ e $v=(v_1 , v_2 , \ldots , v_n)$, indicato da $\left\langle u, v\right\rangle$ è definito come

$$\left\langleu, v u^\dagger v=\right\rangle=\begin{bmatrix} u_1^* & \cdots&Amp; u_n^* \end{bmatrix}\begin{bmatrix}v_1\\ \vdots\\ v_n=\end{bmatrix}u_1^{*} v_1 + + \cdots _n^{*} v_n. $$

Questa notazione consente anche di scrivere la norma di un vettore $v$ come $\sqrt{\langle v, v\rangle}$.

Un vettore può essere moltiplicato per un numero $c$ per formare un nuovo vettore i cui elementi vengono moltiplicati per $c$. È anche possibile sommare due vettori $u$ e $ v$ per formare un nuovo vettore i cui elementi sono la somma degli elementi di $u$ e $v$. Queste operazioni sono le seguenti:

$$\mathrm{Se}~u =\begin{bmatrix} u_1\\ u_2\\ \vdots\\ u_n \end{bmatrix}~\mathrm{e}~ v =\begin{bmatrix} v_1\\ v_2\\ \vdots\\ v_n \end{bmatrix},~\mathrm{allora}~ au+bv =\begin{bmatrix} au_1+bv_1\\ au_2+bv_2\\ \vdots\\ au_n+bv_n \end{bmatrix}. $$

Una matrice di dimensione $m \times n$ è un insieme di numeri complessi $mn$ disposti in $m$ righe e $n$ colonne, come mostrato sotto:

$M =\begin{bmatrix} M_{11}{~~ M_~~{12}\cdots~~ M_{1n}\\ M_{{21}~~ M_~~~~{22}\cdots{ M_2n\ddots\\}\\ M_{{m1}~~ M_{m2~~\cdots}~~ M_{mn.}\\\end{bmatrix}$

Si noti che un vettore di dimensione $n$ è semplicemente una matrice di dimensione $n \times 1$. Come per i vettori, una matrice può essere moltiplicata per un numero $c$ per ottenere una nuova matrice in cui ogni elemento è moltiplicato per $c$ e due matrici della stessa dimensione possono essere sommate per produrre una nuova matrice i cui elementi sono la somma dei rispettivi elementi delle due matrici.

Moltiplicazione di matrici

È possibile moltiplicare due matrici $M$ di dimensione $m\times n$ e $N$ di dimensione $n \times p$ per ottenere una nuova matrice $P$ di dimensione $m \times p$ come segue:

$$\begin{\begin{align}&Amp;\begin{bmatrix} M_ M_ M_{\cdots{12}~~~~1n}\\ M_{21}~~{ M_~~\cdots~~{{22} M_2n}\\\ddots\\ M_{{m1~~} M_{m2{~~}~~\cdots M_mn}\begin{bmatrix}\end{bmatrix} N_{11}~~ N_~~{12}\cdots~~{ N_{1p}\\ N_ N_~~{21}{ N_~~{22}~~{\cdots2p}\\\ddots\\ N_{n1}~~ N_{n2~~}~~\cdots N_{np{~~{11}\end{bmatrix}=\begin{bmatrix}} P_ P_{{11}~~{12}~~\cdots~~{P_1p}\\ P_~~{{21} P_\cdots{22}~~{~~ P_{2p}\\\ddots\\ P_{m1}~~ P_{m2~~\cdots}~~ P_mp{}\end{bmatrix}\end{align}$$

dove gli elementi di $P$ sono $P_{ik}=\sum_j M_{ij}N_{jk}$. Ad esempio, l'elemento $P_{11}$ è il prodotto interno tra prima riga di $M$ e la prima colonna di $N$. Tenere presente che, poiché un vettore è semplicemente un caso speciale di matrice, questa definizione si estende alla moltiplicazione matrice-vettore.

Tutte le matrici considerate saranno matrici quadrate, con pari numero di righe e colonne, oppure vettori, con $1$ sola colonna. Una matrice quadrata speciale è la matrice di identità, indicata $\mathbb{\mathbb{I}$, che ha tutti gli elementi diagonali uguali a $1$ e gli elementi rimanenti uguali a $0$:

$\mathbb{\mathbb{I}=\begin{bmatrix}1 ~~ 0 0\cdots~~~~ 0 ~~\\ 1\cdots~~~~ 0\ddots\\~~\\ 0 0 ~~\cdots~~~~ 1 .\end{bmatrix}$

Per una matrice $quadrata A$, una matrice $B$ è inversa se $AB = BA =\mathbb{\mathbb{I}$. L'inversa di una matrice non deve necessariamente esistere, ma quando esiste è univoca e si denota $A^{-1}$.

Per qualsiasi matrice $M$, la trasposta coniugata o aggiunta di $M$ è una matrice $N$ tale che $N_{ij}= M_{ji}^*$. La matrice aggiunta di $M$ è generalmente denotata $M^\dagger$. Una matrice $U$ è unitaria se $UU^\dagger= U^\dagger U\mathbb{I}$=^ o in modo equivalente, $U^={{-1} U^.\dagger$ Una proprietà importante delle matrici unitarie è che mantengono la norma di un vettore. Ciò si verifica perché

$\langlev,v\rangle=^ v=^\dagger v^ U^{-1}\dagger U v=^ U^ U^\dagger\dagger U v =\langle V v, U v.\rangle$

Una matrice $M$ è detta hermitiana se $M=M^\dagger$.

Prodotto tensoriale

Un'altra operazione importante è il prodotto di Kronecker, detto anche prodotto diretto tra matrici o prodotto tensoriale. È importante distinguere il prodotto di Kronecker dalla moltiplicazione di matrici, che è un'operazione completamente diversa. Nella teoria del calcolo quantistico, il prodotto tensoriale viene usato comunemente per indicare il prodotto di Kronecker.

Si prendano i due vettori $v=\begin{bmatrix}a \\ b \end{bmatrix}$ e $u =\begin{bmatrix} c \\ d \\ e \end{bmatrix}$. Il loro prodotto tensoriale è denotato come $v \otimes u$ e il risultato è una matrice a blocchi.

$$\begin{bmatrix} a \\ b \end{bmatrix}\otimes\begin{bmatrix} c \\ d \\ e \end{bmatrix}=\begin{bmatrix} a \begin{bmatrix} c \\ d \\ e \end{bmatrix}\\[1.5em] b \begin{bmatrix} c \\ d \\ e\end{bmatrix}\end{bmatrix}=\begin{bmatrix} a c \\ a d \\ a e \\ b c \\ b d \\ be\end{bmatrix}$$

Si noti che il prodotto tensoriale è un'operazione su due matrici o vettori di dimensioni arbitrarie. Il prodotto tensoriale di due matrici $M$ di dimensioni $m\times n$ e $N$ di dimensioni $p \times q$ è una matrice più grande $P=M\otimes N$ di dimensioni $mp \times nq$ che si ottiene da $M$ e $N$ nel modo seguente:

$$\begin{align}M \otimes N &=\begin{bmatrix}{~~~~\cdots{11}M_ M_{1n}\\\ddots\\ M_{m1~~}~~\cdots M_{mn\begin{bmatrix}}\end{bmatrix}\otimes N_~~\cdots{{11}~~ N_1q}\\\ddots\\ N_{{p1}\cdots~~~~ N_{pq\end{bmatrix}\\&}amp;=\begin{bmatrix} M_ N_ N_~~{11}{{~~\cdots1q}\\\ddots\\ N_{p1}~~~~\cdots N_{pq\end{bmatrix}~~~~\cdots} M_1n{11}~~~~\begin{bmatrix}\cdots} N_{ N_{1q}\\\ddots\\ N_{p1\cdots~~}~~ N_{pq\end{bmatrix}\\\ddots\\} M_{m1\begin{bmatrix}} N_{~~{11}\cdots~~ N_1q}\\\ddots\\ N_{{p1~~~~}\cdots N_{pq}\end{bmatrix}~~~~\cdots M_{mn N_}\begin{bmatrix}{{11}\begin{bmatrix}{{11}~~\cdots~~{N_1q}\\\ddots\\ N_{p1~~\cdots}~~ N_{pq.}\end{bmatrix}\end{bmatrix} \end{align} $$

Questo esempio è illustrato meglio con un esempio: $$a\ b \\ c\ d\otimes\begin{bmatrix}\end{bmatrix}e\ f\\ g\ h\begin{bmatrix}\end{bmatrix}=a\begin{bmatrix} e\ f\\ g\ h \end{bmatrix} b\begin{bmatrix} e\ f\\ g\ h\\\end{bmatrix} [1em] c\begin{bmatrix} e\ f\\ g\ h \end{bmatrix} d\begin{bmatrix} e\ f\\ g\ h ae\end{bmatrix}\end{bmatrix}\begin{bmatrix}=\ af\ be\ bf \\ ag\ ah\ bg\ bg\ bh \\ ce\ cf\ de\ df \\ df cg\ ch\ dg\ dh .\end{bmatrix}\begin{bmatrix} $$

Un'utile convenzione di notazione finale è che, per ogni vettore $v$ o matrice $M$, $v^{\otimes n}$ o $M^{\otimes n}$ è la contrazione di un prodotto tensoriale ripetuto $n$ volte. Ad esempio:

\begin{align}&Amp;\begin{bmatrix} 1 \\ 0 ^ 1 1}\begin{bmatrix}=\\ 0 \end{bmatrix}, \qquad\begin{bmatrix} 1 \\ 0 \end{bmatrix}^{\otimes 2\begin{bmatrix}=} 1 \\ 0 0 \\0 \end{bmatrix}\\, \qquad\begin{bmatrix} 1 -1 \end{bmatrix}\\ ^{\otimes{\otimes 2=\begin{bmatrix}} 1 \\ -\\1 \\-1 1 \\\end{bmatrix}&, amp;\begin{bmatrix} 0 & 1 1 \\& 0 \end{bmatrix}^{\otimes 1}=\begin{bmatrix} 0& 1 1&\\ amp; 0 , \qquad\begin{bmatrix} 0 &\end{bmatrix}amp; 1 1&\\ amp; 0 \end{bmatrix}^{\otimes 2}=\begin{bmatrix} 0 &\end{bmatrix} 0& 0& 1 \\ 0 & 0& 1& 0 \\ 0 & 1& 0& 0\\ 1 & 0& 0& 0\end{bmatrix}. \end{align}

Passaggi successivi