Sistemi lineari: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
avanzamento incluso nel tl risorsa
Correzioni con wikEd
Riga 1:
{{|lezione|18 febbraio 2008}}
 
{{navigazione lezione|materia1=Algebra lineare|materia2=Geometria|corso1=Matematica}} __TOC__
 
{{Risorsa|tipo=lezione|materia1=Algebra lineare|avanzamento=25%}}
 
Line 6 ⟶ 8:
 
Un '''sistema lineare''' è di ''m'' equazioni in ''n'' incognite del tipo
 
: <math>\left\{
 
\begin{matrix} a_{1,1}x_1 + a_{1,2}x_2 +\cdots + a_{1,n}x_n & = & b_1\\
a_{2,1}x_1 + a_{2,2}x_2 +\cdots + a_{2,n}x_n & = & b_2\\
Line 13 ⟶ 17:
\right.</math>
 
abbiamo già visto che possiamo provare a risolvere utilizzando il metodo di sostituzione oppure [[w:Algoritmo_di_GaussAlgoritmo di Gauss-Jordan | l'eliminazione di Gauss]] nel caso il sistema sia quadrato, cioè <math>m=n</math> (con m numero di equazioni ed n numero delle incognite). Vediamo ora dei metodi più efficaci per risolvere un qualunque sistema lineare.
 
== Riduzione a Scala e Algoritmo di Gauss-Jordan ==
 
==Riduzione a Scala e Algoritmo di Gauss-Jordan==
È un metodo senz'altro efficiente e pratico da implementare in un calcolatore, tuttavia (e questa è un'opinione personale), richiede dei notevoli calcoli numerici e spesso l'utilizzo dei determinanti e la Regola di Cramer sono migliori se dobbiamo risolvere il sistema a mano senza l'impiego di un calcolatore.
 
Line 21 ⟶ 26:
'''''Definizione''''': ''Una matrice si dice '''a scala''' se è siffatta''
 
: <math>
 
\left(\begin{array}{cccccccccc}0 & \cdots & 0 & p_1 & \cdots & & \cdots & & \cdots & * \\0 & \cdots & \cdots & 0 & \cdots & p_2 & \cdots & & \cdots & * \\\vdots & & & \vdots & & \vdots & & & & \vdots \\0 & \cdots & & \cdots & & 0 & \cdots & p_r & \cdots & * \\0 & \cdots & & \cdots & & 0 & \cdots & & & 0 \\0 & \cdots & & \cdots & & 0& \cdots & & & 0\end{array}\right)
</math>
Line 35 ⟶ 41:
 
Partendo da un sistema lineare <math>Ax=b</math>, il metodo consiste nei seguenti passaggi:
 
* Se <math>A</math> è la matrice nulla, abbiamo ovviamente finito.
* Se <math>A</math> non è la matrice nulla, consideriamo la prima colonna che presenta un coefficiente non nullo (se necessario è possibile scambiare di posto le righe della matrice per avere tale coefficiente il più a sinistra possibile e nella prima riga, all'inizio della matrice). Sia <math>A^{j}</math> questa colonna e chiamiano tale valore non nullo ''pivot'', in questo caso <math>A_{1,j} = p_1</math>
* Rendiamo nulli tutti i valori della colonna ''j-esima'' sommando alle righe <math>1+h,h=2,\ldots,m</math> una opportuna combinazione lineare.
* Andiamo avanti considerando la colonne successiva ad <math>A^j</math> della riga 2 fino a che non troviamo una colonna <math>A^{j+a}</math> avente coefficiente non nullo. Sia <math>p_2</math> tale valore e procediamo come prima fino alla riga <math>h</math>
* Se dalla riga <math>h+1</math> in poi sono tutte nulle o <math>h</math> è l'ultima riga, abbiamo finito. Altrimenti continuiamo il procedimento.
Line 44 ⟶ 51:
Come si nota subito, il procedimento è molto simile a quello dell'eliminazione di Gauss. Ma un esempio dovrebbe chiarire molto meglio il l'algoritmo.
<div style="float:center; width:85%; padding:15px; border: 1px solid blue; margin-left:8px; margin-right:8px;margin-bottom:15px; text-align:left">
 
: '' '''Esempio (1):''' '' Consideriamo il seguente sistema lineare
: <math>\left\{ \begin{array}{cccccc}2x_1 & -x_2 & +4x_3 & +x_4 & = & -2 \\-2x_1 & +x_2 & -7x_3 & +x_4 & = & -1 \\4x_1 & -2x_2 & +5x_3 & +4x_4 & = & -7\end{array}\right.</math>
: e la sua matrice associata
: <math>A = \left(\begin{array}{cccc}2 & -1 & 4 & 1 \\-2 & 1 & -7 & 1 \\4 & -2 & 5 & 4\end{array}\right)</math> <math>c = \left(\begin{array}{c}-2 \\-1 \\-7\end{array}\right)</math>
 
: A non è nulla e il primo elemento diverso da zero che incontriamo è proprio <math>a_{1,1}</math>. Quindi <math>a_{1,1} = p_1</math> e procediamo ad annullare tutti i termini della prima colonna dalla riga 2 in poi con una combinazione lineare del tipo <math> R_{h+1} = R_{h+1} + \frac{-a_{h+1,j}}{p_j} R_h</math>, con <math>{p_j}</math> fissato.
 
: <math>\left(\begin{array}{cccc}2 & -1 & 4 & 1 \\0 & 0 & -3 & 2 \\0 & 0 & -3 & 2\end{array}\right) \left(\begin{array}{c}-2 \\-3 \\-3\end{array}\right) </math>
 
: cioè abbiamo sostiuito la riga <math>R_2</math> con <math>R_2 + R_1</math> e la riga <math>R_3</math> con <math>R_3 -2 R_1</math>. La sostituzione comprende anche la colonna dei termini noti.
 
: Ripetiamo il procedimento passando alla colonna (e riga) successive, notando che la seconda riga ha un termine non nullo (nella colonna 3). Poniamo allora <math>p_2 = -3</math> e ripetiamo il procedimento di prima. Questa volta abbiamo <math> R_3 + \frac{3}{-3} R_1 = R_3 - R_1</math> che ci da' la matrice
 
: <math>\left(\begin{array}{cccc}2 & -1 & 4 & 1 \\0 & 0 & -3 & 2 \\0 & 0 & 0 & 0\end{array}\right) \left(\begin{array}{c}-2 \\-3 \\0\end{array}\right) </math>
 
: Ci accingiamo a ripetere nuovamente il procedimento, ma questa volta notiamo che al di sotto della riga che abbiamo appena considerato, non abbiamo altre righe contenenti elementi non nulli. Perciò abbiamo finito, ottenendo un sistema a scala e il corrispondente sistema lineare:
 
: <math>\left\{\begin{array}{cccccc}2x_1 & -x_2 & +4x_3 & +x_4 & = & -2 \\ & & -3x_3 & +2x_4 & = & -3\end{array}\right. </math>
 
: Il sistema ha due pivot e il vettore dei termini noti ha dimensione 2. Un corollario che vedremo dopo ci assicurerà che, a queste condizioni, il sistema ammette soluzioni.
 
: Risolviamolo all'indietro, cioè ripetiamo l'algoritmo di Gauss-Jordan stavolta partendo dal basso:
: abbiamo la matrice <math>S=\left(\begin{array}{cccc}2 & -1 & 4 & 1 \\0 & 0 & -3 & 2 \\0 & 0 & 0 & 0\end{array}\right) c=\left(\begin{array}{c}-2 \\-3 \\0\end{array}\right) </math> e partiamo da basso prendendo come pivot il primo valore da destra non nullo, cioè <math>2=p_{r1}</math> e, di nuovo, sostiuiamo alla prima riga di <math>S</math> e di <math>S</math> la combinazione lineare ottenuta come avevamo fatto prima, cioè <math>R_1 = R_1 -\frac{1}{2} R_2</math> ottenendo la matrice
: <math>S=\left(\begin{array}{cccc}2 & -1 & \frac{11}{2} & 0 \\0 & 0 & -3 & 2 \\0 & 0 & 0 & 0\end{array}\right) c=\left(\begin{array}{c}-\frac{1}{2} \\-3 \\0\end{array}\right) </math>.
: Abbiamo ora terminato l'algoritmo di Gauss e procediamo a risolvere il sistema lineare equivalente ottenuto. Risolviamo allora il sistema:
 
:Risolviamolo all'indietro, cioè ripetiamo l'algoritmo di Gauss-Jordan stavolta partendo dal basso:
:abbiamo la matrice <math>S=\left(\begin{array}{cccc}2 & -1 & 4 & 1 \\0 & 0 & -3 & 2 \\0 & 0 & 0 & 0\end{array}\right) c=\left(\begin{array}{c}-2 \\-3 \\0\end{array}\right) </math> e partiamo da basso prendendo come pivot il primo valore da destra non nullo, cioè <math>2=p_{r1}</math> e, di nuovo, sostiuiamo alla prima riga di <math>S</math> e di <math>S</math> la combinazione lineare ottenuta come avevamo fatto prima, cioè <math>R_1 = R_1 -\frac{1}{2} R_2</math> ottenendo la matrice
:<math>S=\left(\begin{array}{cccc}2 & -1 & \frac{11}{2} & 0 \\0 & 0 & -3 & 2 \\0 & 0 & 0 & 0\end{array}\right) c=\left(\begin{array}{c}-\frac{1}{2} \\-3 \\0\end{array}\right) </math>.
:Abbiamo ora terminato l'algoritmo di Gauss e procediamo a risolvere il sistema lineare equivalente ottenuto. Risolviamo allora il sistema:
<br />
 
:<math>\left\{ \begin{array}{cccccc}2x_1 & -x_2 & +\frac{11}{2}x_3 & & = & -\frac{1}{2} \\ & & -3x_3 & +2x_4 & = & -3\end{array}\right. \rightarrow </math>
: <math>\left\{ \begin{array}{cccccc}2x_1 & =-x_2 & -+\frac{111}{2}x_3 & +x_2 & = & -\frac{111}{2}x_3 & \\ -3x_3 & = & -33x_3 & -+2x_4 & = & -3\end{array}\right. \rightarrow </math>
: <math>\left\{ \begin{array}{cccccc}2x_1 & -x_2= & +-\frac{111}{2}x_3 & & =+x_2 & -\frac{111}{2}x_3 & \\ -3x_3 & = & -3x_33 & +-2x_4 & = & -3 \end{array}\right. \rightarrow </math>
 
</math>
 
: <math>\left\{ \begin{array}{cccccc}x_1 & = & -\frac{1}{4} & +\frac{1}{2}x_2 & -\frac{11}{4}x_3 & \\ x_3 & = & 1 & +\frac{2}{3}x_4 & & \end{array}\right. \rightarrow
 
</math>
 
: <math>\left\{ \begin{array}{cccccc}x_1 & = & -\frac{1}{4} & +\frac{1}{2}x_2 & -\frac{11}{4}\left( 1 +\frac{2}{3}x_4 \right) & \\ x_3 & = & 1 & +\frac{2}{3}x_4 & & \end{array}\right. \rightarrow
 
</math>
 
: <math>\left\{ \begin{array}{cccccc}x_1 & = & -\frac{1}{4} & +\frac{1}{2}x_2 & -\frac{11}{4} - \frac{11}{6}x_4 & \\ x_3 & = & 1 & +\frac{2}{3}x_4 & & \end{array}\right. \rightarrow
 
</math>
 
: <math>\left\{ \begin{array}{cccccc}x_1 & = & -3 & +\frac{1}{2}x_2 & - \frac{11}{6}x_4 & \\ x_3 & = & 1 & +\frac{2}{3}x_4 & & \end{array}\right. \rightarrow
 
</math>
 
Line 86 ⟶ 105:
 
Adesso che abbiamo visto come risolvere i sistemi lineari ridotti a scala, vediamone le proprietà fondamentali.
 
=== Proprietà dei sistemi lineari a scala ===
====Lemma====
 
==== Lemma ====
 
<div style="float:center; width:85%; padding:15px; border: 1px solid blue; margin-left:8px; margin-right:8px;margin-bottom:15px; text-align:left">
 
: Sia <math>S \in M_{m,n}(\mathbb{R}) </math> una matrice a scala con <math>r</math> pivot. Poniamo
 
: <math>V_r = \left\{ \left( \begin{matrix} b_1 \\ \vdots \\ b_r \\ 0 \\ \vdots \\ 0 \end{matrix} \right) \in \mathbb{R}^m \mid b_1, \cdots, b_r \in \mathbb{R} \right\} = <e_1, \cdots, e_r> </math>
:con <math><e_1, \cdots, e_r></math> la base canonica di <math>\mathbb{R}^r \subset \mathbb{R}^m</math>.
 
:Poniamo inoltre con <math>S^{j_h}</math>e_1, la\cdots, colonna ''j-esima'' di <mathe_r>S</math> inla cuibase comparecanonica il ''h-esimo '' pivotdi <math>p_\mathbb{h,R}^r h=1,\ldots,rsubset \mathbb{R}^m</math>.
 
: Poniamo inoltre con <math>S^{j_h}</math> la colonna ''j-esima'' di <math>S</math> in cui compare il ''h-esimo '' pivot <math>p_{h, h=1,\ldots,r}</math>.
:Allora:
 
: Allora:
:# <math>V_r = {\rm Im} S</math>
:# <math>r = {\rm rg} S</math>
:# <math> \left\{ S^{j_1},\ldots,S^{j_r} \right\}</math> è una base di <math>{\rm Im} S</math>
 
</div>
''' ''Dimostrazione.'' '''
 
# Tutte le colonne di <math>S</math> sono della forma <math>\left( \begin{matrix} s_1 \\ \vdots \\ s_r \\ 0 \\ \vdots \\ 0 \end{matrix} \right)</math>, dunque appartengono a <math>V_r</math> e sono un sistema di generatori (per il significato di applicazione lineare di una matrice) di <math>{\rm Im}S</math>, quindi sicuramente <math>{\rm Im}S \subseteq V_r</math>. Tuttavia, abbiamo che
:# Tutte le colonne di <math>\sum_{i=1}^{r}S</math> x_isono S^{j_i}della =forma <math>\left( \begin{matrix} b_1s_1 \\ \vdots \\ b_rs_r \\ 0 \\ \vdots \\ 0 \end{matrix} \right)</math>, cioèdunque appartengono a <math> V_r</math> S^{j_1},\ldots,S^{j_r}e >sono =un V_rsistema di generatori (per il significato di applicazione lineare di una matrice) di <math>{\rm Im}S</math> e, quindi sicuramente <math>{\rm Im}S =\subseteq V_r</math>. Tuttavia, abbiamo che
: <math>\sum_{i=1}^{r} x_i S^{j_i} = \left( \begin{matrix} b_1 \\ \vdots \\ b_r \\ 0 \\ \vdots \\ 0 \end{matrix} \right)</math>, cioè <math> < S^{j_1},\ldots,S^{j_r} > = V_r </math> e quindi <math>{\rm Im}S = V_r</math>.
 
: 2 . Sappiamo dall'ipotesi che <math>\dim V_r = \dim \{e_1,\ldots,e_r \} = r</math>, ma <math> V_r = {\rm Im}S</math> e se due insiemi sono uguali è evidente che eguale è anche la loro dimensione. Quindi <math>{\rm rg}S = r</math>
 
:2 . Sappiamo dall'ipotesi che <math>\dim V_r = \dim \{e_1,\ldots,e_r \} = r</math>, ma <math> V_r = {\rm Im}S</math> e se due insiemi sono uguali è evidente che eguale è anche la loro dimensione. Quindi <math>{\rm rg}S = r</math>
<!--
 
: 3 . Abbiamo fatto vedere al punto 1 che le colonne di S contenti pivot sono un sistema di generatori di <math>{\rm Im} S</math>. Per dimostrare che sono una base, facciamo vedere che sono linearmente indipendenti, equivalente a far vedere che il sistema omogeneo
: <math>\alpha_1 S^{j_1} +\alpha_2 S^{j_2} \cdots \alpha_r S^{j_r} = 0 </math> ha come unica soluzione <math>\alpha_1=\ldots=\alpha_r=0</math>. COMPLETARE LA DIM DELL'ULTIMO PUNTO -->
 
==== Corollario ====
 
<div style="float:center; width:85%; padding:15px; border: 1px solid blue; margin-left:8px; margin-right:8px;margin-bottom:15px; text-align:left">
 
:Sia <math>S \in M_{m,n}(\mathbb{R})</math> una matrice a scala di rango <math>r</math>.
: Sia <math>S \in M_{m,n}(\mathbb{R})</math> una matrice a scala di rango <math>r</math>.
: Allora il sistema lineare associato ha soluzione se e solo se le ultime <math>m-r</math> coordinate della colonna dei termini noti sono zero, e lo spazio delle soluzioni del sistema omogeneo associato ha dimensione <math>n-r</math>.
 
</div>
''' ''Dimostrazione'' '''.
:Il sistema a scala <math>Sx=c</math> ha soluzione se e solo se <math>c \in {\rm Im}S</math> e questo accade se e solo <math>c</math> è un vettore come quelli appartenenti a <math>V_r</math>, quindi con le ultime <math>m-r</math> componenti nulle.
:Lo spazio delle soluzioni di un sistema omogeneo <math>Sx=0</math> è per definizione <math>\ker S</math> che ha dimensione <math>n- {\rm rg}S.</math> <!-- rivedere -->
 
: Il sistema a scala <math>Sx=c</math> ha soluzione se e solo se <math>c \in {\rm Im}S</math> e questo accade se e solo <math>c</math> è un vettore come quelli appartenenti a <math>V_r</math>, quindi con le ultime <math>m-r</math> componenti nulle.
====Teorema====
: Lo spazio delle soluzioni di un sistema omogeneo <math>Sx=0</math> è per definizione <math>\ker S</math> che ha dimensione <math>n- {\rm rg}S.</math> <!-- rivedere -->
 
==== Teorema ====
 
[[Categoria:Geometria]]
 
[[fr:Système d'équations linéaires]]