Sia
(
K
,
+
,
⋅
,
≤
)
{\displaystyle (\mathbb {K} ,+,\cdot ,\leq )}
un campo ordinato. Una forma bilineare simmetrica su
V
{\displaystyle V}
si dice prodotto scalare se
b
(
v
,
v
)
=
0
⇔
v
=
0
{\displaystyle b(\mathbf {v} ,\mathbf {v} )=0\Leftrightarrow \mathbf {v} =0}
Il prodotto scalare si indica con il simbolo
<
,
>
{\displaystyle <,>}
.
Con lo stesso simbolo viene denotato anche il prodotto scalare definito positivo , ossia un prodotto scalare tale che:
b
(
v
,
v
)
≥
0
,
∀
v
∈
V
{\displaystyle b(\mathbf {v} ,\mathbf {v} )\geq 0,\ \forall \mathbf {v} \in V}
.
Quel prodotto scalare tale che
<
v
,
w
>=
v
1
w
1
+
v
2
w
2
+
⋯
+
v
n
w
n
{\displaystyle <\mathbf {v} ,\mathbf {w} >=\mathbf {v} _{1}\mathbf {w} _{1}+\mathbf {v} _{2}\mathbf {w} _{2}+\dots +\mathbf {v} _{n}\mathbf {w} _{n}}
si indica con
v
⋅
w
{\displaystyle \mathbf {v} \cdot \mathbf {w} }
e si chiama prodotto scalare standard .
Uno spazio vettoriale
V
{\displaystyle V}
nel quale è definita l'operazione di prodotto scalare, si indica con
(
V
,
<
,
>
)
{\displaystyle (V,<,>)}
e prende il nome di
spazio vettoriale euclideo .
Teorema (Disuguaglianza di Schwarz)
modifica
Supponiamo i vettori diversi da zero, altrimenti il teorema è banale.
Sia
w
{\displaystyle \mathbf {w} }
un vettore combinazione lineare di
v
1
{\displaystyle \mathbf {v} _{1}}
e
v
2
{\displaystyle \mathbf {v} _{2}}
, quindi
w
=
x
1
v
1
+
x
2
v
2
{\displaystyle \mathbf {w} =x_{1}\mathbf {v} _{1}+x_{2}\mathbf {v} _{2}}
. Per la definizione di prodotto scalare:
0
≤
<
w
,
w
>=<
x
1
v
1
+
x
2
v
2
,
x
1
v
1
+
x
2
v
2
>=
x
1
2
<
v
1
,
v
1
>
+
2
x
1
x
2
<
v
1
,
v
2
>
+
x
2
2
<
v
2
,
v
2
>
{\displaystyle 0\leq \ <\mathbf {w} ,\mathbf {w} >=<x_{1}\mathbf {v} _{1}+x_{2}\mathbf {v} _{2},x_{1}\mathbf {v} _{1}+x_{2}\mathbf {v} _{2}>=x_{1}^{2}<\mathbf {v} _{1},\mathbf {v} _{1}>+2x_{1}x_{2}<\mathbf {v} _{1},\mathbf {v} _{2}>+x_{2}^{2}<\mathbf {v} _{2},\mathbf {v} _{2}>}
.
Prendendo
w
{\displaystyle \mathbf {w} }
tale che
x
1
=<
v
2
,
v
2
>
{\displaystyle x_{1}=<\mathbf {v} _{2},\mathbf {v} _{2}>}
e
x
2
=
−
<
v
1
,
v
2
>
{\displaystyle x_{2}=-<\mathbf {v} _{1},\mathbf {v} _{2}>}
otteniamo al secondo membro
<
v
2
,
v
2
>
2
<
v
1
,
v
1
>
−
2
<
v
2
,
v
2
><
v
1
,
v
2
>
2
+
<
v
1
,
v
2
>
2
<
v
2
,
v
2
>
{\displaystyle <\mathbf {v} _{2},\mathbf {v} _{2}>^{2}<\mathbf {v} _{1},\mathbf {v} _{1}>-2<\mathbf {v} _{2},\mathbf {v} _{2}><\mathbf {v} _{1},\mathbf {v} _{2}>^{2}+<\mathbf {v} _{1},\mathbf {v} _{2}>^{2}<\mathbf {v} _{2},\mathbf {v} _{2}>}
.
Dividendo ambo i membri per
<
v
2
,
v
2
>
{\displaystyle <\mathbf {v} _{2},\mathbf {v} _{2}>}
, che è strettamente positivo perché abbiamo supposto
v
2
{\displaystyle \mathbf {v} _{2}}
non nullo, otteniamo
0
≤
<
v
2
,
v
2
><
v
1
,
v
1
>
−
<
v
1
,
v
2
>
2
⟺<
v
1
,
v
2
>
2
≤
<
v
2
,
v
2
><
v
1
,
v
1
>
{\displaystyle 0\leq \ <\mathbf {v} _{2},\mathbf {v} _{2}><\mathbf {v} _{1},\mathbf {v} _{1}>-<\mathbf {v} _{1},\mathbf {v} _{2}>^{2}\Longleftrightarrow <\mathbf {v} _{1},\mathbf {v} _{2}>^{2}\leq \ <\mathbf {v} _{2},\mathbf {v} _{2}><\mathbf {v} _{1},\mathbf {v} _{1}>}
L'eguaglianza vale se e solo se:
w
=
x
1
v
1
+
x
2
v
2
=<
v
2
,
v
2
>
v
1
−
<
v
1
,
v
2
>
v
2
=
0
{\displaystyle \mathbf {w} =x_{1}\mathbf {v} _{1}+x_{2}\mathbf {v} _{2}=<\mathbf {v} _{2},\mathbf {v} _{2}>\mathbf {v} _{1}-<\mathbf {v} _{1},\mathbf {v} _{2}>\mathbf {v} _{2}=0}
, cioè
v
1
{\displaystyle \mathbf {v} _{1}}
e
v
2
{\displaystyle \mathbf {v} _{2}}
sono linearmente dipendenti.
◻
{\displaystyle \Box }
Si definisce in uno spazio vettoriale euclideo la norma di un vettore
v
∈
V
{\displaystyle \mathbf {v} \in V}
come
|
|
v
|
|
=
<
v
,
v
>
{\displaystyle ||\mathbf {v} ||={\sqrt {<\mathbf {v} ,\mathbf {v} >}}}
Utilizzando la norma, si può esprimere la disuguaglianza di Schwartz come
|
<
v
,
w
>
|
≤
|
|
v
|
|
|
|
w
|
|
{\displaystyle |<\mathbf {v} ,\mathbf {w} >|\ \leq \ ||\mathbf {v} ||\ ||\mathbf {w} ||}
.
La norma di un vettore gode delle seguenti proprietà:
|
|
v
|
|
≥
0
,
v
≠
0
{\displaystyle ||\mathbf {v} ||\geq 0,\ \mathbf {v} \neq 0}
|
|
x
v
|
|
=
|
x
|
|
|
v
|
|
,
∀
x
∈
K
{\displaystyle ||x\mathbf {v} ||=|x|\ ||\mathbf {v} ||,\ \forall x\in \mathbb {K} }
|
|
v
+
w
|
|
≤
|
|
v
|
|
+
|
|
w
|
|
{\displaystyle ||\mathbf {v} +\mathbf {w} ||\leq ||\mathbf {v} ||+||\mathbf {w} ||}
e vale l'uguaglianza se e solo se
v
{\displaystyle \mathbf {v} }
e
w
{\displaystyle \mathbf {w} }
sono paralleli.
La proprietà 3 è la nota disuguaglianza triangolare che dimostriamo nel seguente modo:
|
|
v
+
w
|
|
2
=<
v
+
w
,
v
+
w
>=
|
|
v
|
|
2
+
2
<
v
,
w
>
+
|
|
w
|
|
2
≤
|
|
v
|
|
2
+
2
|
|
v
|
|
|
|
w
|
|
+
|
|
w
|
|
2
=
(
|
|
v
|
|
+
|
|
w
|
|
)
2
{\displaystyle ||\mathbf {v} +\mathbf {w} ||^{2}=<\mathbf {v} +\mathbf {w} ,\mathbf {v} +\mathbf {w} >=||\mathbf {v} ||^{2}+2<\mathbf {v} ,\mathbf {w} >+||\mathbf {w} ||^{2}\leq ||\mathbf {v} ||^{2}+2||\mathbf {v} ||\ ||\mathbf {w} ||+||\mathbf {w} ||^{2}=(||\mathbf {v} ||+||\mathbf {w} ||)^{2}}
⇔
|
|
v
+
w
|
|
≤
|
|
v
|
|
+
|
|
w
|
|
{\displaystyle \Leftrightarrow ||\mathbf {v} +\mathbf {w} ||\leq ||\mathbf {v} ||+||\mathbf {w} ||}
◻
{\displaystyle \Box }
Due vettori
v
,
w
∈
V
{\displaystyle \mathbf {v} ,\mathbf {w} \in V}
si dicono ortogonali (o perpendicolari) se e solo se
<
v
,
w
>=
0
{\displaystyle <\mathbf {v} ,\mathbf {w} >=0}
.
Sia
{
v
1
,
…
,
v
n
}
{\displaystyle \{\mathbf {v} _{1},\dots ,\mathbf {v} _{n}\}}
un insieme di vettori non nulli di
V
{\displaystyle V}
. Tale insieme si dice ortogonale se sono ortogonali tutti i vettori dell'insieme presi due a due, cioè se
<
v
i
,
v
j
>=
0
∀
i
,
j
=
1
,
…
,
n
,
i
≠
j
{\displaystyle <\mathbf {v} _{i},\mathbf {v} _{j}>=0\,\ \forall i,j=1,\dots ,n\ ,\ i\neq j}
.
Nel caso
<
v
i
,
v
j
>=
1
,
i
=
j
{\displaystyle <\mathbf {v} _{i},\mathbf {v} _{j}>=1\ ,\ i=j}
, cioè
<
v
i
,
v
i
>=
1
{\displaystyle <\mathbf {v} _{i},\mathbf {v} _{i}>=1}
, allora l'insieme si dice ortonormale . Equivalentemente, un insieme ortonormale è un insieme ortogonale i cui vettori sono dei versori .
Se un insieme ortogonale od ortonormale è una base di una spazio vettoriale, si dice semplicemente che tale base è una base ortogonale o ortonormale.
Sia
{
w
1
,
…
,
w
n
}
{\displaystyle \{\mathbf {w} _{1},\dots ,\mathbf {w} _{n}\}}
un insieme ortogonale. Allora
i
w
i
{\displaystyle \mathbf {w} _{i}}
sono linearmente indipendenti;
Se
n
=
dim
(
V
)
{\displaystyle n=\dim(V)}
,
{
w
1
,
…
,
w
n
}
{\displaystyle \{\mathbf {w} _{1},\dots ,\mathbf {w} _{n}\}}
è una base (ortogonale) di
V
{\displaystyle V}
;
∀
v
∈
V
{\displaystyle \forall \mathbf {v} \in V}
, il vettore
v
′
=
v
−
∑
i
=
1
n
<
v
,
w
i
>
<
w
i
,
w
i
>
w
i
{\displaystyle \mathbf {v} '=\mathbf {v} -\sum _{i=1}^{n}{\frac {<\mathbf {v} ,\mathbf {w} _{i}>}{<\mathbf {w} _{i},\mathbf {w} _{i}>}}\mathbf {w} _{i}}
è ortogonale a ciascuno di essi.
1. Basta dimostrare che se due vettori non nulli sono ortogonali, allora sono indipendenti.
Siano
v
1
{\displaystyle \mathbf {v} _{1}}
e
v
2
{\displaystyle \mathbf {v} _{2}}
due vettori non nulli, e tali che
<
v
1
,
v
2
>=
0
{\displaystyle <\mathbf {v} _{1},\mathbf {v} _{2}>=0}
. Sia
w
{\displaystyle \mathbf {w} }
un qualunque vettore combinazione lineare di
v
1
{\displaystyle \mathbf {v} _{1}}
e
v
2
{\displaystyle \mathbf {v} _{2}}
, ossia
w
=
x
1
v
1
+
x
2
v
2
{\displaystyle \mathbf {w} =x_{1}\mathbf {v} _{1}+x_{2}\mathbf {v} _{2}}
.
Devo dimostrare che
w
=
0
{\displaystyle \mathbf {w} =0}
implica che
x
1
=
x
2
=
0
{\displaystyle x_{1}=x_{2}=0}
.
Sia
0
=
w
=
x
1
v
1
+
x
2
v
2
{\displaystyle 0=\mathbf {w} =x_{1}\mathbf {v} _{1}+x_{2}\mathbf {v} _{2}}
. Allora deve succedere che
0
=<
w
,
w
>=<
x
1
v
1
+
x
2
v
2
,
x
1
v
1
+
x
2
v
2
>=
x
1
2
<
v
1
,
v
1
>
+
x
2
2
<
v
2
,
v
2
>
+
2
x
1
x
2
<
v
1
,
v
2
>=
x
1
2
<
v
1
,
v
1
>
+
x
2
2
<
v
2
,
v
2
>
{\displaystyle 0=<\mathbf {w} ,\mathbf {w} >=<x_{1}\mathbf {v} _{1}+x_{2}\mathbf {v} _{2},x_{1}\mathbf {v} _{1}+x_{2}\mathbf {v} _{2}>=x_{1}^{2}<\mathbf {v} _{1},\mathbf {v} _{1}>+x_{2}^{2}<\mathbf {v} _{2},\mathbf {v} _{2}>+2x_{1}x_{2}<\mathbf {v} _{1},\mathbf {v} _{2}>=x_{1}^{2}<\mathbf {v} _{1},\mathbf {v} _{1}>+x_{2}^{2}<\mathbf {v} _{2},\mathbf {v} _{2}>}
Quindi
x
1
2
<
v
1
,
v
1
>=
−
x
2
2
<
v
2
,
v
2
>
{\displaystyle x_{1}^{2}<\mathbf {v} _{1},\mathbf {v} _{1}>=-x_{2}^{2}<\mathbf {v} _{2},\mathbf {v} _{2}>}
.
I due vettori sono non nulli, quindi i due prodotti scalari sono positivi, e quindi, affinché l'eguaglianza valga, deve essere che
x
1
2
{\displaystyle x_{1}^{2}}
e
x
2
2
{\displaystyle x_{2}^{2}}
devono essere nulli, da cui segue la tesi.
2. Dalla 1. segue che un insieme di
n
{\displaystyle n}
vettori indipendenti in uno spazio
V
{\displaystyle V}
di dimensione
n
{\displaystyle n}
è una base.
3. Fissiamo un indice
j
∈
{
1
,
…
,
n
}
{\displaystyle j\in \{1,\dots ,n\}}
, e sia
w
j
{\displaystyle \mathbf {w} _{j}}
un vettore della base ortogonale. Prendiamo un vettore
v
∈
V
{\displaystyle \mathbf {v} \in V}
, e sia
v
′
{\displaystyle \mathbf {v} '}
il vettore definito nell'enunciato. Ecco cosa succede:
<
w
j
,
v
′
>=<
w
j
,
v
>
−
<
w
j
,
∑
i
=
1
n
<
v
,
w
i
>
<
w
i
,
w
i
>
w
i
>=<
w
j
,
v
>
−
∑
i
=
1
n
<
v
,
w
i
>
<
w
i
,
w
i
>
<
w
j
,
w
i
>
{\displaystyle <\mathbf {w} _{j},\mathbf {v} '>=<\mathbf {w} _{j},\mathbf {v} >-<\mathbf {w} _{j},\sum _{i=1}^{n}{\frac {<\mathbf {v} ,\mathbf {w} _{i}>}{<\mathbf {w} _{i},\mathbf {w} _{i}>}}\mathbf {w} _{i}>=<\mathbf {w} _{j},\mathbf {v} >-\sum _{i=1}^{n}{\frac {<\mathbf {v} ,\mathbf {w} _{i}>}{<\mathbf {w} _{i},\mathbf {w} _{i}>}}<\mathbf {w} _{j},\mathbf {w} _{i}>}
Visto che stiamo in una base ortogonale,
<
w
j
,
w
i
>=
0
,
∀
i
≠
j
{\displaystyle <\mathbf {w} _{j},\mathbf {w} _{i}>=0,\ \forall i\neq j}
, e quindi la sommatoria si riduce al termine
<
v
,
w
j
>
<
w
j
,
w
j
>
<
w
j
,
w
j
>=<
v
,
w
j
>
{\displaystyle {\frac {<\mathbf {v} ,\mathbf {w} _{j}>}{<\mathbf {w} _{j},\mathbf {w} _{j}>}}<\mathbf {w} _{j},\mathbf {w} _{j}>=<\mathbf {v} ,\mathbf {w} _{j}>}
.
In definitiva:
<
w
j
,
v
′
>=<
w
j
,
v
>
−
<
v
,
w
j
>=
0
{\displaystyle <\mathbf {w} _{j},\mathbf {v} '>=<\mathbf {w} _{j},\mathbf {v} >-<\mathbf {v} ,\mathbf {w} _{j}>=0}
.
Tutto ciò è vero, qualunque sia
v
{\displaystyle \mathbf {v} }
e qualunque sia
j
{\displaystyle j}
, ossia la tesi.
◻
{\displaystyle \Box }
Procedimento di ortogonalizzazione di Gram-Schmidt
modifica
Sia
B
=
(
v
1
,
…
,
v
n
)
{\displaystyle B=(\mathbf {v} _{1},\dots ,\mathbf {v} _{n})}
una base di
(
V
,
<
,
>
)
{\displaystyle (V,<,>)}
. Allora
O
=
(
w
1
,
…
,
w
n
)
{\displaystyle O=(\mathbf {w} _{1},\dots ,\mathbf {w} _{n})}
costituito dai vettori
w
1
=
v
1
{\displaystyle \mathbf {w} _{1}=\mathbf {v} _{1}}
w
2
=
v
2
−
<
v
2
,
w
1
>
<
w
1
,
w
1
>
w
1
{\displaystyle \mathbf {w} _{2}=\mathbf {v} _{2}-{\frac {<\mathbf {v} _{2},\mathbf {w} _{1}>}{<\mathbf {w} _{1},\mathbf {w} _{1}>}}\mathbf {w} _{1}}
⋮
{\displaystyle \vdots }
w
n
=
v
n
−
∑
i
=
1
n
−
1
<
v
n
,
w
i
>
<
w
i
,
w
i
>
w
i
{\displaystyle \mathbf {w} _{n}=\mathbf {v} _{n}-\sum _{i=1}^{n-1}{\frac {<\mathbf {v} _{n},\mathbf {w} _{i}>}{<\mathbf {w} _{i},\mathbf {w} _{i}>}}\mathbf {w} _{i}}
è una base ortogonale.
Osserviamo che
w
i
∈
L
(
v
1
,
…
,
v
i
)
,
∀
i
∈
{
1
,
…
,
n
}
{\displaystyle \mathbf {w} _{i}\in {\mathcal {L}}(\mathbf {v} _{1},\dots ,\mathbf {v} _{i}),\ \forall i\in \{1,\dots ,n\}}
e che ogni
w
i
{\displaystyle \mathbf {w} _{i}}
è non nullo. Infatti, se per assurdo un qualche
w
p
{\displaystyle \mathbf {w} _{p}}
fosse nullo, avremmo
w
p
=
v
p
−
∑
i
=
1
n
−
1
<
v
p
,
w
i
>
<
w
i
,
w
i
>
w
i
⇔
v
p
=
∑
i
=
1
n
−
1
<
v
p
,
w
i
>
<
w
i
,
w
i
>
w
i
∈
L
(
v
1
,
…
,
v
n
−
1
)
{\displaystyle \mathbf {w} _{p}=\mathbf {v} _{p}-\sum _{i=1}^{n-1}{\frac {<\mathbf {v} _{p},\mathbf {w} _{i}>}{<\mathbf {w} _{i},\mathbf {w} _{i}>}}\mathbf {w} _{i}\Leftrightarrow \mathbf {v} _{p}=\sum _{i=1}^{n-1}{\frac {<\mathbf {v} _{p},\mathbf {w} _{i}>}{<\mathbf {w} _{i},\mathbf {w} _{i}>}}\mathbf {w} _{i}\in {\mathcal {L}}(\mathbf {v} _{1},\dots ,\mathbf {v} _{n-1})}
e questo contraddice l'ipotesi che
B
{\displaystyle B}
sia una base.
Per il Lemma precedente, sappiamo che ogni
w
p
{\displaystyle \mathbf {w} _{p}}
è ortogonale al vettore
w
p
−
1
{\displaystyle \mathbf {w} _{p-1}}
che lo precede nella n-upla
O
{\displaystyle O}
, dunque
O
{\displaystyle O}
è un insieme ortogonale.
Sempre per il Lemma deduciamo che i
w
i
{\displaystyle \mathbf {w} _{i}}
sono linearmente indipendenti e pertanto costituiscono una base.
◻
{\displaystyle \Box }
Questo algoritmo ci permette di ottenere una base ortogonale a partire da una base di partenza data.
Proposizione (esistenza di una base ortonormale)
modifica
<
u
r
,
u
s
>=<
1
|
|
v
s
|
|
v
s
,
1
|
|
v
r
|
|
v
r
>=
1
|
|
v
r
|
|
|
|
v
s
|
|
<
v
r
,
v
s
>=
{
1
,
r
=
s
0
,
r
≠
s
{\displaystyle <\mathbf {u} _{r},\mathbf {u} _{s}>=<{\frac {1}{||\mathbf {v} _{s}||}}\mathbf {v} _{s},{\frac {1}{||\mathbf {v} _{r}||}}\mathbf {v} _{r}>={\frac {1}{||\mathbf {v} _{r}||\ ||\mathbf {v} _{s}||}}<\mathbf {v} _{r},\mathbf {v} _{s}>={\begin{cases}1,\ r=s\\0,\ r\neq s\end{cases}}}
Dunque tutti i vettori
u
i
{\displaystyle \mathbf {u} _{i}}
sono ortonormali.
◻
{\displaystyle \Box }
Sia
(
V
,
<
,
>
)
{\displaystyle (V,<,>)}
di dimensione 4 e sia
{
e
1
,
e
2
,
e
3
,
e
4
}
{\displaystyle \{\mathbf {e} _{1},\mathbf {e} _{2},\mathbf {e} _{3},\mathbf {e} _{4}\}}
una base di
V
{\displaystyle V}
ortonormale (è la base canonica). Consideriamo poi i vettori
v
1
=
(
0
,
1
,
0
,
1
)
,
v
2
=
(
2
,
1
,
0
,
1
)
,
v
3
=
(
−
1
,
0
,
0
,
1
)
,
v
4
=
(
0
,
0
,
1
,
0
)
{\displaystyle \mathbf {v} _{1}=(0,1,0,1),\ \mathbf {v} _{2}=(2,1,0,1),\ \mathbf {v} _{3}=(-1,0,0,1),\ \mathbf {v} _{4}=(0,0,1,0)}
.
Applichiamo il procedimento di Gram-Schmidt per ottenere una base ortogonale.
w
1
=
v
1
{\displaystyle \mathbf {w} _{1}=\mathbf {v} _{1}}
w
2
=
v
2
−
<
w
1
,
w
2
>
<
w
1
,
w
1
>
w
1
=
v
2
−
2
2
w
1
=
v
2
−
v
1
=
2
e
1
{\displaystyle \mathbf {w} _{2}=\mathbf {v} _{2}-{\frac {<\mathbf {w} _{1},\mathbf {w} _{2}>}{<\mathbf {w} _{1},\mathbf {w} _{1}>}}\mathbf {w} _{1}=\mathbf {v} _{2}-{\frac {2}{2}}\mathbf {w} _{1}=\mathbf {v} _{2}-\mathbf {v} _{1}=2\mathbf {e} _{1}}
w
3
=
v
3
−
∑
i
=
1
2
<
v
3
,
w
i
>
<
w
i
,
w
i
>
w
i
=
{\displaystyle \mathbf {w} _{3}=\mathbf {v} _{3}-\sum _{i=1}^{2}{\frac {<\mathbf {v} _{3},\mathbf {w} _{i}>}{<\mathbf {w} _{i},\mathbf {w} _{i}>}}\mathbf {w} _{i}=}
v
3
−
<
v
3
,
v
1
>
<
v
1
,
v
1
>
v
1
−
<
v
3
,
2
e
1
>
<
2
e
1
,
2
e
1
>
2
e
1
=
{\displaystyle \mathbf {v} _{3}-{\frac {<\mathbf {v} _{3},\mathbf {v} _{1}>}{<\mathbf {v} _{1},\mathbf {v} _{1}>}}\mathbf {v} _{1}-{\frac {<\mathbf {v} _{3},2\mathbf {e} _{1}>}{<2\mathbf {e} _{1},2\mathbf {e} _{1}>}}2\mathbf {e} _{1}=}
v
3
−
1
2
v
1
−
−
2
4
2
e
1
=
−
1
2
e
2
+
1
2
e
4
{\displaystyle \mathbf {v} _{3}-{\frac {1}{2}}\mathbf {v} _{1}-{\frac {-2}{4}}2\mathbf {e} _{1}=-{\frac {1}{2}}\mathbf {e} _{2}+{\frac {1}{2}}\mathbf {e} _{4}}
w
4
=
v
4
−
∑
i
=
1
3
<
v
4
,
w
i
>
<
w
i
,
w
i
>
w
i
=
⋯
=
v
4
{\displaystyle \mathbf {w} _{4}=\mathbf {v} _{4}-\sum _{i=1}^{3}{\frac {<\mathbf {v} _{4},\mathbf {w} _{i}>}{<\mathbf {w} _{i},\mathbf {w} _{i}>}}\mathbf {w} _{i}=\dots =\mathbf {v} _{4}}
Dunque
(
(
0
,
1
,
0
,
1
)
,
2
e
1
,
−
1
2
e
2
+
1
2
e
4
,
(
0
,
0
,
1
,
0
)
)
{\displaystyle \left((0,1,0,1),2\mathbf {e} _{1},-{\frac {1}{2}}\mathbf {e} _{2}+{\frac {1}{2}}\mathbf {e} _{4},(0,0,1,0)\right)}
è una base ortogonale di
V
{\displaystyle V}
.
<
v
,
w
>=
<
∑
i
=
1
n
x
i
u
i
,
∑
j
=
1
n
y
j
u
j
>=
∑
i
≠
j
=
1
n
x
i
y
j
<
u
i
,
u
j
>
+
∑
i
=
1
n
x
i
y
i
<
u
i
,
u
i
>=
0
+
∑
i
=
1
n
x
i
y
i
=
∑
i
=
1
n
x
i
y
i
{\displaystyle <\mathbf {v,w} >=\ <\sum _{i=1}^{n}x_{i}\mathbf {u} _{i},\sum _{j=1}^{n}y_{j}\mathbf {u} _{j}>=\sum _{i\neq j=1}^{n}x_{i}y_{j}<\mathbf {u} _{i},\mathbf {u} _{j}>+\sum _{i=1}^{n}x_{i}y_{i}<\mathbf {u} _{i},\mathbf {u} _{i}>=0+\sum _{i=1}^{n}x_{i}y_{i}=\sum _{i=1}^{n}x_{i}y_{i}}
◻
{\displaystyle \Box }