Cos'è ElectroYou | Login Iscriviti

ElectroYou - la comunità dei professionisti del mondo elettrico

Ricerca personalizzata
5
voti

Le applicazioni lineari

Lo scopo del seguente articolo è quello di effettuare un'introduzione alle applicazioni lineari. Il punto di partenza sono i tre articoli riguardanti le matrici, i sistemi di equazioni lineari e gli spazi vettoriali, sperando di essere chiaro e corretto nella trattazione e di offrire agli utenti un buon articolo (qualora dovessi aver fatto degli errori, me ne scuso, e vi chiedo in anticipo di segnalarmeli al fine di correggerli al più presto).
Buona lettura.

Indice

Dalle applicazioni...

Partiamo da due insiemi A e B. Se supponiamo che ad ogni elemento appartenente ad A sia assegnato un unico elemento appartenente a B, la "collezione" di queste assegnazioni è detta applicazione o mappa da A in B.
L'insieme A è detto dominio dell'applicazione mentre B è detto codominio.
La simbologia adottata per definire una applicazione f da A in B è la seguente:


f:A\to B


Si scriverà f(a) e si leggerà f di a, riferendosi all'unico elemento di B che la funzione f assegna ad a appartenente ad A. E' quindi il valore di f in A o, alternativamente, l'immagine di a rispetto ad f.


Fatte chiare queste premesse iniziali, consideriamo ora un'applicazione f:A\to B .
Se A' è un sottoinsieme qualsiasi di A, f(A') è l'insieme delle immagini degli elementi appartenenti al sottoinsieme A'; parimenti, se B' è un sottoinsieme di B, allora f − 1(B') starà ad indicare l'insieme degli elementi di A le cui immagini sono appartenenti tutte a B':


f({A}')=\begin{Bmatrix}f(a):a \in {A}'\end{Bmatrix}\ e\ f^{-1}({B}')=\begin{Bmatrix}a \in A:f(a) \in {B}'\end{Bmatrix}


Si dirà che f(A') è l'immagine di A', f − 1(B') è l'immagine inversa, o anche preimmagine, di B'.
Più precisamente, l'insieme di tutte le immagini, cioè f(A) è detto immagine o range di f.
Ad ogni applicazione f:A\to B corrisponde il sottoinsieme A \times B dato da \begin{Bmatrix}(a,f(a)):a \in A\end{Bmatrix}, detto anche grafico di f.
Due applicazioni f:A\to B e g:A\to B sono uguali se f(a) = g(a) per ogni a appartenente ad A, se, in altre parole, hanno lo stesso grafico.
La negazione di f = g si scrive f \neq g e si esplica nell'enunciato che segue:


esiste un elemento a\ \in A tale che f(a)\ \neq g(a)

Un esempio di applicazione

Sia V lo spazio vettoriale dei polinomi su R e sia p(t) = 3t2 − 5t + 2.
La derivata definisce un'applicazione D:V \to V in cui, per ogni polinomio f \in V, si ha D(f) = df / dt. Ad esempio:


D(3t2 − 5t + 2) = 6t − 5

Applicazioni matriciali

Sia A una matrice qualsiasi m \times n su un campo K. A definisce un'applicazione:


F_{A}:K^{n} \to K^{m}


nel seguente modo:


FA(u) = Au


dove i vettori Kn e Km sono scritti come colonne.
Per fare un esempio, supponiamo che :


A=\begin{bmatrix}1 & -4 & 5\\ 2 & 3 & -6\end{bmatrix} e\ u=\begin{bmatrix}1\\ 3\\ -5\end{bmatrix}

si avrà allora che:


F_{A}(u)=Au=\begin{bmatrix}1 & -4 & 5\\ 2 & 3 & -6\end{bmatrix}\begin{bmatrix}1\\ 3\\ -5\end{bmatrix}=\begin{bmatrix}-36\\ 41\end{bmatrix}

Composizione delle applicazioni

Consideriamo due applicazioni f:A \to B e g:B \to C:


A\overset{f}{\rightarrow}B\overset{g}{\rightarrow}C


La composizione di f e g, indicata con (g \circ f), è l'applicazione g \circ f:A \to C definita da:


(g \circ f)(a) \equiv  g(f(a))


Cioè, si applica prima f ad A e poi applichiamo g a f(a) \in B in modo da ottenere g(f(a)).


La composizione di applicazioni soddisfa la legge associativa.
Siano:

f:A \to B, g:B \to C, h:C \to D


Allora:


(h \circ (g \circ f))(a)=h((g \circ f)(a))=h(g(f(a)))

((h \circ g)\circ f)(a)=(h \circ g)(f(a))=h(g(f(a)))


Perciò (h \circ (g \circ f))(a)=((h \circ g) \circ f)(a) per ogni a appartenente ad A, dunque h \circ (g \circ f)= (h \circ g) \circ f.

Applicazioni iniettive e suriettive

Presentiamo ora, in via formale, alcuni tipi di applicazioni:

  • un'applicazione f:A \to B si dice iniettiva (o 1 − 1) se elementi diversi di A hanno immagini diversi, cioè:
  1. se a \neq {a}' implica f(a) \neq f({a}')
  2. se f(a) = f(a') implica a = a'
  • un'applicazione f:A \to B si dice suriettiva (f applica A su B) se ogni b \in B è immagine di almeno un a \in A;
  • un'applicazione f:A \to B che è iniettiva e allo stesso tempo suriettiva è detta biiettiva.

Un'interpretazione geometrica

Abbiamo le tre funzioni f:R \to R, g:R \to R e h:R \to R, definite da:


f(x)=2^x,\ g(x)=x^3-x, h(x)=x^2

i cui grafici (eseguiti con l'ausilio di WolframAlpha) sono rispettivamente i seguenti:

f(x)

f(x)

g(x)

g(x)

h(x)

h(x)


L'applicazione f è iniettiva: geometricamente significa che ogni retta orizzontale non contiene più di un punto di f.
L'applicazione g è suriettiva: geometricamente significa che ogni retta orizzontale contiene almeno un punto di g.
L'applicazione h non è né iniettiva né suriettiva: ad esempio 2 e − 2 hanno la stessa immagine 4, mentre − 16 non è immagine di alcun elemento di R.

Applicazione identità ed inversa

Dato un insieme A non vuoto, l'applicazione f:A \to A definita da f(a) = a, cioè, in altre parole, l'applicazione che ad ogni elemento di A associa se stesso, è definita come applicazione identità; è denotata con 1A o 1 o con I.


Data invece f:A \to B, diciamo che g:B \to A è l'inversa di f, indicata con f − 1, se:


f \circ g=1_B\ e\ g \circ f=1_A


Va sottolineato che f ha una inversa se e solo se è una corrispondenza biunivoca tra A e B, cioè se f è sia iniettiva che suriettiva. Infine se b \in B, allora f1(b) = a, dove a è l'unico elemento di A tale che f(a) = b.


...alle applicazioni lineari

Partiamo con la seguente definizione.
Siano U e V degli spazi vettoriali sullo stesso campo K. Un'applicazione F:V \to U sarà detta applicazione lineare, o trasformazione lineare se soddisfa le due condizioni:

  1. per ogni vettore v,w \in V, F(v + w) = F(v) + F(w);
  2. per ogni scalare k \in K e ogni vettore v \in V, F(kv) = kF(v).


Quindi F:V \to U è lineare se conserva le due operazioni fondamentali su uno spazio vettoriale, cioè somma vettoriale e moltiplicazione per uno scalare.
Da notare che se si sostituisce k = 0 nella condizione 2 prima citata, si ha F(0) = 0. Quindi: un'applicazione lineare manda sempre il vettore zero nel vettore zero.


Per qualunque scalare a,b \in K ed ogni vettore v,w \in V si ha:


F(av+bw)=F(av)+F(bw)=aF(v)+bF(w)\ .


Più in generale per ogni scalare a_i \in K e ogni vettore v_i \in V si può ottenere la proprietà fondamentale delle applicazioni lineari:


F(a_1v_1+a_2v_2+ \cdots+a_nv_n)=a_1F(v_1)+a_2F(v_2)+ \cdots+ a_nF(v_n)

Un esempio di applicazione lineare

Consideriamo lo spazio vettoriale V = P(t) dei polinomi sul campo reale R. Siano u(t) e v(t) polinomi qualsiasi in P(t) e sia k uno scalare qualunque.


Sia D:V \to V l'applicazione derivata. Si può provare che:


\frac{d(u+v)}{dt}=\ \frac{du}{dt}+\frac{dv}{dt} e \frac{d(ku)}{dt}=\ k\frac{du}{dt}\ .


Quindi D(u + v) = D(u) + D(v) e D(ku) = kD(u) : l'applicazione derivata è lineare.


Importante è il seguente teorema.
Dati due spazi vettoriali U e V su un campo K e siano \begin{Bmatrix}v_1,v_2, \cdots, v_n\end{Bmatrix} una base di V e \begin{Bmatrix}u_1,u_2, \cdots, u_n\end{Bmatrix} dei vettori qualsiasi (completamente arbitrari) in U.
Allora esiste un'unica applicazione lineare F:v \to U tale che F(v_1)=u_1, F(v_2)=u_2, \cdots,F(v_n)=u_n.
In sostanza questo teorema stabilisce che un'applicazione lineare è completamente determinata dai suoi valori sugli elementi di una base.

Le matrici intese come applicazioni lineari

Data una matrice m \times n qualsiasi A. Ricordandoci del fatto che un'applicazione F_A:K^n \to K^m come FA(u) = Au di Kn e che Km sono scritti come vettori colonna, mostriamo che FA è lineare:


FA(v + w) = A(v + w) = Av + Aw = FA(v) + FA(w)

FA(kv) = A(kv) = k(Av) = kFA(v)


In altri termini, utilizzando A per indicare l'applicazione, abbiamo che


A(v + w) = Av + Aw e A(kv) = k(Av)


Quindi l'applicazione matriciale A è lineare.

Isomorfismo tra spazi vettoriali

Dati due spazi vettoriali V ed U su K sono detti isomorfi, indicandoli come V\cong U, se esiste un'applicazione lineare biiettiva F:V \to U. L'applicazione F è detta isomorfismo tra V ed U.
Dato uno spazio vettoriale V a dimensione n e dara una base S di V, l'applicazione:


v \mapsto [v]_{S}

che manda ogni v \in V nel suo vettore delle coordinate relativo alla base S è un isomorfismo tra V e Kn.


Nucleo ed immagine di un'applicazione lineare

Partiamo da due definizioni

Sia F:v \to U un'applicazione lineare.
Il nucleo (o kernel) di F, lo si indica con \ker\ F, è l'insieme degli elementi in V, che sono mandati nel vettore 0 in U. Cioè:


\ker  F=\begin{Bmatrix}v \in V:F(v)=0\end{Bmatrix}


L'immagine (o range) di F, la si indica con \mathrm{Im}\ F, è l'insieme dei punti immagine in U. Cioè:


\mathrm{Im}\ F=\begin{Bmatrix}u \in U:esiste\ v \in V\ per\ il\ quale\ F(v)=u\end{Bmatrix}


Enunciamo ora il seguente teorema.
Data una applicazione lineare F:V \to U, l'immagine di F è un sottospazio di U ed il nucleo di F è un sottospazio di V.


Inoltre, poniamo che i vettori v_1, \cdots, v_m generino uno spazio vettoriale V e, che la F:V \to U sia lineare. Allora F(v_1),F(v_2), \cdots, F(v_m) genera \mathrm{Im}\ F.

Nucleo ed immagine di un'applicazione lineare

Prendiamo ad esempio una matrice qualsiasi A 3 \times 4 e sia la base canonica \begin{Bmatrix}e_1,e_2,e_3,e_4\end{Bmatrix} di K4 (scritta come colonne):


A=\ \begin{bmatrix}a_1 & a_2 & a_3 & a_4\\ b_1 & b_2 & b_3 & b_4\\ c_1 & c_2 & c_3 & c_4\end{bmatrix}\ \ e_1=\begin{bmatrix}1\\ 0\\ 0\\ 0\end{bmatrix},\ e_2=\begin{bmatrix}0\\ 1\\ 0\\ 0\end{bmatrix}, e_3=\begin{bmatrix}0\\ 0\\ 1\\ 0\end{bmatrix}, e_4=\begin{bmatrix}0\\ 0\\ 0\\ 1\end{bmatrix}


A può essere intesa come un'applicazione lineare A:K^4 \to K^3, dove i vettori di K4 e K3 sono visti come vettori colonne. Ora, la base usuale di vettori genera K4 e quindi le loro immagini Ae_1,\ Ae_2,\ Ae_3,\ Ae_4 generano l'immagine di A. ,Ma i vettori Ae_1,\ Ae_2,\ Ae_3,\ Ae_4 sono più precisamente le colonne di A:


Ae_1=\ \begin{bmatrix}a_1,b_1,c_1\end{bmatrix}^{T},\ Ae_2=\ \begin{bmatrix}a_2,b_2,c_2\end{bmatrix}^{T},\ Ae_3=\ \begin{bmatrix}a_3,b_3,c_3\end{bmatrix}^{T},,\ Ae_4=\ \begin{bmatrix}a_4,b_4,c_4\end{bmatrix}^{T}


L'immagine di A, quindi, è lo spazio delle colonne di A.
Il nucleo di AA consiste in tutti i vettori v per i quali Av=\ 0. Ciò significa che il nucleo di A è lo spazio delle soluzioni del sistema omogeneo AX=\ 0, detto spazio nullo di A.


Enunciando formalmente ciò che è stato esposto finora, abbiamo quanto segue.
Data una matrice A m \times n su un campo K vista come un'applicazione lineare A:K^n \to K^m. Si ha :


\ker\ A=nullsp(A) e \mathrm{Im}\ A=colsp(A)

Rango di un'applicazione lineare

Data un'applicazione lineare F:V \to U, il rango di F è definito come la dimensione della sua immagine:

rango(F)=dim(\mathrm{Im}\ F)


Infine enunciamo il seguente teorema: data una applicazione linare F:V \to U (V è di dimensioni finite). Allora:

dim(V)=dim(\ker\ F)+dim(\mathrm{Im}\ F)


Applicazioni ai sistemi di equazioni lineari

Sia AX = B la forma matriciale di un sistema con m equazioni lineari e n incognite. La matrice A può essere vista come applicazione lineare:

A:K^n \to K^m


La soluzione dell'equazione Ax = B può essere vista come preimmagine del vettore B \in K^m rispetto all'applicazione lineare A. La soluzione dell'equazione omogenea associata AX = 0 può essere vista come nucleo dell'applicazione lineare A.
In virtù del teorema enunciato prima:

dim(\ker\ A)=dim(\ker\ K^n)-dim(\mathrm{Im}\ A)=\ n-rango(A)


n, però, è esattamente il numero delle incognite del sistema omogeneo AX = 0.


Possiamo quindi enunciare il seguente teorema.
La dimensione dello spazio delle soluzioni W del sistema omogeneo di equazioni lineari AX = 0 è s = nr con n numero delle incognite e r rango della matrice dei coefficienti A.

Operazioni con le applicazioni lineari

Le applicazioni lineari sono combinabili in varie modalità e se ne possono ottenere delle nuove.
Supponiamo che ad esempio F:V \to U e G:V \to U siano delle applicazioni lineari su un campo K.
La somma F + G e la moltiplicazione kF (k \in K) sono definite in questo modo (come applicazioni che vanno da V in U):

(F+G)(v) \equiv F(v)+G(v)\ \ e\ \ (kF)(v) \equiv kF(v)


Dimostriamo che se F e G sono lineari, anche F + G e kF sono lineari. Per qualsiasi vettore v,w \in V e qualsiasi scalare a,b \in K si avrà:

(F + g)(av + bw) = F(av + bw) + G(av + bw)
= aF(v) + bF(w) + aG(v) + bG(w)
= a(F(v) + G(v)) + b(F(w) + G(w))
= a(F + G)(v) + b(F + G)(w)
(kF)(av + bw) = kF(av + bw) = k(aF(v) + bF(w))
= akF(v) + bkF(w) = a(kF)(v) + b(kF)(w)


Quindi F + G e kF sono lineari.

E' valido inoltre il teorema che segue. Dati due spazi vettoriali V ed U su un campo K, la collezione di tutte le applicazioni lineari da V in U con le operazioni prima citate di addizione e moltiplicazione per uno scalare formano uno spazio vettoriale su K.
Esso è denotato con:


hom(V,U)

ed è detto omomorfismo.

Composizione di applicazioni lineari

Dati tre spazi vettoriali V,U,W sullo stesso campo K e tre applicazioni lineari F:V \to U e G:U \to W, possiamo rappresentare le applicazioni in questo modo:


V\overset{F}{\rightarrow}U\overset{G}{\rightarrow}W


La funzione composizione G \circ F è l'applicazione da V in W, definita (G \circ F)(v)=G(F(v)).
Dimostriamo che G \circ F è lineare se F e G sono anche lineari.
Si avrà che per ogni v,w \in V e ogni scalare a,b \in K,


(G \circ F)(av+bw)=G(F(av+bw))=G(aF(v)+bF(w))

=aG(F(v))+bG(F(w))=a(G \circ F)(v)+b(G \circ F)(v)+b(g \circ F)(w)

cioè G \circ F è lineare.

Bibliografia

Algebra lineare - Lipschutz, Lipson.

3

Commenti e note

Inserisci un commento

di ,

Sì, esattamente! E' una tecnica per la quale ho molta simpatia, perché mi ha tirato d'impaccio già diverse volte. Data la quantità di cose da dire, penso proprio che tu abbia ragione nel voler dedicarvi un intero articolo!

Rispondi

di ,

Ciao DarwinNE e grazie per l'apprezzamento :-) . Parli di diagonalizzazione intendendo autovalori ed autovettori, quindi diagonalizzazione di un operatore lineare, di matrici simmetriche, polinomio caratteristico, teorema di Caley-Hamilton e tutto ciò che vi è annesso e connesso, intendi ciò? Se è così, avevo intenzione di scrivere, a giorni, un articolo incentrato proprio su questo argomento (limitatamente a quanto studiato), in cui inserivo anche una serie di esercizi svolti. Non l'ho inserito in questo articolo perché temevo diventasse eccessivamente lungo e "pesante" dal punto di vista della trattazione.

Rispondi

di ,

Interessante! Perché non parli anche della diagonalizzazione delle applicazioni lineari? E' una tecnica estremamente potente che si utilizza in tantissimi campi della fisica. Se vedi per esempio lo studio che ho pubblicato qui su EY relativo all'analisi matematica di uno stadio differenziale, l'idea di base è proprio quella di diagonalizzare un'applicazione lineare.

Rispondi

Inserisci un commento

Per inserire commenti è necessario iscriversi ad ElectroYou. Se sei già iscritto, effettua il login.