• Non ci sono risultati.

Appunti su Equazioni Differenziali Ordinarie

N/A
N/A
Protected

Academic year: 2023

Condividi "Appunti su Equazioni Differenziali Ordinarie"

Copied!
46
0
0

Testo completo

(1)

Appunti su

Equazioni Differenziali Ordinarie

Daniele Andreucci

Dipartimento di Scienze di Base e Applicate per l’Ingegneria

Sapienza Università di Roma

via Antonio Scarpa 16 00161 Roma, Italy [email protected]

a.a. 2017–2018

versione provvisoria

(2)

note_edo 20170918 11.26

c 2015, 2016, 2017, 2018 Daniele Andreucci Tutti i diritti riservati–All rights reserved

(3)

Introduzione

0.1. Nota.

Questa è la versione provvisoria degli Appunti su Equazioni Differenziali Ordinarie per il corso di Analisi Matematica 2, tenuto per il Corso di Lau- rea in Ingegneria Gestionale dell’Università La Sapienza di Roma, anno accademico 2017-2018.

La versione definitiva verrà resa disponibile al termine del corso.

I cambiamenti del contenuto della presente versione provvisoria che si rendano necessari durante il semestre verranno resi disponibili al termine del corso.

Si noti che il programma del corso contiene altri argomenti, per cui si rimanda ai testi consigliati sul sito del corso.

Fanno altresì parte del programma, per tutti gli argomenti, le tecniche risolutive degli esercizi pubblicati sul sito del corso:

https://www.sbai.uniroma1.it/˜daniele.andreucci/didattica/

analisi2/analisi2_index.html

e gli esempi svolti a lezione contenuti nel Diario del Corso pubblicato sullo stesso sito.

0.2. Avvertenze

Il simbolo |·| denota sia il valore assoluto di numeri reali che la norma euclidea di vettori di RN, N > 1. Con il simbolo· indichiamo sia l’ope- razione di prodotto scalare tra vettori di RN, che talvolta il prodotto tra numeri reali.

Per N ≥1, JRintervallo, n∈ N,

Cn(J) = {y : JRN |y, y, . . . , y(n) continue in J}.

I vettori sono sempre intesi come vettori colonna, anche qualora per co- modità tipografica vengano rappresentati come vettori riga.

I vettori vengono indicati con questo carattere: y, mentre le matrici vengo- no indicate con questo carattere: A.

iii

(4)
(5)

Indice

Introduzione iii

0.1. Nota. iii

0.2. Avvertenze iii

Capitolo 1. Il problema di Cauchy 1

1.1. Notazione fondamentale e prime definizioni 1

1.2. Sistemi di ordine superiore. 2

1.3. Alcuni risultati preliminari 2

1.4. Teoria generale delle soluzioni locali 4

1.5. Estendibilità di soluzioni. 7

1.6. Dipendenza continua 10

Capitolo 2. Sistemi di equazioni differenziali lineari 13

2.1. Lo spazio delle soluzioni 13

2.2. Matrici risolventi 15

2.3. Matrici risolventi per sistemi a coefficienti costanti 17

2.4. Il caso delle equazioni di ordine n 20

Capitolo 3. Stabilità 23

3.1. Sistemi autonomi. 23

3.2. Punti di equilibrio 24

3.3. Il caso dei sistemi lineari a coefficienti costanti 26

3.4. I teoremi di stabilità di Liapunov 27

3.5. Il caso dei sistemi di secondo ordine 29

3.6. Rappresentazioni nel piano delle fasi 32

Appendice A. Serie esponenziale 39

A.1. Complementi: La serie esponenziale 39

v

(6)
(7)

CAPITOLO 1

Il problema di Cauchy

1.1. Notazione fondamentale e prime definizioni

1.1.1. Definizioni. Nel seguito useremo sempre questa notazione: sia ΩRN un insieme aperto e sia F : ΩRN una funzione continua.

Definizione 1.1. Una funzione di classe C1, y : JRN, ove JR è un intervallo, si chiama soluzione locale in J dell’equazione differenziale ˙z = F(t, z)se(t, y(t)) ∈per ogni tJ e

˙y(t) =F(t, y(t)), per tutti i t ∈ J. (1.1)

 Definizione 1.2. Prefissato (α, β) ∈ Ω, una soluzione locale del problema di Cauchy

( ˙z=F(t, z),

z(α) =β, (1.2)

è definita come una soluzione locale y di (1.1) tale che αJ e y(α) = β.

Una soluzione locale di (1.2) si denota a volte y(t; α, β). Il dato z(α) =βsi dice dato di Cauchy, o dato iniziale, e il punto(α, β)punto iniziale. Il valore

t=αsi dice istante iniziale. 

Osservazione 1.3. In generale possono esistere più soluzioni, diverse tra loro, dello stesso problema (1.2). Naturalmente è interessante sapere quan- do la soluzione è unica. Trattando di soluzioni di equazioni differenziali è opportuno per chiarezza distinguere tra soluzioni che differiscono anche solo per il dominio di definizione.

Per esempio, il problema scalare ( ˙z=z,

z(0) =1 , ha le due soluzioni

y1(t) =et, t∈ R; y2(t) =et, t∈ [0,2).

Questa è una delle ragioni per introdurre la Definizione1.4.  Definizione 1.4. Una soluzione massimale di (1.2) è una soluzione locale di (1.2), definita su un intervallo J, tale che per ogni altra soluzione locale dello stesso problema definita su un intervallo I, valga I ⊂ J. 

1

(8)

1.2. Sistemi di ordine superiore.

Sono interessanti anche i sistemi di ordine superiore al primo. Essi tuttavia sono coperti, in parte, dalla teoria dei sistemi del primo ordine in virtù dell’argomento seguente.

Metodo 1.5. (Riduzione di un sistema del secondo ordine al primo) Consideriamo un sistema del secondo ordine

¨z= f(t, z, ˙z), (1.3)

e i relativi problemi ai valori iniziali

¨z= f(t, z, ˙z), (1.4)

z(t0) =z0, (1.5)

˙z(t0) = ˙z0. (1.6)

In molti casi tuttavia sarà possibile limitarsi a trattare in modo esplicito solo il caso del sistema del primo ordine, perché il sistema del secondo ordine si riduce a quello del primo con il cambiamento di variabili

y:= (z, ˙z) ∈ R2N, (1.7) e introducendo la nuova funzione costitutiva

F(t, y):= y2, f(t.y1, y2), (1.8) ove si denota

y= (y1, y2), y1, y2RN. (1.9) In questo modo il problema (1.4)–(1.6) si riduce a

˙y=F(t, y), (1.10)

y(t0) = (z0, ˙z0). (1.11) Nel seguito, le definizioni si intendono estese a sistemi del secondo ordine in quanto si applicano ai sistemi del primo ordine cui essi si riducono con

la trasformazione (1.7), (1.8). 

Osservazione 1.6. È chiaro che quanto detto per sistemi del secondo ordine si estende a sistemi di ordine superiore. 

1.3. Alcuni risultati preliminari

Per dimostrare i risultati di unicità e dipendenza continua di soluzioni useremo la disuguaglianza di Gronwall (Lemma 1.8 sotto), la cui dimo- strazione è una semplice applicazione della tecnica di integrazione per separazione delle variabili.

Osservazione 1.7. (Integrazione per separazione delle variabili) Sia- no f , g, x ∈ C1(R)tre funzioni scalari, e supponiamo che valga, per ogni t∈ R,

˙x(t)f(x(t)) = ˙g(t). (1.12) È allora chiaro, per i teoremi fondamentali del calcolo, che, fissato arbitra- riamente t0R, vale

f(x(t)) =g(t) −g(t0) + f(x(t0)); (1.13)

(9)

1.3. ALCUNI RISULTATI PRELIMINARI 3

se poi f è invertibile, quest’uguaglianza permette di ricavare la funzione x in modo esplicito. È anche ovvio che le uguaglianze in (1.12)–(1.13) possono essere sostituite da disuguaglianze; in questo caso, la (1.13) dà solo una stima unilaterale per f(x).

La tecnica di integrazione qui accennata viene detta per separazione delle variabili, perché di fatto è spesso applicata a uguaglianze del tipo

˙x= ϕ(x)ψ(t),

che (sotto ovvie ipotesi sulle funzioni ϕ, ψ) possono essere ricondotte fa- cilmente alla forma (1.12), “separando” la ϕ(x) dalla ψ(t)(cioè portando

ϕ(x)a primo membro). 

Lemma 1.8. (Disuguaglianza di Gronwall) Sia yC1([α1, α2]). Se vale

|˙y| ≤λ(|y| +σ), in[α1, α2], con λ0, σ≥0 costanti, allora

|y(t)| +σeλ|ta|(|y(a)| +σ), per ogni α1a, tα2. (1.14) Dimostrazione. Per i t per cui y(t) 6=0, si ha che|y|è derivabile, e

d dt|y(t)|

=

d dt

q

y(t) ·y(t)

=

2 ˙y(t) ·y(t) 2py(t) ·y(t)

≤ |˙y(t)|. (1.15) Possiamo poi supporre senza perdita di generalità che t >a.

Supponiamo anche per il momento che y(τ) 6= 0 per tutti i τ ∈ [a, t]. Allora possiamo scrivere

d

|y(τ)| 1

|y(τ)| +σ ≤ |˙y(τ)|

|y(τ)| +σλ, a <τ<t. Integrando su[a, t]si ottiene

ln |y(t)| +σ

|y(a)| +σλ(t−a), da cui la (1.14).

Resta da discutere il caso in cui y(τ) =0 per qualche τ∈ [a, t]. Se y(t) =0 ovviamente la (1.14) è vera e non c’è niente da dimostrare. Se y(t) 6= 0, definiamo τ0 come l’estremo superiore dei τ ∈ [a, t) tali che y(τ) = 0.

Vale y(τ0) = 0, e y(τ) 6= 0 in [τ0+ε, t], per ogni 0 < ε < tτ0. Si può allora ripetere la prima parte della dimostrazione nell’intervallo[τ0+ε, t], ottenendo

|y(t)| +σeλ(tτ0ε)(|y(τ0+ε)| +σ). Prendendo il limite ε→0 si arriva alla stima cercata

|y(t)| +σeλ(tτ0)σeλ(ta)(|y(a)| +σ).



(10)

1.4. Teoria generale delle soluzioni locali 1.4.1. Definizioni.

Definizione 1.9. Diremo che F : ΩRN, ΩRN+1, è localmente lipschi- tziana(nelle ultime N variabili) se e solo se per ogni compatto C contenuto in Ω è possibile trovare una costante L> 0 tale che

|F(t, ξ) −F(t, η)| ≤ L|ξη|, per ogni (t, ξ),(t, η) ∈C. (1.16) La L si dice allora costante di Lipschitz di F in Ω.  Per esempio f(x) =1/x è localmente Lipschitziana in(0,1).

Supporremo salvo diverso avviso che F sia localmente lipschitziana in Ω nelle ultime N variabili.

1.4.2. Unicità. L’ipotesi di locale lipschitzianità permette di dimostrare con notevole facilità il seguente risultato, che implica (quasi) la dipendenza continua nel senso della Definizione1.23.

Teorema 1.10. Siano y; a, b)e y; α, β)due soluzioni locali dei corrispondenti problemi di Cauchy, come in(1.2). Allora, se tali soluzioni sono definite entrambe (almeno) su un intervallo J, a, α∈ J, ed entrambi i loro grafici sono contenuti in un compatto C⊂Ω, si ha

|y(t; a, b) −y(t; α, β)| ≤eL|ta| |bβ| +M|aα|, per ogni tJ.

(1.17) Qui L è la costante di Lipschitz che appare in (1.16) relativa al compatto C e M =maxC|F|.

Dimostrazione. Sottraendo l’una dall’altra le equazioni differenziali sod- disfatte rispettivamente da z=y; a, b)e w=y; α, β), si ha

|˙z˙w| = |F(t, z) −F(t, w)| ≤ L|zw|, (1.18) ove denotiamo z=z(t), w=w(t), t∈ J. Per Lemma1.8, si ha, per t ∈ J,

|z(t) −w(t)| ≤eL|ta||z(a) −w(a)|

eL|ta| |z(a) −w(α)| + |w(α) −w(a)|eL|ta| |bβ| +M|aα|

(usando|˙w| = |F(t, w)| ≤ M). 

Osservazione 1.11. a) Il precedente Teorema non dà esattamente la dipen- denza continua nel senso che verrà introdotto nel seguito, perché assume (e non dimostra) che le due soluzioni siano definite in uno stesso intervallo;

questo verrà provato sotto.

b) È interessante notare che la (1.17) ha la natura di una cosiddetta “stima a priori”, ossia può essere provata senza conoscere l’esistenza effettiva del- le soluzioni in questione, e vale per tutte le soluzioni indipendentemente

da come siano state costruite. 

Un immediato e importantissimo corollario di Teorema 1.10 si ottiene prendendo a =α, b=β:

Corollario 1.12. (Unicità) Siano y e z due soluzioni locali dello stesso pro- blema di Cauchy (1.2). Valga la condizione di Lipschitz (1.16). Allora y = z nell’intervallo intersezione dei domini di definizione di y e z.

(11)

1.4. TEORIA GENERALE DELLE SOLUZIONI LOCALI 5

Dimostrazione. Sia I l’intersezione dei domini delle due soluzioni. È chiaro che basta dimostrare che le due soluzioni coincidono su ogni com- patto contenuto in I perché I è l’unione di questi compatti.

Sia dunque J uno di essi. Allora i grafici di y e di z su J sono sottoinsiemi compatti di Ω e dunque esiste un compatto C che li contiene entrambi. Si applica ora il Teorema1.10con a=α, b= βe si ottiene y=zsu J.  1.4.3. Esistenza. Introduciamo la seguente notazione: sia Ih = [a−h, a+ h], a, h∈ R, h>0 un intervallo chiuso di R, e sia BkRN la sfera chiusa di RN di raggio k> 0 e centro bRN; assumiamo che K := Ih×BkΩ.

Poniamo anche Ko = (a−h, a+h) × {|ξb| <k}(cioè Ko è l’interno di K).

Diamo ora il risultato locale di esistenza.

Teorema 1.13. (Esistenza locale) Ponendo δ=min

 h, k

M, 1 2L



>0 , il problema di Cauchy

( ˙z= F(t, z),

z(a) =b, (1.19)

ha una soluzione in[a−δ, a+δ]. Qui L è la costante di Lipschitz che appare in (1.16) relativa al compatto K e M= maxK|F|.

Dimostrazione. A) Approssimazione per ricorrenza. Per ogni n ∈ N e t ∈ J := [a−δ, a+δ]definiamo

y0(t) =b, (1.20)

yn+1(t) =b+

Zt

a

F(τ, yn(τ))dτ . (1.21) Affinché l’integrale in (1.21) sia ben definito occorre intanto che yn(τ) ∈Bk

per ogni τ ∈ J, e poi che ynC(J)in modo che l’integrando sia continuo.

Dimostriamolo per induzione; entrambe le affermazioni sono vere se n=0 per la definizione (1.20). Se poi sono vere per n, si ha da (1.21)

yn+1(t) −b Zt

a

|F(τ, yn(τ))|

δMk,

per la scelta di δ, e quindi yn+1(t) ∈Bkper ogni t∈ J. Infine la (1.21) stessa implica che yn+1C(J)concludendo la dimostrazione per induzione.

B) Continuità. In effetti la (1.21) mostra inoltre, per il Teorema fondamen- tale del calcolo, che yn+1C1(J)e

˙yn+1(t) = F(t, yn(t)), t∈ J. (1.22) Quindi

˙yn+1(t) = |F(t, yn(t))| ≤ M, tJ, (1.23) per cui per ogni n∈ N

|yn(t) −yn(τ)| ≤ M|tτ|, t, τJ. (1.24)

(12)

C) Convergenza. Vogliamo ora dimostrare la convergenza della successione {yn(t)}n=1 per t∈ J fissato ad arbitrio. A questo scopo dimostreremo che è una successione di Cauchy in R.

Definiamo

Yn=max

J |yn+1yn|, nN. Allora per n≥1 fissato e per ogni t∈ J si ha

yn+1(t) −yn(t) = Zt

a

[F(τ, yn(τ)) −F(τ, yn1(τ))]

Zt

a

F(τ, yn(τ)) −F(τ, yn1(τ))

Zt

a

L

yn(τ) −yn1(τ)

LδYn1, e dunque

YnLδYn1, n≥1 . (1.25)

Applicando iterativamente la (1.25) si arriva a

YnLδYn1≤ ()2Yn2≤ · · · ≤ ()nY0 ≤ ()nk, (1.26) ove si è usato nell’ultimo passaggio che y1(t) ∈ Bk, t ∈ J. Come conse- guenza della (1.26) si ha fissato ε>0, e per m>n

|ym(t) −yn(t)| ≤

m1

i=n

yi+1(t) −yi(t)

m1

i=n

Yi

m1

i=n

()ik ≤k

i=n

()i =k ()n 1−ε,

(1.27)

per m, n≥ nε opportuno. Si è usato che per la scelta di δ vale Lδ1/2<

1.

Perciò la successione {yn(t)}n=1 è di Cauchy e quindi converge per ogni fissato t∈ J. Definiamo

y(t) = lim

nyn(t), t∈ J.

D) La y è soluzione. Intanto vale che y(J) ⊂ Bk, poiché Bk è chiuso e vale yn(J) ⊂Bk per ogni n. Inoltre la y : JRN è continua: infatti prendendo il limite n →nella (1.23) si ottiene

|y(t) −y(τ)| ≤ M|tτ|, t, τJ.

Vogliamo ora prendere il limite nella (1.21). Osserviamo in via preliminare che prendendo il limite m →nella (1.27) si ottiene per ogni n≥1 e tJ

|y(t) −yn(t)| ≤k ()n 1−.

(13)

1.5. ESTENDIBILITÀ DI SOLUZIONI. 7

Pertanto

t

Z

a

F(τ, y(τ))

t

Z

a

F(τ, yn(τ))

t

Z

a

|F(τ, y(τ)) −F(τ, yn(τ))|

Zt

a

L|y(τ) −yn(τ)|

k()n+1 1− . Quindi per n→dalla (1.21) si ha

y(t) =b+

Zt

a

F(τ, y(τ))dτ . (1.28) La (1.28) mostra che y ∈ C1(J), poiché sappiamo già che è continua, e in particolare

˙y(t) = F(t, y(t)), t ∈ J.

La (1.28) implica anche che y(a) =b, concludendo la dimostrazione.  Osservazione 1.14. I precedenti risultati di esistenza, unicità e dipenden- za continua, valgono in realtà anche se il dato di Cauchy è assegnato per t = a−h o t = a+h; ovviamente si otterrà una soluzione defini- ta solo in un intorno destro o sinistro dell’istante iniziale. Questo segue

immediatamente dalle dimostrazioni date. 

1.5. Estendibilità di soluzioni.

1.5.1. Soluzioni massimali. In questo paragrafo ci poniamo il problema del comportamento globale delle soluzioni di un sistema differenziale. Cioè, in termini intuitivi, cerchiamo di capire “cosa può succedere” a una solu- zione locale del problema di Cauchy (1.2) per t che si allontana dal valore α.

Abbiamo bisogno per procedere nello studio delle soluzioni massimali del seguente risultato di prolungabilità:

Lemma 1.15. Sia FC()e localmente lipschitziana nelle ultime N variabili.

Sia z una soluzione locale di (1.1), definita su(t0, t1], con t1 < ∞. Allora esiste una soluzione ˜z che coincide con z su (t0, t1] ed è definita su (t0, t1+σ), con σ>0 opportuno.

Dimostrazione. Sia z1 = z(t1). Per il teorema di esistenza locale, il problema di Cauchy

˙w=F(t, w), w(t1) =z1,

ha una soluzione locale w definita in qualche intervallo aperto(t1σ, t1+ σ). La funzione

˜z(t) =

(z(t), t ∈ (t0, t1], w(t), t1 <t<t1+σ,

è una soluzione di (1.2): l’unica cosa da dimostrare è che ha derivata continua in t=t1. Ma

tlimt1˙˜z(t) = lim

tt1F(t, z(t)) =F(t1, z1) = lim

tt1+F(t, w(t)) = lim

tt1+˙˜z(t).

(14)

 Teorema 1.16. Sia FC()e localmente lipschitziana nelle ultime N varia- bili. Allora per ogni (α, β) ∈ Ω esiste una unica soluzione massimale di(1.2);

inoltre il suo intervallo di definizione è aperto.

Dimostrazione. L’unicità segue subito dal Corollario 1.12, se si nota che due soluzioni, entrambe massimali, devono essere definite sullo stesso intervallo.

Per l’esistenza, definiamo l’intervallo aperto J come l’unione di tutti gli intervalli aperti su cui è definita una soluzione locale di (1.2). Definiamo poi, per ogni t ∈ J, Y(t) = y(t), ove y è una soluzione locale di (1.2) definita in un intervallo cui appartiene t. Sicuramente una tale y esiste per ogni t ∈ J (per definizione di J); inoltre la definizione di Y non dipende dalla scelta di y, ed è quindi ben data, a causa del Corollario 1.12. Per dimostrare che la Y è una soluzione, osserviamo che Y(α) = β è ovvio;

inoltre, fissato t ∈ J ad arbitrio, esiste una soluzione locale y : IRN con t∈ I (I aperto). Perciò in un intorno di t vale Y≡y: questo implica che Y risolve il sistema differenziale.

Mostriamo infine che Y è massimale. Sia z una qualunque soluzione di (1.2), con intervallo di definizione I. Se I è aperto, si ha I ⊂ J per costru- zione di J. Se per assurdo, I non è aperto e I 6⊂ J, si ha che l’interno di I è comunque incluso in J, e dunque, al più, un estremo di J, sia γ (γ 6∈ J, come è chiaro perché J è aperto) è anche un estremo di I, γI. Sia per esempio γ il secondo estremo di J e I (il caso in cui γ è il primo estremo si tratta in modo analogo). Sia z0 = z(γ) ∈ Ω. Per il Lemma1.15, esiste una soluzione ˜z di (1.2) definita su un intervallo aperto non contenuto in

J, assurdo. 

Il seguente risultato dà le informazioni più rilevanti sulle soluzioni massi- mali.

Teorema 1.17. Sia F : ΩRN come in Teorema1.16. Sia y: (σ, Σ) → RN una soluzione massimale di un problema di Cauchy relativo a (1.1). Allora per ogni compatto C contenuto in Ω esiste un [ε, η] ⊂ (σ, Σ), ε, ηR, tale che (t, y(t)) ∈\C per σ<t< ε, η<t< Σ.

Dimostrazione. Supponiamo per assurdo che esistano un compatto C ⊂ e una successione{tn}, tnΣtale che (tn, yn) ∈ C, ove yn = y(tn) (questo implica in particolare che Σ <). Dato che C è compatto possia- mo assumere che (tn, yn) → P0 := (Σ, y0) ∈ Cper n. Dimostriamo che in effetti

(t, y(t)) →P0, t→Σ. (1.29) Dato che P0Ω, si può assumere che esista una palla B di raggio 2θ>0 e centro P0 contenuta in Ω e su cui|F| ≤ M. Eventualmente prendendo θ più piccolo, si può assumere, se (1.29) non vale, che esista una successione {tn}, tnΣ, tale che(tn, y(tn))non appartenga alla palla B per n≥1.

Dato che invece (tn, yn) ∈Bθ per n sufficientemente grande, si ha, per tali n,

0<θ ≤ |yny(tn)| ≤ M|tntn|.

(15)

1.5. ESTENDIBILITÀ DI SOLUZIONI. 9

Questa è ovviamente una contraddizione con tn, tnΣR. Dunque vale (1.29), e si può definire y(Σ) = y0. Ma allora, per il Lemma 1.15, si può prolungare la soluzione y oltre t = Σ, contro la sua asserita massimalità.

 Specializzando le ipotesi di Teorema1.17a un paio di casi interessanti, si ha subito il

Corollario 1.18. Con le ipotesi e con la notazione di Teorema1.17, si ha:

(1) Se Ω è limitato, allora per tΣ−, la distanza tra(t, y(t))e la frontiera di Ω tende a0.

(2) (Caso della striscia) Se Ω = (r, s) ×RN, allora se Σ < s, deve essere

|y(tn)| →∞ per una opportuna successione tnΣ.

Osservazione 1.19. In particolare, da Corollario1.18, (2) segue che se si sa a priori che|y|si mantiene limitata su tutto il suo intervallo di definizione

(σ, Σ), allora(r, s) = (σ, Σ). 

Nel caso della striscia è spesso utilizzabile il seguente criterio.

Teorema 1.20. Sia F : Ω := (r, s) ×RNRN una funzione continua e localmente lipschitziana nelle ultime N variabili. Sia anche

|F(t, ξ)| ≤γ(|ξ|), ∀(t, ξ) ∈, dove γ: R+R+è una funzione continua soddisfacente

+

Z

1

γ(ρ) = +. (1.30)

Allora le soluzioni massimali dei problemi di Cauchy (1.2) sono definite su tutto (r, s).

Dimostrazione. Se per esempio una soluzione massimale y è definita in (σ, Σ), con Σ < s, allora per il Corollario 1.18 (2), la funzione |y(t)|

deve diventare ilimitata per t → Σ. Ma, da |˙y| = |F| ≤ γ(|y|), segue, ragionando come in Lemma1.8,

Σa>ta

|y(t)|

Z

|y(a)|

γ(ρ) . (1.31)

Qui σ < a < t < Σ sono arbitrari. Per (1.30), la (1.31) implica che esiste una costante C dipendente da a e da Σ, ma non da t tale che |y(t)| ≤ C per ogni t ∈ (a, Σ). Per quanto sopra, si deve dunque avere Σ = s. In

modo simile si prova σ =r. 

Osservazione 1.21. Come caso di particolare importanza, si può prendere in Teorema 1.20 γ(ρ) = costante ·ρ. È questo il caso dei sistemi lineari, cioè della forma ˙z = Az, ove Aè una matrice reale N×N a coefficienti

limitati. 

(16)

Osservazione 1.22. Se N = 1, e se FC(R2), F(t, ξ) ≥ γ(ξ) > 0, per ξ >1, con

+

Z

1

γ(ρ) <+∞,

si potrebbe far vedere, con tecniche analoghe a quelle usate sopra, che, se y(a) >1, allora y(t)diverge per t→Σ <. 

1.6. Dipendenza continua

1.6.1. Definizioni. Qui assumiamo sempre che F : ΩRN sia conti- nua in Ω e localmente lipschitziana in Ω nelle ultime N variabili. Inoltre denotiamo con y; α, β)la soluzione massimale del problema di Cauchy (1.2).

Introduciamo nella definizione seguente una nozione più forte dell’unici- tà, la dipendenza continua dai dati, rilevante nelle applicazioni.

Definizione 1.23. Si dice che la soluzione di (1.2) dipende con continui- tà dal dato z(α) = β in Ω se per ogni (α, β) ∈ sono soddisfatte le condizioni:

(1) Se I ∋ α è un intervallo compatto su cui è definita la soluzione massimale di (1.2), esiste un d>0 tale che se

|αα| <d, |ββ| <d,

allora (α, β) ∈ e la soluzione massimale y; α, β) è definita (almeno) su I.

(2) Per ogni ε> 0 esiste un 0<σ< dtale che

|αα| <σ, |ββ| <σ, (1.32) implica

|y(t; α, β) −y(t; α, β)| <ε, per ogni t∈ I.

 Si osservi che in Definizione1.23, d deve essere scelto abbastanza “piccolo”

(se la definizione è soddisfatta da d è soddisfatta anche da ogni d < d).

In sostanza in (1) si richiede che per tutti i punti iniziali abbastanza vicini a un (α, β)prefissato, le corrispondenti soluzioni massimali siano definite su un intervallo comune. Questo è necessario per dare significato alla parte (2), ove si richiede che, su tale intervallo, due soluzioni si possano rendere uniformemente vicine prendendo i loro punti iniziali abbastanza vicini.

Osservazione 1.24. È essenziale che l’intervallo I nella Definizione 1.23 sia compatto; se non lo è il Teorema1.25non vale. Basti osservare il caso dell’equazione

y = y,

ove la differenza tra due soluzioni diverse diverge a ∞ se t → +e quindi non soddisfa (2) nella Definizione, per nessuna scelta di σ. 

(17)

1.6. DIPENDENZA CONTINUA 11

Teorema 1.25. Sia FC()e localmente lipschitziana nelle ultime N variabi- li. Allora la soluzione massimale del problema di Cauchy dipende con continuità dai dati.

Dimostrazione. Sia (α, β) ∈ e sia I un intervallo compatto della cor- rispondente soluzione massimale y di (1.2). Possiamo assumere eventual- mente estendendo I e quindi senza perdita di generalità che α appartenga all’interno di I.

Poiché il grafico di y su I che denotiamo Γy(I)è un compatto contenuto nell’aperto Ω, esiste un ρ >0 tale che

Cρ := {(t, z) |dist (t, z), Γy(I)ρ} ⊂.

In sostanza, Cρ è un intorno compatto di Γy(I); basta prendere qui ρ <

dist(Γy(I), ∂Ω). L’idea è di ottenere che le altre soluzioni massimali non escano da Cρ.

Sia dunque z la soluzione massimale di

˙z= F(t, z), z(α) =β, con intervallo di definizione H; qui assumiamo

|αα| <d, |ββ| <d. (1.33) Come prima limitazione su d, imponiamo che sia scelto in modo tale che da (1.33) segua α ∈ I; questo ovviamente è possibile perché α appartiene all’interno di I.

Poi definiamo Hd come il più grande subintervallo di H∩I contenente α e tale che Γz(Hd) ⊂Cρ. Dato che per t∈HI si ha

dist (t, z(t)), Γy(I)dist (t, z(t)),(t, y(t))= |z(t) −y(t)| , (1.34) si vede che Hd6= ∅perché in effetti αHdse d≤ρ.

Sia ora L la costante di Lipschitz di F in Cρ, e sia M = maxCρ|F|. Il Teorema1.10garantisce che per ogni t∈ Hdvale

|y(t) −z(t)| ≤ eL|tα|(|ββ| +M|αα|) ≤e(M+1)d, (1.35) ove λ è la lunghezza di I. Dunque se oltre alle limitazioni già imposte su dimponiamo anche che

e(M+1)d≤ ρ2, si ottiene usando ancora (1.34) che per ogni t∈ Hd

dist (t, z(t)), Γy(I) ≤ |y(t) −z(t)| ≤ ρ2.

Dato perciò che in sostanza il grafico di z non può avvicinarsi a meno di ρ/2 alla frontiera di Cρ e quindi non può uscirne, si ha Hd = H∩I.

D’altronde per il Teorema1.17si sa che per t →sup He tinf H+ il grafico di z deve uscire dal compatto Cρ. Pertanto si deve avere che gli estremi di H non appartengono a I, ossia I ⊂H. Abbiamo così dimostrato che è possibile scegliere d come nella parte (1) della Definizione1.23.

(18)

Per controllare la parte (2) fissiamo ε > 0 e invochiamo ancora la prima disuguaglianza in (1.35) che ora sappiamo valere per ogni t ∈ Hd = H∩

I = I, e che subito implica

|y(t) −z(t)| <ε, se assumiamo (1.32) con σ tale che

σe

M+1ε.



(19)

CAPITOLO 2

Sistemi di equazioni differenziali lineari

2.1. Lo spazio delle soluzioni

Un sistema N×Nlineare omogeneo di equazioni differenziali ordinarie è y1 =a11(t)y1+a12(t)y2+ · · · +a1N(t)yN,

y2 =a21(t)y1+a22(t)y2+ · · · +a2N(t)yN, (2.1) . . .

yN =aN1(t)y1+aN2(t)y2+ · · · +aNN(t)yN,

ove le aij sono assegnate funzioni continue su un certo intervallo J di R, e la soluzione (y1, . . . , yN)è una N-upla di funzioni C1(J).

Con una notazione più compatta, possiamo riscrivere (2.1) come

y = A(t)y, (2.2)

ove

A(t) =

a11(t) a12(t) . . . a1N(t) a21(t) a22(t) . . . a2N(t) . . . . aN1(t) aN2(t) . . . aNN(t)

y=y(t) =

 y1(t) y2(t) . . . yN(t)

, t∈ J.

Osservazione 2.1. Si noti che tutte le soluzioni di (2.2) sono definite su tutto J per il Teorema 1.20 e l’Osservazione 1.21. Anzitutto infatti se J non è aperto, le aij si possono estendere come funzioni continue su un aperto(r, s)che contiene J, prendendo poi Ω = (r, s) ×RN. Se le aij sono limitate su (r, s) si applicano direttamente i risultati suddetti. Altrimenti l’esistenza globale su tutto(r, s)e quindi su tutto J si ritrova applicando il risultato precedente su una successione di intervalli compatti che invade

(r, s). 

Le soluzioni di (2.2) costituiscono uno spazio vettoriale rispetto alle usuali operazioni di somma tra vettori e prodotto per scalari. Più specificamente Proposizione 2.2. Siano yi, i = 1, . . . , p, soluzioni di (2.2). Allora anche

pi=1ciyilo è, per ogni scelta di scalari ciR.

Dimostrazione. Ovviamente d

dt

p

i=1

ciyi =

p

i=1

ciyi =

p

i=1

ciA(t)yi = A(t)

p

i=1

ciyi.

 Dunque lo spazio vettoriale S delle soluzioni di (2.2) deve avere una ba- se, la cui cardinalità coincide—per definizione—con la dimensione dello

13

(20)

spazio medesimo. Ricordiamo che p elementi y1,. . . , yp di S si dicono linearmente indipendenti se e solo se da

c1y1+c2y2+ · · · +cpyp =0 , ciR, i=1 , . . . , p ,

segue ci = 0 per ogni i. Si osservi però che gli elementi dello spazio vet- torialeS sono funzioni; dunque l’elemento nullo 0 nell’uguaglianza sopra va inteso come funzione identicamente nulla. Possiamo quindi enunciare la definizione di lineare indipendenza di funzioni in S così: y1,. . . , yp in S si dicono linearmente indipendenti se e solo se da

c1y1(t) +c2y2(t) + · · · +cpyp(t) =0 , per ogni t∈ J, ove i ci sono scalari, segue ci =0 per ogni i.

Il nostro prossimo passo sarà la determinazione di una base diS, e quindi della sua dimensione. Useremo il

Lemma 2.3. Siano yi, i = 1,. . . , p soluzioni di (2.2). Allora le yi sono linear- mente indipendenti in S se e solo se i loro valori yi(t0) in un arbitrario fissato t0J sono linearmente indipendenti come vettori di RN.

Dimostrazione. Equivalentemente, dimostriamo che le yi sono linear- mente dipendenti in S se e solo se i vettori yi(t0) sono linearmente di- pendenti in RN.

Siano le yi linearmente dipendenti; allora esistono p scalari, ci, non tutti nulli, tali che

c1y1(t) +c2y2(t) + · · · +cpyp(t) =0 , per ogni t∈ J.

Sostituendo in questa uguaglianza t =t0si ottiene che i vettori yi(t0)sono linearmente dipendenti in RN.

Viceversa, supponiamo che i vettori yi(t0)siano linearmente dipendenti in RN. Allora esistono p scalari, ci, non tutti nulli, tali che

c1y1(t0) +c2y2(t0) + · · · +cpyp(t0) =0 . Definiamo, per questa scelta degli scalari ci, la funzione

y(t) =

p

i=1

ciyi(t), t ∈ J.

La y è una soluzione di (2.2), per la Proposizione2.2, ed assume il dato di Cauchy nullo in t0. Quindi, per il teorema di unicità, deve essere nulla per ogni t ∈ J. Ma, visto che i ci non sono tutti nulli, questo implica che le yi

sono linearmente dipendenti inS. 

Possiamo ora dimostrare

Teorema 2.4. Sia{vi |i=1, . . . , N}una base di RN(ossia i visiano N vettori di RN linearmente indipendenti). Allora le N soluzioni dei problemi di Cauchy:

(y1= A(t)y1, y1(t0) =v1;

(y2= A(t)y2,

y2(t0) =v2; . . .

(yN = A(t)yN, yN(t0) =vN;

(2.3) costituiscono una base di S. Qui t0 ∈ J è fissato ad arbitrio (ma è lo stesso in ognuno degli N problemi di Cauchy).

(21)

2.2. MATRICI RISOLVENTI 15

Dimostrazione. Per il Lemma 2.3, le yi, i = 1, . . . , N, sono linearmente indipendenti, e occorre pertanto solo dimostrare che generano tuttoS. In altri termini, vogliamo mostrare che ogni soluzione y di (2.2) si può scri- vere come combinazione lineare a coefficienti costanti di y1, . . . , yN. Fissiamo allora una y soluzione di (2.2). Dato che per ipotesi i vi costi- tuiscono una base di RN, esisteranno certamente N scalari ci, . . . , cN tali che

y(t0) =

N

i=1

civi =

N

i=1

ciyi(t0).

Sia z definita da z(t) = ∑iN=1ciyi(t), per ogni t ∈ J. Allora sia z che y risolvono

(w = A(t)w, w(t0) =y(t0).

Per il teorema di unicità deve quindi valere z≡yin J, ossia y(t) =

N

i=1

ciyi(t), per ogni t∈ J.

 Segue subito

Corollario 2.5. La dimensione diS è uguale a N.

Abbiamo quindi dimostrato che tutte e sole le soluzioni di (2.2) si possono scrivere come

y(t) =

N

i=1

ciyi(t), t∈ J, (2.4) ove le yi sono una N-upla fissata di soluzioni linearmente indipendenti (cioè una base di S), e le ci variano ad arbitrio in R. La (2.4) è perciò un integrale generale di (2.2).

2.2. Matrici risolventi

Osservazione 2.6. Ricordiamo che, per la definizione del prodotto righe per colonne, le colonne della matrice prodotto

P = AB, Amatrice N×NeB,P matrici N×p,

sono combinazioni lineari delle colonne di A. Più specificamente, se denotiamo con colj(P ) = (pij)Ni=1 la j-esima colonna della matrice P, e A= (aij),B= (bij), vale

colj(P ) = (pij)Ni=1 =

 N

h=1

aihbhj

N i=1

=

N

h=1

bhj(aih)Ni=1 =

N

h=1

bhjcolh(A).

 Ne segue che l’integrale generale (2.4) può essere messo nella forma vet- toriale

y= Y (t)C, (2.5)

(22)

oveYè una matrice le cui colonne siano N soluzioni linearmente indipen- denti di (2.2), eC ∈RN è un arbitrario vettore colonna di scalari. Poniamo allora la

Definizione 2.7. Una matrice Y le cui colonne costituiscano una base di S si dice matrice risolvente del sistema (2.2).

Se inoltreY soddisfaY(t0) =id, per un t0J,Y si dice matrice risolvente

canonica, o di transizione, in t0. 

Il seguente lemma, di dimostrazione quasi banale, risulta di grande im- portanza, perché mostra che data una qualunque matrice risolvente Y si può subito ricavare una matrice di transizione comeY(t)Y (t0)1.

Lemma 2.8. Sia Y una matrice risolvente di (2.2), e sia B una matrice non singolare N×N (cioèdet(B) 6= 0) a coefficienti reali. Allora ancheY B è una matrice risolvente di(2.2).

Dimostrazione. Visto che ovviamenteY B è non singolare perché det(Y (t)B) =det(Y (t))det(B) 6=0 ,

basterà dimostrare che tutte le colonne diY B sono soluzioni di (2.2). Ma questo segue subito dall’Osservazione 2.6e dalla Proposizione2.2.  Una conseguenza importante di questo risultato è il seguente teorema, che dà un modo canonico di scrivere le soluzioni di problemi di Cauchy di (2.2).

Teorema 2.9. Sia t0J; sia Φ(t, t0)una matrice di transizione per(2.2) in t0. Allora l’unica soluzione di

y = A(t)y, y(t0) =y0, (2.6) y0RN, è data da

y(t) =Φ(t, t0)y0, t ∈ J. (2.7) Inoltre se Φ0(t, t0)è un’altra matrice con la proprietà di fornire tutte le soluzioni di (2.6) secondo (2.7), questa coincide con Φ(t, t0). In particolare la matrice di transizione è unica.

Dimostrazione. Che la y definita in (2.7) sia una soluzione di (2.2) segue subito dall’Osservazione 2.6e dal Lemma2.8. Inoltre

y(t0) =Φ(t0, t0)y0 =id y0= y0. Dunque la y è effettivamente l’unica soluzione di (2.6).

Siano poi Φ(t, t0), Φ0(t, t0)come nell’enunciato; per quanto sopra le due funzioni

y1(t) =Φ(t, t0)y0, y2(t) =Φ0(t, t0)y0, t∈ J,

sono entrambe soluzioni di (2.6). Per il teorema di unicità, esse devono coincidere per ogni t∈ J, ossia per ogni fissato t∈ J,

Ψ:=Φ(t, t0) −Φ0(t, t0),

deve soddisfare Ψy0 = 0 per ogni y0RN. Ne segue che Ψ è la matrice

nulla. 

(23)

2.3. MATRICI RISOLVENTI PER SISTEMI A COEFFICIENTI COSTANTI 17

2.3. Matrici risolventi per sistemi a coefficienti costanti

In questa sezione ci occupiamo del caso in cui la matrice A ha tutti i coefficienti costanti, ossia aijRper ogni ij. Il sistema diviene allora

y = Ay, Amatrice costante. (2.8) Diamo senza dimostrazione il seguente fondamentale

Teorema 2.10. SiaAuna qualunque matrice reale N×N. La matrice esponen- ziale etA

etA :=

i=0

tiAi

i! =id+tA+t

2A2 2! +t

3A3

3! +. . . , (2.9) risulta definita per ogni t∈ R, e vale

d

dt etA = AetA, per ogni t∈R. (2.10) Si ricordi che la derivazione di matrici, come anche la convergenza di una serie di matrici, va intesa elemento per elemento, come nel caso dei vettori.

In (2.9) le potenzeAi vanno calcolate secondo l’usuale prodotto righe per colonne. Si osservi che per t=0

e0A =

i=0

0iAi i! =id .

La serie di matrici in (2.9) è formalmente ricopiata dallo sviluppo in serie della funzione esponenziale di numeri reali: vedi il paragrafo A.1 sot- to. Alternativamente, proprio la (2.10) permetterebbe di definire etA come l’unica soluzione diY = AY conY(0) =id.

Il teorema asserisce che la serie in (2.9) converge in modo tale da rendere rigoroso lo scambio delle operazioni di serie e di derivazione (qui inteso solo formalmente)

d

dtetA = d dt

i=0

tiAi i! =

i=0

d dt

tiAi i! =

i=1

iti1Ai i! =

i=1

At

i1Ai1 (i−1)! = A

j=0

tjAj

j! = AetA. Usando la formula (2.10) possiamo dimostrare il

Teorema 2.11. La matrice di transizione di (2.8) in t = 0 è etA. Quindi la soluzione di

y = Ay, y(0) =y0, (2.11) y0RN, è data da

y(t) =etAy0, t∈ R. (2.12) Dimostrazione. Vale infatti per ogni y0RN e tR:

d

dty(t) = d

dt(etAy0) =

d dtetA



y0= AetAy0 = Ay(t); inoltre

y(0) =e0Ay0=id y0 =y0.

Riferimenti

Documenti correlati

Vi `e da osservare che anche quando i coefficienti dell’equazione differenziale (e quindi dell’equazione caratteristica) sono reali, pu`o darsi che l’integrale generale risulti

Esistono dei casi particolari in cui ´ e possibile determinare in modo diretto una soluzione, e solo in questi casi si pu´ o applicare il metodo della somiglianza: l’in-

INTEGRALE GENERALE Fissando i parametri si ottiene una soluzione particolare dell'equazione differenziale e viene chiamata INTEGRALE PARTICOLARE.. Nel caso

La domanda che ci si chiede e se esiste una funzione che soddisfa a questo problema e se questa soluzione `e unica.. Abbiamo visto che la risposta `e posi- tiva per le

Per ricordarla meglio per` o presentiamo un metodo per ricavarsi la formula, piuttosto oscura,

Sempre supponendo che il termine noto non soddisfi l’equazione (in termini di equazione caratteristica supponiamo che b non sia soluzione), si cercano soluzioni particolari della

Nella prossima sezione illustriamo anzitutto il metodo classico per risolvere questo tipo di equazioni; dopo aver proposto un esempio di applicazione del metodo classico, diamo al-

Per questo caso, che ` e il pi` u generale, sono a disposizione teoremi di esistenza ed unicit` a, di esistenza ed unicit` a della soluzione massimale, della esistenza “in grande”