• Non ci sono risultati.

Elementi di teoria dell’approssimazione: costante di Lebesgue, t

N/A
N/A
Protected

Academic year: 2021

Condividi "Elementi di teoria dell’approssimazione: costante di Lebesgue, t"

Copied!
1
0
0

Testo completo

(1)

ANALISI NUMERICA

Corsi di laurea triennale e specialistica in Matematica, a.a. 2005/06, 6 crediti Docenti: Marco Vianello e Renato Zanovello (aula, 5 crediti), Fabio Marcuzzi (laboratorio, 1 credito), Dip.to di Matematica Pura e Applicata

Programma del corso:

• Elementi di teoria dell’approssimazione: costante di Lebesgue, t. di Jackson e convergenza dell’interpolazione polinomiale; formule di quadratura di Newton-Cotes, polinomi ortogonali e formule di quadratura gaussiana, t. di Polya-Steklov e Stieltjes su convergenza e velocit`a di convergenza delle formule di quadratura; cenni al calcolo di integrali multipli (formule prodotto, MonteCarlo). [A; C cap. 3-4].

• Elementi di algebra lineare numerica: metodi iterativi per sistemi lineari, stazionari e di tipo gradiente, precondizionamento; sistemi sovrade- terminati: soluzione ai minimi quadrati tramite fattorizzazione QR; in- vertibilit`a di I − A se kAk < 1, applicazioni alla localizzazione degli auto- valori e alle stime di condizionamento per un sistema lineare; metodi per il calcolo di autovalori e autovettori: localizzazione degli autovalori (t. di Hadamard e Gershgorin), quoziente di Rayleigh, il metodo delle potenze e varianti, metodi basati su traformazioni per similitudine, il metodo QR.

[A; B 5.5-5.6 e cap. 6; C: cap. 5-6].

• Elementi di algebra non lineare numerica: soluzione di sistemi di equazioni non lineari: contrazioni e iterazioni di punto fisso, stime di con- vergenza e stabilit`a; il metodo di Newton, convergenza locale e velocit`a di convergenza, stima di tipo residuo. [A; B 2.3; C 7.2].

• Elementi di analisi numerica per modelli differenziali: problemi ai valori iniziali: i metodi di Eulero (esplicito ed implicito) convergenza e zero-stabilit`a nei casi Lipschitziano e dissipativo, il metodo trapezoidale (Crank-Nicolson), equazioni e sistemi stiff, stabilit`a condizionata di Eulero esplicito, stabilit`a incondizionata di Eulero implicito e Crank-Nicolson;

problemi ai valori al contorno: differenze finite per l’equazione di Poisson 1d e 2d, struttura del sistema lineare e convergenza, considerazioni com- putazionali; problemi evolutivi: il metodo delle linee per l’equazione del calore 1d e 2d, connessione con i sistemi stiff. [A; B da 7.1 a 7.5,8.1.1,8.2;

C: cap. 9-10].

• Laboratorio: sperimentazione in Matlab di solutori lineari e non lineari su discretizzazioni alle differenze finite di modelli differenziali 1d e 2d (eq.

di Poisson, eq. del calore) e di metodi per il calcolo di autovalori. [A]

Bibliografia([C] per eventuale approfondimento):

[A] Appunti e materiale dalle lezioni in aula e laboratorio.

[Q] A. Quarteroni, F. Saleri, Introduzione al Calcolo Scientifico, Springer, Mi- lano, 2005.

[C] V. Comincioli, Analisi Numerica, McGraw-Hill, Milano, 1990.

Riferimenti

Documenti correlati

Alvise Sommariva Metodi iterativi per la soluzione di sistemi lineari 4/ 7.. Quante

Alvise Sommariva Metodi iterativi per la soluzione di sistemi lineari 48/ 81.. Supponiamo di dover risolvere il sistema lineare Ax = b.. Il metodo del gradiente coniugato ha

Vediamo quanto accurato `e il teorema di Banach nelle sue stime. Il metodo esegue 24 iterazioni.. Punto fisso in Matlab.. ◮ Si osservi che, eccetto nell’ultima riga, la stima

Se A ` e una matrice simmetrica e definita positiva di ordine n, allora il metodo del gradiente coniugato ` e convergente e fornisce in aritmetica esatta la soluzione del sistema Ax =

Se A ` e una matrice simmetrica e definita positiva di ordine n, allora il metodo del gradiente coniugato ` e convergente e fornisce in aritmetica esatta la soluzione del sistema Ax =

Se A ` e una matrice simmetrica e definita positiva di ordine n, allora il metodo del gradiente coniugato ` e convergente e fornisce in aritmetica esatta la soluzione del sistema Ax =

Il metodo SOR ha quale costante quasi ottimale w = 1.350; Il metodo del gradiente coniugato converge in meno iterazioni rispetto agli altri metodi (solo 5 iterazioni, ma si osservi

Si rimane un po’ sorpresi dal fatto che per w = 1.350 il numero di iterazioni fosse inferiore di quello fornito dal valore ottimale teorico w ∗ = 1.333.. Il fatto `e che questo