• Non ci sono risultati.

Corso di Laurea in Matematica, a.a. 2012/2013 Analisi Numerica Istruzioni per l’esame

N/A
N/A
Protected

Academic year: 2021

Condividi "Corso di Laurea in Matematica, a.a. 2012/2013 Analisi Numerica Istruzioni per l’esame"

Copied!
2
0
0

Testo completo

(1)

Corso di Laurea in Matematica, a.a. 2012/2013 Analisi Numerica

Istruzioni per l’esame

Modalit`a dell’esame

L’esame consiste in una prova scritta e in un colloquio orale. Le preparazioni per lo scritto e l’orale sono complementari, per cui lo scritto e l’orale devono essere superati nello stesso appello. Lo studente deve presentare prima del colloquio una breve relazione su un argomento svolto in laboratorio (Matlab).

E richiesta la conoscenza degli enunciati principali di tutti gli argomenti presenti nel` programma. Lo studente sceglie inoltre almeno dieci argomenti per i quali appro- fondisce maggiormente tutti i dettagli (dimostrazioni). L’esame valuter`a in particolare la capacit`a dello studente nel classificare i problemi e nell’individuare gli algoritmi numerici idonei alla loro risoluzione.

Programma del corso

1. Analisi degli errori. Fonti di errore nel calcolo scientifico. Buona posizione e condizionamento di un problema. Numero di condizionamento assoluto e relativo. Analisi di un problema approssimato: consistenza, consistenza forte. Analisi di un problema approssimato: stabilita’, condizionamento, convergenza. Analisi a priori e a posteriori.

Rappresentazione dei numeri nel calcolatore. Sistema posizionale, rappresentazione fixed point. Aritmetica IEEE, arrotondamenti. Operazioni floating point. Fenomeno della cancellazione: analisi all’indietro.

2. Metodi diretti per la risoluzione dei sistemi lineari. Il numero di condiziona- mento di una matrice. Analisi a priori della risoluzione di un sistema lineare. Risoluzione di sistemi triangolari. Le sostituzioni in avanti e all’indietro. Sostituzione per righe e per colonne. Sistemi triangolari ed errori di arrotondamento. Il metodo di eliminazione di Gauss. Il metodo di eliminazione di Gauss come fattorizzazione LU. Analisi di stabilit`a della fattorizzazione LU. Altri tipi di fattorizzazione. Fattorizzazione di Choleski. Problemi sovradeterminati. Fattorizzazione QR e fattorizzazione ridotta. Metodo di Gram–Schmidt modificato. Matrici di Householder. Metodo di Houseolder per ottenere la fattorizzazione QR. LU: pivoting parziale e pivoting totale. Matrici sparse, matrici a banda, matrici a blocchi.

3. Metodi iterativi per la risoluzione dei sistemi lineari. Metodi lineari stazionari:

consistenza e convergenza. Introduzione ai metodi di tipo splitting. Metodi di Jacobi

(2)

(JOR) e Gauss–Seidel (SOR). Convergenza dei metodi di Jacobi e Gauss–Seidel. Metodi iterativi stazionari e non stazionari. Metodo di Richardson (rilassamento). Analisi del metodo di Richardson. Matrici di precondizionamento: precondizionatori polinomiali.

Metodo del gradiente (steepest descent). Metodo del gradiente coniugato. Analisi del metodo del gradiente coniugato. Metodo del gradiente coniugato precondizionato. Criteri di arresto per metodi iterativi.

4. Calcolo di autovalori e autovettori. Localizzazione di autovalori. Primo teorema di Gershgorin. Condizionamento del problemi agli autovalori. Metodo delle potenze, potenze inverse, shift-invert. Metodo QR per il calcolo di autovalori.

5. Equazioni non lineari e ottimizzazione. Ordine di un metodo. Condizionamento della ricerca di zeri di funzioni. Radici multiple. Il metodo di bisezione. Metodi di tipo Newton: corde, secanti, regula falsi. Metodo di Newton. Metodi di punto fisso. Iterazioni di punto fisso Il metodo di Newton come metodo di punto fisso. Radici multiple e modifica del metodo di Newton. Convergenza locale e convergenza di ordine superiore al primo per metodi di punto fisso. Influenza degli errori di arrotondamento nelle iterazioni di punto fisso. Criteri di arresto (residuo e incremento). Metodo di Newton per sistemi.

Radici di polinomi: rappresentazione di Horner, divisione sintetica, deflazione, metodo di Horner–Newton.

6. Approssimazione di funzioni e di dati. Interpolazione polinomiale: basi di La- grange. Analisi dell’errore nell’interpolazione di Lagrange. Esempio di Runge. Miglior approssimazione: costante di Lebesgue. Nodi di Chebyshev. Differenze divise di Newton per la costruzione del polinomio di interpolazione. Propriet`a e calcolo delle differenze di- vise. Interpolazione polinomiale composita: spline. Spline del terz’ordine: costruzione.

Spline del terz’ordine: propriet`a di minimo dell’energia. Approssimazione del senso dei minimi quadrati. Esistenza, unicit`a; sistema delle equazioni normali. Minimi quadrati nel discreto (equazioni normali). Polinomi ortogonali.

7. Integrazione numerica. Formule di Newton–Cotes. Formula del punto medio, dei trapezi, di Cavalieri–Simpson. Formule semplici e formule composite, grado di precisione, formule per l’errore. Integrazione automatica: metodo di Cavalieri–Simpson adattivo.

Formule di Gauss. Formula di Gauss a due punti. Teorema di Jacobi.

Totale argomenti con dimostrazioni: almeno dieci a scelta dello studente.

Riferimenti

Documenti correlati

Banach prov`o nel 1922 il seguente teorema che nella for- mulazione astratta trova innumerevoli applicazioni nella matematica computazionale (cf.. Un altro risultato di

A tal proposito si esca per return (cf. [3]) se la derivata prima si annulla in una iterazione ponendo flag uguale a 1 o se il valore assoluto dello step `e minore della

(traccia: ci sono 4 configurazioni possibili (disegnarle); le tangenti alla curva grafico stanno sempre sopra o sotto la curva, la successione {x n } `e monotona e limitata, quindi

Per quanto riguarda il tracciamento dello ietogramma della pioggia netta, si considera un valore del coefficiente CN = 74, ottenuto in funzione delle caratteristiche del

Modificare il criterio di arresto nella funzione punto unito break nel caso in cui sia dato in input il coefficiente di contrazione k della funzione φ usando la stima a

Sia f (x) funzione derivabile con derivata continua e positiva in un intervallo aperto I, convessa in I. Ne segue quindi che la funzione `e strettamente crescente e ammette un

Convergenza del metodo di punto fisso e propagazione degli errori.. Il metodo di Newton come iterazione di punto fisso:

Convergenza del metodo di punto fisso e propagazione degli errori.. Il metodo di Newton come iterazione di punto fisso: