Basi matematiche per il Machine Learning Corso di AA, anno 2017/18, Padova Fabio Aiolli 04 Ottobre 2017
Testo completo
Documenti correlati
Dare reti multi-strato basate su Perceptron con soglia hard e relativi pesi (senza usare apprendimento) che realizzino funzioni booleane semplici quali: A and (not B), A xor
Non ` e detto che converga ad un
In particolare, essa usa la discesa di gradiente per esplorare lo spazio delle ipotesi e selezionare l’ipotesi che approssima meglio il concetto target (minimizzando una funzione
Apprendimento di reti diverse sugli stessi dati con inizializzazioni differenti e selezione della rete pi` u efficace (per esempio valutando su un validation set)?.
Step 1 is justified by Cover’s theorem on separability, which states that non-linearly separable patterns may be transformed into a new feature space where the patterns are
Raccolta, analisi e pulizia dei dati Preprocessing e valori mancanti Studio delle correlazioni tra variabili Feature Selection/Weighting/Learning Scelta del predittore e Model
Neural Networks: nonlinear/linear neurons, number of hidden units, η, other learning parameters we have not discussed (e.g., momentum µ) Hold-out or Cross-Validation can be used
Supponendo una distribuzione a priori uniforme sulle ipotesi corrette in H, Seleziona una qualunque ipotesi da VS , con probabilit` a uniforme Il suo errore atteso non ` e peggiore