Teoria dei numeri e Crittografia: lezione del 12 ottobre 2011
Nella lezione precedente abbiamo detto che sceglieremo come operazione elementare (che funga da “unità di misura” della complessità di un algoritmo) l’operazione di somma sui singoli bits con riporto (carry).
Tale operazione, dati 2 bits da sommare x,y=0,1 e fissato un valore c=0,1 del carry, calcola il bit risultato x+y e il nuovo valore c
1del carry, secondo le regole esposte nella seguente tabella:
Nella prima e seconda colonna vi sono rispettivamente il valore del bit x e il valore del bit y; nella terza colonna il valore c del carry prima della somma;
nella quarta il valore del bit somma x+y; nella quinta il nuovo valore aggiornato c
1del carry dopo la somma. Per esempio se x=1, y=0 e se il carry (prima della somma) è c=1, allora dalla quarta riga si ricava il bit somma x+y=0 (quarta colonna), e il valore aggiornato del carry c
1=1 (quinta colonna).
Formalmente l’operazione di somma sui singoli bits con riporto é una funzione:
BitSum: {0,1}x{0,1}x{0,1} {0,1}x{0,1} definita da BitSum(x,y,c)=(x+y,c
1)
e in genere essa è implementata nell’hardware nel processore centrale (CPU) del computer.
Se trascuriamo il tempo che il computer impiega per altri tipi di operazioni più veloci (accesso alla memoria, operazioni di shift, confronto fra bits, scrittura di bits etc..) possiamo ragionevolmente supporre che il tempo totale dell’algoritmo sia proporzionale al numero di operazioni elementari eseguite (secondo una costante di proporzionalità che all’incirca coincide con il tempo impiegato dal computer per eseguire una operazione elementare).
(Nota: E’ ovvio che la nostra scelta dell’operazione BitSum come operazione elementare è dovuta al fatto che ci occuperemo di algoritmi di tipo “aritmetico”. Per altre categorie di algoritmi potrebbe essere invece opportuno una scelta diversa: per esempio per gli algoritmi di ordinamento (sorting) sarebbe opportuno scegliere come operazioni elementari quelle di confronto di bits e di accesso alla memoria per la lettura e scrittura dei dati da ordinare).
E’ opportuno che la nostra stima del tempo di esecuzione dell’algoritmo sia funzione della
“grandezza” dell’input, e dunque dobbiamo scegliere un modo per misurare quest’ultima: poiché le operazioni elementari agiscono sui singoli bits, è naturale ricorrere al già visto concetto di lunghezza di un numero naturale nella sua rappresentazione binaria, cioè al numero di bits 0,1 utilizzati per rappresentarlo.
Dato un algoritmo, definiremo taglia dell’input la lunghezza dell’input (se esso è costituito da un solo numero naturale) oppure la lunghezza massima dei numeri naturali che costituiscono l’input (se esso appunto è costituito da più numeri naturali).
Dato un algoritmo A potremmo allora definire una funzione Time
A(x) come il numero di operazioni elementari eseguite dall’algoritmo A quando l’input ha taglia x: in questo modo moltiplicando tale valore per il tempo impiegato dal computer per svolgere una singola operazione elementare potremmo ottenere una stima abbastanza valida del tempo impiegato per eseguire l’algoritmo, sempre quando l’input ha taglia x.
Tale definizione non sarebbe però univoca perché due diversi input di eguale lunghezza x potrebbero dar luogo a un diverso numero di operazioni elementari nell’esecuzione dell’algoritmo.
x y c x+
y c
1