• Non ci sono risultati.

Equalizzazione e l’approccio a chiavi di sessione

La Turbo Equalizzazione è stata brevemente introdotta al fine di proporre un nuovo algoritmo di sicurezza che funzioni correttamente anche in condizioni di canale estreme dal punto di vista dei cammini multipli.

La Turbo Equalizzazione richiede però la conoscenza del canale. Le sequenze di addestramento oppure portanti pilota, sono spesso usate per stimare la risposta impulsiva o in frequenza del canale. Mentre l’approccio nel dominio del tempo può essere usato sia nei sistemi a portante singola che in quelli multi-portante, la scelta di lavorare nel dominio della frequenza può essere effettuata solo nel secondo caso (ad esempio nelle comunicazioni OFDM). Il numero di gradi di libertà nella scelta della posizione nel tempo (o in frequenza) dei dati noti sia al trasmettitore è decisamente limitato: la sequenza di addestramento dovrebbe essere un preambolo di un pacchetto di dati; le portanti pilota dovrebbero essere il più possibile equispaziate per ottenere una stima del canale affidabile. La Turbo Equalizzazione su un OFDM avrebbe senso solo se il canale fosse talmente distorcente da introdurre un inteferenza tra frame OFDM visto che l’ISI non è presente grazie alla distribuzione in frequenza dell’informazione contenuta in un frame OFDM (che è dato da N simboli di dati). Per questi motivi dunque, lo schema di Fig.27 fa riferimento a una comunicazione che avviene su una portante singola (ad esempio una QPSK).

Per questo sistema l’insieme di chiavi di sessione private kP (si veda Fig.1), potrebbe

decidere: a) la posizione temporale di una sequenza di addestramento per un sistema in cui I dati sono codificati tramite un convoluzionale e il ricevitore può pertanto usare la tecnica della turbo equalizzazione; b) la locazione in frequenza delle portanti pilota in un sistema di comunicazione basato sull’OFDM.

Fig.27 algoritmo di sicurezza basato su sequenze di addestramento e turbo equalizzazione

La soluzione a) è descritta in Fig.27 in cui l’insieme kP è costituito da due componenti: la

chiave kP, che stabilisce la posizione temporale della sequenza di addestramento e la sequenza

di addestramento stessa p.

La soluzione b) è invece illustrata in Fig.28 in cui kP è data da: la chiave kP, che determina la

posizione in frequenza delle portanti pilota e p, ossia il vettore che colleziona il valore dei simboli trasmessi sulle pilota.

La proposta b) è stata inoltre testata in [12] ed un confronto, in termini di FRR (False Rejection Rate) tra sistemi OFDM con portanti equi-spaziate e spaziate in maniera pseudo- random è illustrato in Fig.29. Sia P il numero di portanti pilota, p  [n1, n2, , nP] sia invece il

Fig.28 algoritmo di sicurezza basato sul posizionamento delle portanti pilota OFDM

Fig.29 confronto tra sistemi OFDM con pilota equi-spaziate e a posizione pseudo-randomica

Siano invece raccolti nel vettore

1, 2, , P

n n n

a a a

 

  

a  i simboli che ci si aspetta di trovare sulle pilota stesse. È chiaro che, dal lato del ricevitore OFDM, se l’array dei simboli

recuperati sulle pilota è 1 2 ˆ ˆ ˆ ˆ P n n n a a a     

a  i campioni della risposta frequenza del canale negli indici p  [n1, n2, , nP] saranno ˆ / , 1, 2, ,

i i i

n n n

Ha a i  P, mentre i rimanenti campioni dovranno necessariamente essere ricavati per interpolazione.

I risultati presentati in Fig.29 fanno riferimento ad un sistema QPSK-OFDM con Nofdm  8192

4

Sicurezza e Codifica di Canale

L’approccio comunemente adottato dai più recenti standard IEEE, come l’IEEE 802.16e, per quanto riguarda la sicurezza degli accessi alle reti wireless, è quello di isolare la gestione delle autenticazioni dal livello fisico, implementandola ai livelli più alti della pila ISO OSI. Inoltre la verifica dell’autenticità della sorgente e dell’integrità del messaggio è affidata a soluzioni efficaci in scenari poco rumorosi. Queste tecniche sono basate sull’utilizzo di messaggi Authentication Code (AC), spesso indicati anche come messaggi hash, il cui valore dipende da due parametri funzionalmente distinti: il messaggio da autenticare e una chiave segreta, che si suppone sconosciuta all’eventuale “attaccante”.

L’autenticità e l’integrità dei dati sono verificate controllando la sovrapposizione tra l’hash registrato e quello calcolato sul messaggio ricevuto dall’entità che provvede all’autenticazione (ad esempio un Acces Point). Il progetto dell’AC dovrebbe garantire che la ricostruzione della chiave segreta da parte dell’attaccante sia irrealizzabile dal punto di vista computazionale nel momento in cui questo possa venire in possesso di una o alcune coppie messaggio-hash. Poiché gli AC sono molto sensibili agli errori introdotti dal canale di comunicazione, devono essere caratterizzati da FEC (Forward Error Correction) molto efficaci e, in condizioni critiche da un sovra-stante protocollo ARQ (Automatic Repeat Request).

In [26] and [27] concatenated turbo coders whose interleaver and puncturing elements are selected on the basis of a secret session key have been proposed for joint FEC and security. However, although using redundancy introduced by FEC for message authentication has a rather positive impact on the efficient use of the available bandwidth, strong error resilience and detection of deceptive attacks are still antithetic requirements. Therefore some form of trade off has to be applied to meet both constraints on BER and deception probability.

Recenti studi hanno mostrato come il fenomeno dei cammini multipli, temuto per la sua tendenza a introdurre interferenza intersimbolica, possa essere sfruttato non solo per

migliorare l’efficienza spettrale, come si fa nei sistemi MIMO (Multiple Input Multiple Output), ma perfino per aumentare il livello di sicurezza di una comunicazione [13].

Inoltre, l’implementazione della cifratura, mutua autenticazione, e algoritmi di protezione dell’integrità informativa, direttamente sui livelli 1 e 2 della pila ISO OSI, consente di ridurre drasticamente la ridondanza dovuta alla gestione della sicurezza, migliorare l’efficienza spettrale e impiegare delle contromisure più efficaci per malfunzionamenti di sistema o attacchi hijacking.

Per questo motivo, recentemente, diversi autori hanno approfondito le questioni inerenti all’utilizzo di codici a correzione d’errore per scopi di autenticazione, [14]-[27]. In [14] Kabatianskii et Al. hanno analizzato le relazioni teoriche tra gli AC e i normali codici di FEC. In [15] è stato proposto uno schema di autenticazione asimmetrica che fa uso del sistema di crittografia a chiave pubblica di McEliece, basato sui codici di Goppa. In seguito in [16] e [17] sono stati approfonditi alcuni metodi di firma digitale basati sui sistemi di McEliece. Un approccio più efficiente da un punto di vista computazionale è stato proposto da Rao e Nam, e consiste nel considerare privata la matrice generatrice pubblica adoperata nella tecnica Mc- Eliece, [22]-[25].

A tal scopo si propone l’adozione di una procedura di Neyman-Pearson al fine di decidere circa l’autenticità e l’integrità dei dati ricevuti nel momento in cui è impiegato un codice A- FEC (Authentication FEC). Conseguentemente, la verifica dell’autenticità e integrità del messaggio è ottenuta confrontando la probabilità a posteriori del messaggio decodificato e della parte hash, condizionate al segnale ricevuto rumoroso, con una soglia il cui valore è determinato dal massimo livello di probabilità di falso allarme definita come l’evento di respingimento di un messaggio autentico a causa del rumore.

Per supportare un progetto efficace, sono state investigate le relazioni fra i limiti delle probabilità di impersonificazione, sostituzione e di inganno, come definito da Simmons, [28], e i parametri strutturali che caratterizzano i codici A-FEC, come la cardinalità dell’insieme dei differenti codificatori che possono effettivamente essere utilizzati. Uno dei più importanti risultati ottenuti tramite l’analisi delle prestazioni e che l’introduzione di una permutazione random a monte di un codificatore di tipo A-FEC garantisce una sicurezza incondizionata nei

confronti di attacchi mirati all’autenticazione di uno specifico messaggio nel momento in cui la probabilità a priori del messaggio di ingresso sia uniforme.

Documenti correlati