• Non ci sono risultati.

Il compito di un'ASR è senz’altro decisamente impegnativo poiché la complessità del linguaggio umano è, sotto molti aspetti, elevata. Vediamo dunque quali sono le principali sfide che un ASR deve fronteggiare[17].

 L'uomo comunica attraverso le parole, un insieme di produzioni di foni che si susseguono intervallati da piccolissime pause. Il linguaggio verbale è però soltanto una delle strategie che l’uomo mette in atto quando comunica; la prosodia, il tono della voce, la velocità con cui si esprime, le espressioni facciali, i gesti e la postura sono tutti elementi non verbali che aiutano l’interlocutore a interpretare correttamente il messaggio comunicatogli. Di tutto ciò il computer può captare soltanto l’aspetto legato all’emissione di suoni.

 Quando sentiamo due sequenze di suoni identiche, ad esempio l'ago e lago, la nostra conoscenza pregressa della lingua e del mondo ci permette di captare il corretto significato, considerando il contesto entro cui tale suono è prodotto. Nella frase Sono andato a pescare al lago riusciamo perfettamente a capire, sia grazie al contesto sintattico che a quello semantico, che si tratta del lago e non de

l’ago. Ma se i due suoni vengono pronunciati isolati, senza che vengano inseriti

all'interno di un discorso di senso compiuto, ci appaiono del tutto uguali. Questo è quello che sente il computer; dunque, come noi, il motore di ASR deve contestualizzare quel suono per poterne effettuare la corretta trascrizione. Anche in questo caso si procede spesso in modo statistico sulla base del modello del linguaggio.

 A causa dell'anatomia del nostro corpo (la forma e la lunghezza delle corde vocali, la forma delle cavità orali, la dimensione della lingua e così via) il timbro della voce di ognuno di noi è ben definito e differisce da quello di ogni altro individuo. Ulteriore elemento caratterizzante della produzione orale di un individuo è il suo accento regionale (i dialetti, in quanto idiomi a sè, non sarebbero trascrivibili da un ASR addestrato per l’italiano). Si pensi poi a tutte

118 quelle peculiarità che contraddistinguono alcuni parlanti come la r moscia o la lisca. In questo caso i sistemi addestrati al riconoscimento di un singolo speaker sono sicuramente facilitati; in un sistema speaker independent come SpeechScribe (v. 3.2.1) in cui il motore deve essere in grado di trascrivere l’audio indipendentemente dallo speaker che lo produce, le difficoltà aumentano notevolmente. I modelli acustici (v. 3.5.1) dei sistemi di ASR infatti vengono addestrati con un corpus di dati audio in cui i parlanti hanno una dizione conforme a quella che è la lingua per cui tale modello acustico viene creato. Il motore di SpeechScribe, essendo stato addestrato con le registrazioni dei telegiornali RAI in cui gli speaker sono perlopiù giornalisti aventi una dizione corretta, sarà facilitato nel trascrivere parlanti aventi una buona dizione e troverà maggiori difficoltà in presenza di parlanti con accento regionale o straniero (v. 8.2.2).  Spesso le condizioni e il contesto entro il quale un parlante produce un discorso,

presentano dei rumori di sottofondo, della musica, un brusio di voci, due voci che si sovrappongono e così via. L'orecchio umano riesce a filtrare questo rumore e captare soltanto il messaggio che chi parla sta producendo; questa operazione diventa non banale per l’ASR che, tramite tecniche di signal processing, dovrà filtrare l’audio trascrivendo soltanto ciò che non è rumore (v. 3.2.1.2). È presumibile dunque che l’ASR in presenza di un audio pulito, produca risultati migliori (v. 8.2.3).

 Oltre a filtrare il messaggio da eventuali rumori di sottofondo, l’orecchio umano riesce anche piuttosto bene a percepire il messaggio anche se il suono non è di ottima qualità. La voce che giunge al nostro orecchio da un interlocutore al telefono ha una qualità inferiore rispetto alla voce di un interlocutore con cui parliamo dal vivo. Nonostante questo, a parte conversazioni telefoniche particolarmente disturbate, riusciamo comunque a percepire e interpretare il messaggio. Per un ASR non è così facile e una buona qualità dell’audio che deve trascrivere è essenziale ai fini di un buon risultato. SpeechScribe ad esempio richiede una frequenza di campionamento di almeno 22Khz e la frequenza di campionamento della linea telefonica è di soli 8Khz. È presumibile quindi che il motore, in tali trascrizioni, non sia troppo performante (v. 8.2.1). Per poter trascrivere correttamente materiale audio telefonico, o comunque di bassa qualità audio, si dovrebbe ricreare il modello acustico del motore a partire da un corpus di audio aventi tali caratteristiche.

119  Quando ascoltiamo un discorso in una lingua a noi sconosciuta, non riusciamo ad identificare le singole parole e, alle nostre orecchie, tutto appare come un'unica produzione di suoni; questo è ciò che sente il computer. Quindi, dopo aver riconosciuto la sequenza di foni, il motore deve raggrupparli in modo ragionevole individuando i limiti di ogni parola. Questa operazione viene eseguita spesso ricorrendo ad un approccio statistico che integra un modello linguistico (v. 3.5.1). Dato però che la lingua è immensa e in continua evoluzione, è probabile che il sistema si trovi a dover riconoscere parole non comprese nel suo vocabolario perché rare, nuove, o arcaiche (v. 8.2.4).

Dunque la qualità della trascrizione e, conseguentemente, dell’annotazione, è strettamente dipendente dal contenuto dell’audio e dalla sua qualità. Nella prossima sezione verranno confrontate alcune tipologie di audiovisivi per individuare i requisiti che permettano di ottenere una trascrizione (e annotazione) attendibile e dunque utilizzabile, senza un eccessivo intervento di revisione, a scopo didattico.

Documenti correlati