• Non ci sono risultati.

I livelli di valutazione

Capitolo 3 Creazione di un modello per la valutazione della qualità dei manual

3.5 Composizione del modello

3.5.4 I livelli di valutazione

Per quanto concerne le valutazioni, Williams (2001 p. 6) sostiene che assegnare livelli di gravità sia utile per individuare le traduzioni borderline, ossia traduzioni che, pur contenendo errori, hanno una buona base di partenza e potrebbero essere recuperate con le dovute modifiche.

Accuracy Mistranslation Improper TM match Omission Addition Untranslated Fluency Grammar Inconsistency Ambiguity Style Register Awkward Inconsistent Terminology Inconsistent use of terminology Inconsistent with domain Inconsistent with termbase

Nell’assegnazione dei livelli di gravità, l’autore però sottolinea l’importanza di stabilire dei criteri condivisi per la valutazione:

The problem is to seek a consensus on what constitutes a major, as opposed to a minor, error. For example, an error in translating numerals may be considered very serious by some, particularly in financial, scientific or technical material, yet others will claim that the client or the end user will recognize the slip-up and automatically correct it in the process of reading. (Williams 2001 p.6)

La presenza di criteri condivisi è importante e serve per evitare che una valutazione positiva e/o negativa dipenda dal giudizio dei valutatori e pertanto sia suscettibile di soggettività:

Elegant style is considered essential by some evaluators, but not by others. Some evaluators consider typos and spelling and punctuation errors to be peccadillos and ignore them in their overall assessment, while others will regard them as serious because they are precisely the errors that the client/end user will detect. (Williams 2001 p.5-6)

Per la metrica elaborata ai fini di questo progetto, si è deciso di non assegnare valori numerici alle singole macro e microcategorie né ai livelli di gravità. Questi ultimi, inoltre, sono stati ridotti da 4 a 3 rispetto al modello principale (cfr. Tabella 27)76. Tale scelta è stata fatta per esigenze di semplificazione legate

all’impianto sperimentale che, come vedremo, non ha l’obiettivo di valutare una traduzione, ma di studiare alcuni aspetti pratici dell’utilizzo di un modello.

Nella scelta dei livelli di gravità degli errori è importante tenere conto della finalità della valutazione (valutazione del prodotto, valutazione del traduttore) per assegnare una valutazione congrua ad errori provenienti dagli exact e context

match (100% e 101% match provenienti dalle memorie di traduzione) che, nel

caso della valutazione del prodotto, devono essere considerati, ma nel caso della valutazione del traduttore (salvo diversamente specificato) devono essere esclusi.

76 Il MQM prevede 4 categorie (none, minor, major, critical), ciascuna delle quali assegnata a

seconda di quanto l’errore compromette la comprensione e/o l’usabilità del testo di partenza. La

differenza principale tra la valutazione major e la valutazione critical sta nel grado di

compromissione dell’usabilità e/o comprensibilità del testo; gli errori critical indicano

sostanzialmente errori che rendono il testo inusabile e che vanno a discapito della sicurezza e della

Tali match spesso vengono applicati automaticamente in fase di preparazione dei file di traduzione, esclusi dalla retribuzione e, quindi, sottratti dalla responsabilità del traduttore. A tal proposito, la categoria None prevista dalla scala di valutazione del MQM è utile, perché permette di tenere traccia dell’errore (che viene comunque rilevato) ma lo esclude dal conteggio finale.

Error Severity Definition

None Elementi che non possono essere segnalati come errori ma per i quali il revisore/valutatore preferirebbe vedere una soluzione differente.

Minor Errori che non incidono sulla comprensibilità e l’usabilità del

testo. In particolare errori che non hanno alcun impatto sulla

sicurezza dell’utente, sulla funzionalità del prodotto e sull’immagine del cliente.

Major Errori che cambiano o alterano il significato dell’originale. In particolare, errori che:

 influiscono sulla funzionalità del prodotto;

 confondono o inducono in errore l’utente finale;  possono ledere l’immagine del prodotto o del cliente;  sono collocati in primo piano nel testo;

 sono politicamente o culturalmente offensivi e possono attirare reclami da parte degli utenti finali.

 contraddicono istruzioni che siano state previamente comunicate al traduttore in maniera chiara e non ambigua.

 mettono a repentaglio la salute o la sicurezza

dell’utente finale.

Tabella 27: Livelli di gravità degli errori

Le soglie di accettabilità per la qualità di una traduzione sono strettamente legate ai criteri interni di quality assurance di ciascuna azienda e allo scopo e al momento (durante il processo di traduzione) in cui la valutazione viene effettuata. Visto lo scopo della nostra metrica, non stabiliremo soglie di accettabilità, anche se a tal proposito va detto che, a prescindere dalla gravità, la presenza di errori potrebbe incidere non solo sulla comprensibilità o usabilità di un testo ma anche sulla percezione che il cliente e/o destinatario ha della sua qualità.

Gli errori maggiori o critici (qualora tale criterio di valutazione sia previsto) devono necessariamente essere individuati e corretti perché potenzialmente dannosi e gli errori minori, per quanto maggiormente tollerati, dovrebbero essere limitati perché, essendo in molti casi più evidenti (si pensi ai refusi) potrebbero ledere la percezione che il cliente ha della traduzione. La documentazione tecnica, in molti casi, rappresenta un biglietto da visita per le aziende produttrici e più è curata (sia a livello di impaginazione sia a livello di contenuti), più l’immagine del cliente ne gioverà trasmettendo affidabilità e attenzione al destinatario. Una documentazione che presenta refusi, problemi di ortografia o altri errori minori, rischia di generare dubbi nell’utente finale circa l’affidabilità del produttore.

3.6 Conclusioni

In questo capitolo è stata presentata l’elaborazione di un modello per la valutazione delle traduzioni dei manuali d’istruzioni.

I manuali di istruzioni sono testi di complessità variabile che presentano una struttura degli argomenti abbastanza rigida, in cui la procedura (ossia l’insieme delle istruzioni per lo svolgimento di azioni sulla macchina) assume il ruolo principale e scandisce cronologicamente le azioni. Per l’individuazione delle categorie di errori da includere all’interno della metrica per la valutazione, sono stati analizzati 25 manuali tradotti dall’inglese all’italiano, sottoposti a controlli automatici, all’interno dei quali sono state ricercate eventuali problematiche relative alla qualità.

L’analisi ha confermato che i soli controlli automatici non sono sufficienti a garantire una traduzione error-free perché spesso gli errori sono tali da non poter essere rilevati dai sistemi di controllo. Le problematiche individuate sono state classificate secondo le categorie del MQM e suddivise in gruppi che hanno rivelato la prevalenza di errori relativi alla corretta formulazione dei contenuti nella lingua di arrivo (fluency) e alla correttezza delle scelte stilistiche (style) non solo in termini di registro ma anche di esposizione dei contenuti. Oltre agli errori formali, sono stati individuati anche problemi di accuratezza nel trasferimento dei contenuti da una lingua all’altra e problemi terminologici. Alcuni dei problemi rilevati provengono da exact match provenienti dalle memorie e dimostrano l’esigenza di controllare anche la qualità delle risorse utilizzate in un’ottica di total quality assurance.

Sulla base degli errori individuati e seguendo le linee guida offerte dal MQM è stata elaborata una metrica per la valutazione della qualità dei manuali tecnici che tiene conto della modalità di traduzione di questi testi (automatica, semi- automatica) e delle esigenze dei testi e dei committenti (correttezza di contenuti e forma; rispetto dei materiali di riferimento, etc.). La metrica comprende una serie di categorie, sottocategorie e criteri per distinguere i diversi livelli di gravità degli errori.

Capitolo 4 - Confronto tra revisione e LQA