Capitolo III Analisi empirica: la metodologia DEA
3.1 introduzione
Nel capitolo precedente si è osservato come il New public management abbia influenzato la mentalità dei due teatri lirici attraverso idee come la privatizzazione e l’aziendalizzazione, promuovendo una maggiore accountability ed efficienza. In questa ottica venne sviluppata anche una tendenza sempre maggiore a calcolare indici di performance attraverso forme di rating/benchmarking (Fitzpatrick e Huczynski, 1990; Bowerman et al., 2001).
Seguendo questo modello, l’analisi procede con l’utilizzo di una metodologia di benchmarking denominata DEA per calcolare l’efficienza dei due teatri in questione, all’interno di un gruppo di enti lirici italiani e spagnoli.
La metodologia DEA (Data Envelopment Analysis) è un approccio “data oriented” che ha lo scopo di valutare le performance nell’ambito manageriale di vari settori come il no profit, il pubblico e il privato. Infatti, la data envelopment analysis viene utilizzata nei contesti più vari, in particolar modo da ospedali, università, Paesi e regioni, le quali hanno la necessità di effettuare un’analisi nuova che possa apportare un nuovo contributo che le altre analisi non hanno ancora evidenziato.
La DEA è un modello di valutazione dell’efficienza di unità decisionali simili, chiamate DMUs (decision making units), basato sulla conversione di n input in m output.
La DEA ebbe un discreto successo e ben presto venne implementata dalle aziende per migliorare l’efficienza di attività che precedentemente erano misurate attraverso altri metodi (Cooper, et al. 2000). Ciò è testimoniato anche dal fatto che studi legati al benchmarking applicati attraverso la metodologia DEA rilevarono problemi di inefficienza in alcune delle migliori aziende che venivano addirittura utilizzate come benchmark in altre metodologie (Cooper, et al. 2011). Questa metodologia trova la sua maggior applicazione ed efficacia proprio nelle analisi di benchmarking, in quanto rispetto alle altre analisi statistiche, essa è molto più flessibile e riesce ad incorporare molteplici input e output senza avere la necessità di un gran numero di dati iniziali.
Per cui, la Dea, ricapitolando permette di calcolare l’efficienza di ciascuna unità produttiva (DMU) all’interno di un insieme di unità produttive. Essa, si differenzia proprio in questa peculiare valutazione dell’efficienza che non segue un modello “central tendency approach” come gli altri
un approccio che prevede il calcolo dell’efficienza relativa di un’unità produttiva comparata con l’unità media produttiva, mentre il modello DEA compara ogni unità produttiva con la migliore unità produttiva. il principale vantaggio di questa metodologia risiede nel fatto che non vi sia la necessità di assegnare a priori dei pesi specifici alle singole DMU. Altri vantaggi sono ovviamente la condizione che le permette di operare all’interno di un range di multi-input e multi-output, dove non si necessita di informazioni sui prezzi e dove non si segue un andamento standard (si possono massimizzare i profitti o minimizzare i costi).
Nonostante questi vantaggi, è necessario considerare anche i limiti a cui la DEA deve sottostare, in quanto essa lavora in termini di efficienza, relativa ad unità campionarie e non assolute, inoltre, risulta essere molto condizionata dalla scelta di input e output e l’affidabilità del risultato varia in relazione al numero di unità decisionali analizzate insieme alle variabili di input ed output assunte.
3.1.1 Storia breve
Il primo modello base di DEA venne sviluppato nel 1978, il cosiddetto modello CCR per via dei nomi di coloro che riuscirono a sviluppare questa metodologia: Charnes, Cooper e Rhodes.
Il loro lavoro iniziò in relazione al progetto di tesi di Rhodes al “Carnegie Mellon University's School of Urban & Public Affairs”. Rhodes, sotto la supervisione di Cooper aveva il compito di misurare l’efficienza di modelli educativi atti ad aiutare gli individui svantaggiati all’interno delle scuole pubbliche americane. La problematica maggiore che riversava all’interno del progetto fu il vasto numero di input e di output da misurare.
Vi era la necessità di trovare una maniera per poter valutare quantitativamente un vasto numero di unità decisionali con altrettanto vasto numero di input e output. Perciò nella ricerca di un metodo quantitativo che potesse risolvere tale problema, risultò fondamentale un articolo scritto da Farrel "The Measurement of Productive Efficiency," pubblicato nel 1957 nel “Journal of the Royal Statistical Society”. In questo articolo, egli affermava che si potevano utilizzare i concetti dell’attività analitica per correggere le carenze presenti negli indici di misurazione della produttività.
Ciò che risultò decisamente brillante e che illuminò i due studiosi fu l’utilizzo, di Farrel, delle prestazioni di altre DMU per valutare il comportamento di ciascuna DMU in relazione agli input e agli output da loro usate, così da rendere possibile la determinazione dei relativi incrementi di efficienza (Cooper, et al. 2011).
Questa misura di efficienza venne rinominata “misura di efficienza di Farrel” la quale ha come assunzione fondamentale l’assunzione di libero accesso agli input e agli output per ogni DMU.
Il lavoro di Farrel era molto coerente con le problematiche sviluppate da Rhodes e Cooper, ciò nonostante non fu possibile applicare “l’efficienza di Farrel” al progetto delle scuole, in quanto l’idea di Farrel era applicabile nel caso in cui era previsto un solo output, mentre il lavoro di tesi di Rhodes era un progetto su larga scala con multi-input e multi-output. Con l’avanzare del tempo venne reso noto che la “misura di efficienza di Farrel” aveva fallito nella misurazione delle non-zero slacks. Cooper and Rhodes, nel frattempo inventarono la metodologia “the dual pair of linear programming problems” (il problema duale di programmazione lineare), il quale non solo poteva misurare l’efficienza di più input e output, ma riuscì anche nella misurazione delle non-zero slacks, introducendo i concetti matematici che stanno alla base degli elementi della matematica non Archimedea associati con ε > 0, i quali affrontano il problema assumendo che le variabili slack sono sempre massimizzate senza alterare il valore della “misura di Farrel” (Cooper, et al. 2011).
Infine, Cooper invitò ad unirsi al progetto il suo ex collega Charnes con cui ebbe lavorato in passato, con il quale svilupparono definitivamente la metodologia.