• Non ci sono risultati.

Discussione e conclusioni

Nel documento RicercAzione - Volume I Numero 2 (pagine 79-85)

Francesco Pisanu

4. Discussione e conclusioni

In un monumentale articolo del 1993, pub-blicato sulla rivista Review of Educational Reserch, Wang e colleghi si interrogavano sul ruolo strategico giocato dalle «basi di conoscen-za» per l’apprendimento nelle scuole (Wang et al., 1993), intese, anche senza un riferimento diretto, come organizzazioni in senso stretto.

All’interno del loro modello teorico-applicativo le «pratiche di classe» (classroom practices) trovano un ruolo di primo piano, anche grazie alla presenza delle pratiche quotidiane di valu-tazione, considerate, e non potrebbe essere al-trimenti, come parte integrante della didattica.

Questo tipo di variabili prossimali, sostengono ancora i ricercatori americani, sono le più utili, rispetto a quelle distali, per creare possibilità di sviluppo e miglioramento, e quindi di apprendi-mento. In una espressione, mutuata dall’ambito

organizzativo, è grazie a queste informazioni che può aver luogo il processo di sviluppo or-ganizzativo (Bradford & Burke, 2005).

Gli obiettivi delle analisi presentate in que-sto articolo (si veda il paragrafo 3.2), come già anticipato in apertura, sono il naturale appro-fondimento delle finalità più generali della ri-cerca-azione che ha rappresentato il contenitore principale di questa impresa empirica: «cono-scere per intervenire» oppure, citando Boudan e Lenz (2000), arrivare al «resto della storia», cioè a tutto ciò che consente di passare dalle idee teoriche alla prassi applicativa.

Per quanto riguarda il primo obiettivo, la con-figurazione dell’Istituto sulle pratiche quotidia-ne di valutazioquotidia-ne sembra piuttosto tradizionale.

Vengono utilizzati più metodi, confermando le indicazioni della letteratura (Cizek et al., 1996;

Mertler, 1999; Zhang & Burry-Stock, 2003) e le indagini locali (la già citata indagine IARD, Bazzanella & Buzzi, 2009), ma allo stesso tem-po una fetta consistente degli insegnanti non usa le metodologie considerate più innovative.

Grazie all’ACP sono emerse tre componenti principali che vanno al di là della semplice dicotomia tradizionale-innovativo. Se la com-ponente «Valutazione per l’apprendimento» è facilmente identificabile, le altre due, «Moni-toraggio breve e continuo dell’apprendimento»

e «Valutazione sommativa dell’apprendimento»

dimostrano come, da una parte, vi sia la focaliz-zazione degli insegnanti sul raggiungimento di maggiore struttura e «oggettività» nelle prove, e dall’altra, anche se in termini potenziali, un abbozzo di utilizzo formativo di metodi som-mativi (Black et. al., 2003).

Sul secondo obiettivo, le differenze tra i vari raggruppamenti possibili di insegnanti non sempre sono rintracciabili. L’impressione è che spesso i comportamenti valutativi siamo molto simili tra la scuola primaria e quella secondaria, attraverso fasce di anzianità e materie insegna-te. L’Anzianità di insegnamento sembra non avere un effetto particolare nell’utilizzo delle modalità valutative: da questo punto di vista, sostanzialmente, i «novizi» si comportano come gli «anziani». Ai fini dello sviluppo, questo è un elemento molto importante, che dovrebbe far

riflettere i decisori scolastici, sia sui processi di socializzazione che su quelli di rinnovamento delle competenze di base degli insegnanti. Le materie scolastiche, anche per motivi strutturali, delineano delle differenze per quanto riguarda l’utilizzo di test strutturati vs test «fai da te», così come evidenziato dalla letteratura (Stiggins

& Bridgford, 1985).

Sul terzo obiettivo, gli insegnanti si suddivido-no quasi equamente tra «internalisti» (supporto dei libri di testo) e «esternalisti» (supporto dei colleghi), anche se c’è una leggera propensione a confidare sul supporto dall’esterno. Un aspet-to interessante è che tale supporaspet-to viene daaspet-to in termini di vicinanza e prossimità di livello scolastico: gli insegnanti della primaria da una parte, e quelli della secondaria dall’altra. Un discorso simile riguarda anche le fasce di an-zianità: la comunicazione sembra più facilitata tra fasce prossime, che tra quelle più lontane tra loro (ritorna in questo modo il problema della socializzazione organizzativa). Purtrop-po non abbiamo informazioni sulle modalità di condivisione eventualmente adottate dagli insegnanti. In genere essi non sembrano perce-pire situazioni problematiche nella valutazio-ne: hanno il tempo e le risorse a disposizione, riescono a comunicare con colleghi e docenti, ma sembrano palesare, ed è un elemento ricor-rente, maggiori preoccupazioni verso le tecni-calità della valutazione (oggettività ed equità), e la comunicazione con i genitori. I due punti sono strettamente collegati: come sottolineano le ricerche in questo ambito, la mancanza di expertise tecniche nella valutazione rende più complessa la parte di comunicazione degli esiti, e anche la presa di decisioni finale (Stiggins, 1992; Zhang & Burry-Stock, 2003).

Per il quarto obiettivo, il discorso sulle inten-zioni alla formazione si è rivelato molto com-plesso, soprattutto perché legato a una serie di fattori non compresi all’interno del questiona-rio, come la motivazione all’apprendimento e la motivazione a trasferire gli apprendimenti sui luoghi di lavoro (Battistelli, 2008). È stato però possibile effettuare la stessa verifica sulle inten-zioni all’utilizzo, che possono essere conside-rate come un importante antecedente del

com-241

RiceRcaZione dicembre 2009

portamento effettivo (in questo caso utilizzare nella realtà nuove metodologie di valutazione).

La regressione logistica ha supportato l’indivi-duazione di due aspetti interessanti: da una par-te l’anzianità di servizio, che fino a questo punto non era riuscita a spiegare differenze o anche parti minime di varianza, e il rapporto con i colleghi. Queste informazioni possono essere preziosissime per chi pianifica azioni di miglio-ramento dentro la scuola: il lavoratore anziano sembra sempre più lontano dalle possibilità di innovazione all’interno dell’organizzazione; si tratta di un aspetto strategico, visto il continuo innalzamento dell’età media dei lavoratori den-tro la scuola. Le scelte formative dei lavoratori più anziani, quando ci sono, possono deviare rispetto all’effettiva utilità sul lavoro, e centrarsi di più sulla realtà di vita esterna al lavoro stes-so. Questo non è un processo irreversibile, ma necessita di percorsi ad hoc, adatti alle esigenze di questa tipologia di lavoratori.

Il rapporto con i colleghi è uno snodo altret-tanto importante: la scelta dell’utilizzo di nuove metodologie è influenzata soprattutto da questo aspetto. Possiamo immaginare come il supporto dei colleghi possa fungere da importante base informativa (per apprendere nel lavoro le nuove modalità sperimentate), e soprattutto da prezio-sa fonte di gratificazioni e riconoscimenti, at-traverso un lavoro di progettazione condivisa, ad esempio, e di continui feedback e autovalu-tazioni tra pari (Holton & Baldwin, 2003). Ma soprattutto potrebbe essere un modo per svin-colare l’insegnante da un approccio «solitario»

alla professione, spesso slegato rispetto al con-testo organizzativo di riferimento.

La conclusione è riservata, ovviamente, al vero e proprio «resto della storia», cioè alle proposte di piani di miglioramento in base alle evidenze raccolte e alla condivisione di queste con il corpo docenti dell’istituto. Uno degli esiti progettuali di questo percorso, prodotto dallo staff dell’Istituto Comprensivo con la collabora-zione dello staff IPRASE, ha per titolo «Per una valutazione responsabile e oggettiva: percorso laboratoriale per insegnanti di scuola primaria e secondaria». Gli obiettivi della proposta, con evidenti rimandi ai dati emersi nella ricerca,

sono i seguenti: costruire strumenti e attività valutative; applicare in classe gli strumenti ela-borati; progettare condizioni di apprendimento affinché gli studenti diventino più responsabili e consapevoli delle proprie capacità e dei pro-pri limiti. Con una proposta di quattro azioni complessive, orientate principalmente alla pro-gettazione e alla sperimentazione, l’Istituto è riuscito a condensare al meglio l’investimento di risorse e energie fatto per la raccolta del-le informazioni. Già dal titolo del percorso, è possibile cogliere il filo rosso che collega gli esiti principali dell’analisi (il focus sugli aspetti tecnici della valutazione, oppure la necessità di un ruolo maggiormente attivo degli studenti nel momento valutativo, attraverso la valutazione per l’apprendimento). Pur con le dovute carat-terizzazioni, questo processo di presa di deci-sioni basata su evidenze, può essere considera-to come una strategia efficace per promuove e pianificare, ciclicamente, attività di sviluppo e miglioramento nella scuola.

Ringraziamenti

Un ringraziamento particolare alla dirigenza e a tutti gli insegnanti dell’IC TN 7 di Trento che hanno contribuito, con impegno e costanza, alla realizzazione di questa ricerca.

bibliogRafia

Airasian, P. W. (1994). Classroom assessment. New York: McGraw-Hill.

Ajzen, I. (1985). From intentions to actions: A theory of planned behavior. In (Ed.) J. Kuhl & J. Beck-mann, Action control: From cognition to behavior.

Berlin, Heidelber, New York: Springer-Verlag.

Barbaranelli, C. (2008). Analisi dei dati con SPSS II.

Le analisi multivariate. Roma: LED Edizioni.

Baron, J. B. (1991). Strategies for the development of effective performance exercises. Applied Mea-surement in Education, 4 (4), 305-318.

Bartlett, M. S. (1954). A note on the multiplying factors for various chi square approximations.

Journal of The Royal Statistical Society, 16 (Se-ries B), 296-298.

Battistelli, A. (2008). The influence of the organisa-tional context on training motivation. Journal of e-learning and knowledge society, 4 (19), 199-209.

Bazzanella, A., & Buzzi, C. (2009). Insegnare in Trentino. Seconda Indagine IARD e IPRASE sui docenti della scuola trentina. Trento: Provincia Autonoma di Trento.

Black, P. & William, D. (1998). Assessment and classroom learning. Assessment in Education:

Principles, Policy & Practice, 5 (1), 7-74.

Black, P. , Harrison, C., Lee, C., Marshall, B. &

Wiliam D. (2003). Assessment for learning. Put-ting it into practice. Maidenhead, Berkshire: Open University Press.

Bradford, D. L. & Burke, W. W. (2005). Reinventing Organization Development. San Francisco, CA:

John Wiley & Sons.

Brookhart, S. M. (1997). A theoretical framework for the role of classroom assessment in motivating student effort and achievement. Applied Measure-ment in Education, 10 (2), 161-180.

Carey, L. M. (1994). Measuring and evaluating school learning. Boston: Allyn and Bacon.

Carugati, F. & Selleri, P. (2001). Psicologia sociale dell’educazione. Bologna: Il Mulino.

Cattell, R. B. (1966). The scree test for number of factors. Multivariate Behavioral Research, 1, 245-276.

Choi, N., Fuqua, D. N. & Griffin, B. W. (2001). Ex-ploratory analysis of the structure of scorse from multidimensional scales of perceived self-efficacy.

Education and Psychological Measurement, 61, 475-89.

Cizek, G. J., Fitzgerald, S. M. & Rachor, R. A.

(1996). Teacher’s assessment practices: prepara-tion, isolaprepara-tion, and the kitchen sink. Educational Assessment, 3 (2), 159-179.

Di Franco, G. & Marradi, A. (2003). Analisi fatto-riale e analisi in componenti principali. Roma:

Bonanno Editore.

Duke, D. L. (2006). What we know and don’t know about improving low-performing schools. Phi Del-ta Kappa, 87 (10), 728-734.

Dunbar, S. B., Koretz, D. M. & Hoover, H. D. (1991).

Quality control in the development and use of per-formance assessments. Applied Measurement in Education, 4 (4), 289-303.

Gillham, B. (2000). The research interview. London:

Continuum International Publishing Group.

Gullickson, A. R. (1984). Teacher perspectives of their instructional use of tests. Journal of Educa-tional Research, 77 (4), 244-248.

Hall, K. & Burke, W. (2004). Making formative as-sessment work: effective practice in the primary classroom. Maidenhead, Berkshire: Open Univer-sity Press.

Hills, J. R. (1991). Apathy concerning grading and testing. Phi Delta Kappa, 72 (7), 540-545.

Holton, E. F. & Baldwin, T. T. (2003). Making sfer happen: an action perspective on learning tran-sfer systems. In (Ed.) Holton, E. F. & Baldwin, T.

T., Improving Learning Transfer in Organizations.

San Francisco, CA: Jossey-Bass.

Kaiser, H. (1970). A second generation Little Jiffy.

Psychometrika, 35, 401-415.

Kaiser, H. (1974). An index of factorial simplicity.

Psychometrika, 39, 31-36.

Marso, R. N. (1985). Testing practices and test item preferences of classroom teachers. Paper presented at the annual meeting of the Mid-Western Research Association, Chicago, IL.

(ERIC Document Reproduction Service No ED 268 145).

Marzano, R. J. (2003). What works in schools. Tran-slating research into action. ASCD, Alexandria, VA, 2003.

Mertler, C. A. (1999). Assessing Student Performan-ce: A Descriptive Study of The Classroom Asses-sment Practices of Ohio Teachers. Education, 120, 285-296.

OECD (2007). PISA 2006, Science Competencies for Tomorrow’s world. Paris: OCSE.

Pallant, J. (2007). SPSS, Survival Manual. Maiden-head, UK: Open Univesity Press.

Ress, A. (2009). La valutazione degli studenti. In (a cura di) Bazzanella, A. & Buzzi, C. (2009). In-segnare in Trentino. Seconda Indagine IARD e IPRASE sui docenti della scuola trentina. Trento:

Provincia Autonoma di Trento.

Shafer, W. D. (1991). Essential assessment skills in professional education of teachers. Educational Measurement: Issues and Practice, 10 (1), 3-6.

243

RiceRcaZione dicembre 2009

Stiggins, R. J. (1987). Design and development of performance assessments. Educational Measure-ment: Issues and Practices, 16 (3), 33-42.

Stiggins, R. J. (1992). High Quality Classroom As-sessment: What Does It Really Mean? Educational Measurement: Issues and Practice, 11 (2), 35-39.

Stiggins, R. J. (1997). Student-Centered Classro-om Assessment. Columbus, Ohio: Merrill Publi-shing.

Stiggins, R. J. & Bridgeford, N. J. (1985). The eco-logy of classroom assessment. Journal of Educa-tional Measurement, 22 (4), 271-286.

Stiggins, R. J. & Conklin, N. F. (1992). In teacher’s hands: investigating the practices of classroom as-sessment. Albany: State University of New York Press.

Stiggins, R. J., Frisbie, R. J. & Griswold, P. A. (1989).

Inside high school grading practices: Building a re-search agenda. Educational Measurement: Issues and Practice, 8 (2), 5-14.

Tabachnick, B. G., & Fidell, L. S. (2007). Using Mul-tivariate Statistics. Boston: Allyn and Bacon.

Thurstone, L. L. (1947). Multiple Factor Analysis.

Chicago: University of Chicago Press.

Trinchero, R. (2002). Manuale di ricerca educativa.

Milano: Franco Angeli.

Wang, M. C., Haertel, G. D. & Walberg, H. J. (1993).

Toward a knowledge base for school learning. Re-view of Educational Research, 63 (3), 249-294.

Watkins, M. W. (2000). Monte Carlo PCA for pa-rallel analysis [computer software]. State College, PA: Ed & Psych Associates.

Zhang, Z., & Burry-Stock, J. A. (2003). Classroom Assessment Practices and Teachers’ Self-Perceived Assessment Skills. Applied Measurement in Edu-cation, 16 (4), 323-342.

245

la peRceZione della gestione

Nel documento RicercAzione - Volume I Numero 2 (pagine 79-85)