Progetto pilota europeo
valutazione della qualità
nel settore dell'istruzione superiore


Italia - rapporto nazionale

preparato dal Comitato Nazionale
(L.Modica, Pres.; G.Augusti; R.Ciardi; A.De Maio; G.Fonti; L.Remora; E.Stefani, Segr.)

Luglio 1995



Introduzione

(di Luciano Modica)

Questa introduzione al rapporto nazionale italiano sul progetto pilota europeo di valutazione della qualità nel settore dell'istruzione superiore è destinata a chi desiderasse avere una rapida sintesi delle attività condotte in Italia nell'ambito del progetto, ma anche a chi volesse leggere il rapporto senza aver avuto in precedenza occasione di accedere alla documentazione del progetto stesso.

Il progetto pilota fu lanciato nel 1991, attraverso un primo studio comparativo dei metodi usati dagli Stati Membri della Comunità Europea per valutare la qualità dell'istruzione superiore. Portato a termine questo studio (pubblicato nel 1993 come studio n. 1 della Task Force Istruzione Formazione Gioventù della Commissione Europea), la Commissione Europea propose di preparare e sperimentare una metodologia europea nel campo della gestione della qualità dell'istruzione superiore, partendo dagli elementi comuni dei quattro principali sistemi esistenti (Francia, Olanda, Danimarca, Gran Bretagna) individuati nello studio preliminare.

Fu così formato un gruppo di gestione, composto da delegati della commissione e da esperti di vari paesi - ma provenienti soprattutto dai quattro paesi sopra citati e tra i quali non vi era nessun italiano - che elaborò le linee guida operative del progetto pilota, poi approvate a livello europeo nel giugno 1994. Il progetto pilota è stato effettivamente lanciato nel novembre 1994, le attività nazionali si sono svolte tra il dicembre 1994 e il giugno 1995, la preparazione del rapporto finale europeo si farà nell'autunno 1995 e infine le conclusioni saranno tratte nel dicembre 1995.

Occorre subito notare che, nel progetto, per istruzione superiore si intende l'istruzione che segue il livello scolastico generale e che è destinata a studenti che inizialmente hanno circa 18 anni. La tipologia più comune di istruzione superiore è naturalmente quella impartita nelle università, ma non mancano esempi, in altri paesi europei, di ampie tipologie di istruzione superiore che sono svolte in istituti non universitari. Nel seguito di questa introduzione, per semplicità e anche per far riferimento alla situazione italiana, parleremo sempre in termini di università e di istruzione universitaria.

La metodologia individuata in questo progetto pilota per la valutazione della qualità consiste sostanzialmente in una procedura che si attua in due fasi successive: la prima fase consiste nell'autovalutazione della singola struttura educativa, che si concreta in un rapporto scritto di autovalutazione da redigere in base ad una griglia predeterminata di argomenti e di dati numerici; la seconda fase consiste in una valutazione esterna della medesima struttura ottenuta attraverso la visita in loco di una commissione di esperti (peer review group), che si concreta a sua volta in un rapporto finale di valutazione, redatto anch'esso secondo uno schema predeterminato, che prende spunto dal rapporto di autovalutazione e dalle opinioni maturate durante la visita. Negli schemi predeterminati, e quindi nella metodologia, sono presenti e importanti i dati e gli indicatori quantitativi, ma la valutazione non si riduce ad essi in quanto ambedue i rapporti hanno un'esposizione di tipo analitico e qualitativo.

È fondamentale notare che la metodologia prescelta non ha lo scopo di fare valutazioni comparative di qualità tra strutture educative diverse, quanto piuttosto di offrire ad ogni struttura educativa la possibilità di valutare la sua qualità mediante una tecnica che sia sufficientemente oggettiva (pur tenendo conto ampiamente della particolarità del sistema dell'istruzione superiore rispetto ad altre strutture produttive su cui si applicano le tecnologie della qualità) e di dimensione europea, nel triplo senso del rispetto dei valori tradizionali europei nell'organizzazione degli studi universitari, del valore specifico dato a quegli elementi che favoriscono la cooperazione europea in campo educativo, della uniformità su scala europea del metodo prescelto. Inoltre il rapporto finale di valutazione su ogni singola struttura universitaria risulta essere indipendente sia dalle autorità di governo dell'ateneo cui appartiene la struttura valutata, sia dalle autorità politiche e di gestione del sistema universitario del paese interessato. Si noti che ogni gruppo di esperti che ha proceduto alle visite in loco e alla valutazione esterna ha avuto al suo interno un esperto straniero proveniente da un altro paese europeo.

Una volta stabilita la metodologia, la fase organizzativa del progetto pilota è consistita nella scelta delle strutture educative da valutare, tenendo conto che i fondi a disposizione erano limitati e che il progetto voleva avere una valenza esclusivamente sperimentale e metodologica. Innanzitutto si è deciso in sede europea di valutare programmi educativi in due aree disciplinari, ingegneria per tutti i paesi e, a scelta di ogni paese, arte/design o comunicazione/informazione. In ognuno dei 17 paesi partecipanti (i 15 dell'Unione Europea, più Islanda e Norvegia) sono state poi individuate una o due strutture per ognuna delle aree disciplinari (due in 6 paesi tra cui l'Italia, una negli altri 11), arrivando così ad individuare le 46 università (o istituzioni simili) europee che hanno partecipato al progetto, ognuna con una sola struttura educativa nell'una o nell'altra delle due aree.

In Italia il progetto pilota è stato cogestito dal Ministero dell'Università e della Ricerca e dalla Conferenza dei Rettori, tramite un comitato nazionale presieduto da Luciano Modica, rettore dell'Università di Pisa, e una segreteria organizzativa affidata dapprima a Giorgio Allulli e poi, per tutta la fase di realizzazione, ad Emanuela Stefani, funzionari entrambi della Conferenza dei Rettori. Le strutture educative da valutare sono state individuate nei corsi di laurea; per il corso di laurea in ingegneria elettronica hanno partecipato i politecnici di Bari e Torino, per il corso di laurea in conservazione dei beni culturali le università di Udine e Viterbo.

Nel rapporto si troveranno tutti i particolari delle attività di progetto (autovalutazione e peer review), i commenti metodologici sui loro risultati, le conclusioni dell'esperimento metodologico condotto e le prospettive per il futuro. Tutta l'ulteriore documentazione (griglie dei rapporti di autovalutazione e valutazione, documenti delle varie commissioni europee che hanno gestito il progetto, rapporti nazionali degli altri paesi, rapporto europeo) è disponibile presso la Conferenza dei Rettori, ad eccezione dei rapporti di autovalutazione e di valutazione sulle singole strutture che rimangono riservati salvo autorizzazione delle strutture medesime.

A chiusura di questa introduzione ci limitiamo a riassumere alcune delle principali osservazioni contenute nel rapporto:
-  il progetto pilota, pur non avendo avuto grande risalto a livello nazionale e spesso neanche a livello locale nelle università coinvolte, ha raccolto notevole interesse in coloro che hanno partecipato e ha fornito indicazioni e stimoli importanti sul complesso tema della valutazione delle attività universitarie, il cui inserimento nel sistema italiano è improcrastinabile per lo stretto ineludibile legame esistente tra l'autonomia, la responsabilità e la valutazione;
-  la sperimentazione diretta di una procedura di valutazione dell'attività didattica attenua ma non elimina le perplessità diffuse nel mondo accademico (e anche studentesco) sul significato e sulla misura della qualità di un sistema educativo; però, se condotta con serietà e passione, questa sperimentazione - e spesso già la sola fase iniziale della autovalutazione - genera immediati se limitati benefici sulla qualità dell'attività didattica;
-  una valutazione seria delle attività universitarie ha un costo molto alto, che deve essere attentamente confrontato con i benefici che se ne possono trarre;
-  la metodologia sperimentata ha i suoi lati migliori nella partecipazione delle sedi (che si sentono protagoniste e non cavie del momento valutativo) e nello scambio di esperienze umane e professionali, ma presenta qualche limite nel ruolo troppo marginale svolto dagli indicatori quantitativi, con conseguente genericità del giudizio valutativo e dei correttivi consigliati per ovviare ai punti deboli;
-  la valutazione della qualità della ricerca come fattore di qualità di una struttura didattica è stata molto sottovalutata, se non completamente trascurata, nel progetto, nonostante che in Italia questo punto sia percepito come un punto di importanza cruciale;
-  sembra parimenti sottovalutata nel progetto la valutazione della qualità del "prodotto" (il laureato e il suo inserimento nel mercato del lavoro) rispetto alla valutazione della qualità del "processo" didattico che porta alla laurea;
-  in una eventuale futura fase di estensione della metodologia, sembrerebbe più significativo e più efficace procedere a valutare trasversalmente percorsi formativi simili in molte università, anche di paesi stranieri, piuttosto che valutare complessivamente un'intero ateneo mediante la valutazione di tutti i suoi percorsi formativi.

Il quadro normativo nazionale

Il problema di valutare la qualità delle attività delle università ha in Italia una storia relativamente breve, almeno dal punto di vista del quadro normativo nazionale.

È ovvio che ogni ateneo e ogni comunità scientifica nazionale hanno sempre avuto i propri processi interni e spesso impliciti con cui giudicano il valore delle attività didattiche e di ricerca che essi conducono nel confronto con gli altri atenei o con le comunità scientifiche analoghe degli altri paesi. Naturalmente qui la parola "valutazione" implica invece un qualche livello di oggettivazione del giudizio espresso e di pubblicità del processo valutativo, che deve corrispondere ad un sostanziale accordo - stipulato liberamente tra le parti o imposto dalla legge - su contenuti e procedure della valutazione. È appunto tale accordo che in Italia ha una storia relativamente breve.

Infatti manca un riferimento alla valutazione della qualità nelle tre leggi generali più importanti sull'università degli ultimi vent'anni: la 382 del 1980 che riformava i ruoli docenti e l'organizzazione interna degli atenei (introducendo tra l'altro i dipartimenti e il dottorato di ricerca); la 168 del 1989 che istituiva il Ministero dell'Università e della Ricerca e concedeva larghi spazi di autonomia alle singole università; la 341 del 1990 che interveniva sugli ordinamenti didattici universitari.

Invece la legge 537 del 1993 (finanziaria 1994), nel codificare in modo anche più ampio di quanto previsto nella 168/89 l'autonomia finanziaria degli atenei, introduceva per la prima volta il concetto di valutazione attraverso l'istituzione presso i singoli atenei dei Nuclei di Valutazione Interna incaricati di "verificare, mediante analisi comparative dei costi e dei rendimenti, la corretta gestione delle risorse pubbliche, la produttività della ricerca e della didattica, nonché l'imparzialità e il buon andamento dell'azione amministrativa". Inoltre istituiva presso il Ministero l'Osservatorio Permanente incaricato "della valutazione dei risultati relativi all'efficienza e alla produttività delle attività di ricerca e formazione e della verifica dei programmi di sviluppo e di riequilibro del sistema universitario, anche ai fini della successiva assegnazione delle risorse". Si noti che nel testo della legge non è citata la parola "qualità" e che il tono è decisamente orientato verso valutazioni di tipo economico mediante l'adozione di parametri numerici significativi. Notiamo a questo proposito che il Ministero dell'Università ha commissionato alla Commissione per la Spesa Pubblica presso il Ministero del Tesoro uno studio sulle tecniche matematico-statistiche e sui possibili fattori numerici da utilizzare per giungere ad azioni di riequilibrio tra le sedi del finanziamento statale per le università.

Però tali prescrizioni legislative non hanno ancora trovato piena applicazione. I primi bilanci consuntivi sui quali i nuclei di valutazione dovranno pronunciarsi sono quelli del 1994, solo recentemente approvati dai consigli di amministrazione delle università, e quindi mancano finora esempi di relazioni dei nuclei, anzi appena ora i nuclei stessi sono stati costituiti presso quasi tutte le università. Né presso il Ministero è stato ancora istituito l'osservatorio permanente, anche se sono in corso le procedure iniziali per la sua costituzione.

Sembra opportuno inoltre citare il fatto che in Parlamento sono stati presentati vari disegni di legge (ad esempio il n. 1407 presentato alla Camera da De Julio et al.) tesi a mettere ordine nel tema della valutazione delle attività universitarie, sia per i singoli docenti, sia per gli atenei nel loro complesso, sia infine per il sistema universitario nazionale.

Tendenze attuali in tema di valutazione della qualità

Nonostante le carenze legislative e le lentezze applicative citate nel paragrafo precedente, si registra però nel sistema universitario italiano - soprattutto al livello di chi ha responsabilità di direzione e di gestione - un largo consenso sulla necessità di pervenire rapidamente ad un meccanismo di valutazione delle attività universitarie, sia di quelle istituzionali della didattica e della ricerca, sia di quelle più strettamente amministrative.

A livello locale questo consenso è normalmente motivato dall'ineludibile legame che intercorre tra i tre temi dell'autonomia, della responsabilità e della valutazione, ognuno dei quali diventa significativo e produttivo solo se accoppiato con gli altri due; a livello nazionale, dalla necessità di possedere dati di riferimento per un Ministero che, a causa del nuovo sistema delle autonomie, si deve trasformare da organo di riferimento e di normazione per le singole università a organo di gestione del sistema universitario complessivo.

Non bisogna peraltro nascondere che a tale consenso abbastanza generalizzato - e spesso orientato, come del resto fa la stessa legge, al tema del riequilibrio delle risorse tra gli atenei e tra le varie aree all'interno dei singoli atenei - non corrisponde altrettanto accordo sulle modalità del processo valutativo e sulle conseguenze operative da trarne.

È comunque diffusa e abbastanza accettata l'ipotesi di considerare gli atenei in concorrenza fra loro, e quindi obbligati a migliorare il livello di qualità dei servizi che offrono. Inoltre tutte le esperienze finora condotte, anche se certamente parziali e non significative sul piano nazionale, mostrano che l'attivazione, anche timida, di valutazioni di qualità ha l'effetto di generare pronti, anche se limitati, incrementi della qualità stessa.

Come segno esplicito dell'interesse istituzionale al tema della valutazione deve essere citato il lavoro condotto presso la Conferenza dei Rettori. A partire dal 1991, infatti, un'apposita commissione di delegati rettorali costituita presso la Conferenza ha lavorato ad un complesso documento sulla valutazione delle attività universitarie, approvato definitivamente nel marzo 1995 dall'assemblea dei rettori. Nell'ambito di questa attività sono state anche condotte due rilevazioni statistiche presso gli atenei, allo scopo di creare una banca dati significativa utile per calcolare una prima serie di indicatori, elementari ma interessanti, sul funzionamento degli atenei.

Il lavoro svolto da questa commissione ha certamente influenzato positivamente l'ambiente universitario, non foss'altro che ponendolo di fronte al problema della valutazione e delle sue difficoltà, ma soprattutto creando una sensibilità su questo tema almeno tra coloro che ricoprono responsabilità presso gli atenei. Non è un caso, del resto, che la stessa attività del progetto pilota ha trovato sede presso la Conferenza dei Rettori, e che rettori o prorettori siano molte delle persone che hanno collaborato alla realizzazione del progetto pilota.

Un altro segno chiaro di interesse al problema della valutazione viene dall'osservazione che molte università, formulando i loro nuovi statuti in regime di autonomia, introducono questo tema direttamente a livello statutario, sia pure co e di soddisfazione degli utenti (docenti e studenti), pervenendo dunque in modo pressoché obbligato a valutazioni di qualità. È naturale però che questo meccanismo stia dando i primi effetti soprattutto sulle attività amministrative e logistiche, più che sulle attività istituzionali della didattica e della ricerca.

Non mancano peraltro esempi di atenei che hanno recentemente utilizzato valutazioni numeriche di produttività didattica, apparentate con gli indicatori numerici di qualità, per assegnare ris e di soddisfazione degli utenti (docenti e studenti), pervenendo dunque in modo pressoché obbligato a valutazioni di qualità. È naturale però che questo meccanismo stia dando i primi effetti soprattutto sulle attività amministrative e logistiche, più che sulle attività istituzionali della didattica e della ricerca.

Non mancano peraltro esempi di atenei che hanno recentemente utilizzato valutazioni numeriche di produttività didattica, apparentate con gli indicatori numerici di qualità, per assegnare risorse di personale docente alle facoltà, normalmente con intenti di riequilibrio condotti a titolo sperimentale e su quote marginali delle risorse complessive disponibili. Oppure di atenei che hanno utilizzato gli indicatori nazionali della Conferenza dei Rettori come base di confronto, al fine di un primo inquadramento della qualità dell'attività didattica condotta presso lo stesso ateneo rispetto alla media nazionale.

Questi ultimi esempi vengono qui citati non tanto perché siano sempre esplicitamente collegati al tema della valutazione della qualità, quanto piuttosto come segnale di una tipologia di approccio, basato sostanzialmente su indicatori numerici, che riscuote un certo interesse ma anche notevoli critiche, e che spesso viene riproposto in modo semplicistico per modelli ingenui e frettolosi di valutazioni di qualità in campo universitario.

Inoltre mostrano che la metodologia del progetto pilota (autovalutazione e peer review) non ha forti corrispondenze con le attuali esperienze italiane, di cui peraltro si tornano a evidenziare, in conclusione, la natura e la struttura ancora molto sperimentali e locali. Non si può inoltre nascondere che, a fronte di un indubbio interesse, permangono forti perplessità nell'ambiente accademico, legate soprattutto alla difficoltà di definire la qualità di un sistema educativo (ma qui molto dipende dal livello di approfondimento personale e culturale della questione) e alla inscindibilità nel sistema italiano della didattica e della ricerca, per cui le ben note difficoltà di valutare la qualità della seconda si riverberano su ogni tentativo di valutare la qualità della prima.

Dati generali sul sistema universitario italiano

Appare opportuno dare qui qualche dato generale ed elementare sul sistema universitario italiano in rapporto ai temi del progetto pilota, anche per evitare di dover ripetere in più punti alcune osservazioni.

Innanzitutto in Italia esiste sostanzialmente un solo modello di istruzione superiore, quello delle università presso cui si svolgono tutti e quattro i livelli formativi (diploma, laurea, specializzazione, dottorato di ricerca) per tutte le discipline, comprese quelle mediche, agrarie, etc., salvo normalmente quelle legate alle professionalità artistiche (pittura, musica, etc.). Solo recentemente e in modo numericamente limitatissimo si assiste ad esperienze di formazione superiore condotta come post-secondario presso le scuole secondarie o presso agenzie gestite da enti territoriali (regioni, province) o, nel caso dell'area medica, presso gli ospedali del servizio sanitario nazionale.

Per ogni "percorso formativo" (ad es. diploma in ingegneria meccanica, laurea in filosofia, specializzazione in pediatria, etc.), che costituisce l'unità elementare del sistema educativo universitario, sia il curriculum, sia le modalità di gestione, sono fortemente vincolati da tabelle e modelli nazionali. In realtà anche questo punto è soggetto attualmente a modifiche perché è generale la richiesta di indebolire, se non di eliminare, le tabelle nazionali, mentre sui modelli di gestione (organi collegiali, etc.) gli statuti autonomi hanno tentato solo raramente di intervenire con riforme significative rispetto alle norme generali previgenti.

Si può comunque dire che la reale differenziazione tra gli atenei su un singolo percorso formativo è molto limitata, riducendosi normalmente alle regole organizzative liberamente scelte, alle risorse logistiche disponibili e soprattutto alla qualità della classe docente. In questa situazione una differenziazione tra gli atenei nel loro complesso finisce col dipendere più dalla varietà delle offerte formative e dall'impegno di risorse umane e materiali in ognuna di esse, che da particolarità esplicite dei singoli percorsi formativi.

Inoltre nel sistema universitario italiano, in cui pure il legame tra ricerca e didattica per i docenti è percepito come dato fondamentale e irrinunciabile, la normativa nazionale vigente per il dottorato di ricerca, molto centralizzata per quanto riguarda gli accessi e il conferimento del titolo finale, ha quasi impedito nei fatti che le università potessero differenziarsi in base all'offerta e alla qualità delle proprie scuole di dottorato. Anzi il concetto stesso di scuola o corso di dottorato di ricerca non è in Italia pienamente recepito dalla normativa e, per riflesso, dallo stesso ambiente accademico generale.

Scelte, procedure e date

Tenendo conto delle due aree scelte in campo europeo (ingegneria, arte o comunicazione), dopo aver precisato che nella seconda area ci si sarebbe indirizzati specificatamente al settore della conservazione e gestione dei beni culturali, è stata innanzitutto operata la scelta delle quattro università che avrebbero partecipato al progetto pilota, non esistendo in Italia, come detto nel punto 1.3, altre significative istituzioni di formazione superiore. I quattro atenei sono stati scelti a cura della Conferenza dei Rettori e su disponibilità espressa dalle medesime istituzioni.

Per l'ingegneria sono stati scelti
-  il Politecnico di Torino
-  il Politecnico di Bari
(i politecnici sono università aventi solo le facoltà di ingegneria e architettura), l'uno di antica fondazione e nel nord dell'Italia, l'altro di recente istituzione e nel sud dell'Italia.

Per l'arte sono state scelte
-  l'Università di Udine
-  l'Università della Tuscia a Viterbo
ambedue dotate di corso di laurea in conservazione dei beni culturali, la prima nel nord dell'Italia, la seconda nel centro; il corso di laurea suddetto è di recente attivazione in tutta Italia, e nel caso di Viterbo l'attivazione è addirittura recentissima.

Per quanto riguarda l'ingegneria, che comprende molti corsi di laurea e di diploma, si è prescelto come percorso formativo il corso di laurea in ingegneria elettronica, di comune accordo tra le istituzioni e il responsabile nazionale del progetto (non essendosi ancora costituito il comitato nazionale). Quindi, pur con differenze che illustreremo a suo tempo, i percorsi formativi da valutare nelle quattro sedi sono stati due corsi di laurea:
-  ingegneria elettronica (durata: 5 anni)
-  conservazione dei beni culturali (durata: 4 anni).

Questi accordi, come pure i primi scambi di opinioni sulle modalità di esecuzione del progetto pilota, furono presi in occasione della riunione di lancio del progetto pilota a Bruxelles nel novembre 1994. In quell'occasione si stabilì anche la piena autonomia delle sedi nella nomina dei gruppi di autovalutazione.

Nel gennaio 1995 fu nominato da parte del Ministero dell'Università il

comitato nazionale
, formato da:
-  Luciano Modica, Rettore dell'Università di Pisa, presidente
-  Adriano De Majo, Rettore del Politecnico di Milano, esperto universitario per l'ingegneria
-  Roberto Ciardi, presidente del corso di laurea in conservazione dei beni culturali presso l'Università di Pisa, esperto universitario per l'arte
-  Giuliano Augusti, professore universitario, esperto professionale per l'ingegneria
-  Paolo Dal Poggetto, sovrintendente ai beni artistici e storici, esperto professionale per i beni culturali
-  Gioacchino Fonti, dirigente del Ministero dell'Università
-  Laura Remora, funzionario del Ministero dell'Università
-  Emanuela Stefani, funzionario della Conferenza dei Rettori, segretario.

I due

gruppi di esperti
- nominati di concerto tra il Ministero e la Conferenza dei Rettori ma senza sentire il comitato nazionale a causa della ristrettezza dei tempi e della nomina tardiva del comitato nazionale - sono stati così composti:
Ingegneria Elettronica

-  Enrico Rizzarelli, Rettore dell'Università di Catania, presidente
-  Vito Amoia, professore di elettrotecnica del Politecnico di Milano, esperto accademico
-  Tullio Bucciarelli, professore di teoria dei segnali all'Università di Roma La Sapienza, esperto accademico
-  Vito Monaco, professore universitario e presidente del comitato di consulenza di Ingegneria del CNR, esperto accademico
-  Francesco Musto, esperto professionale in rappresentanza dell'IRI
-  Max Verdone, esperto di microelettronica del CNRS francese, esperto straniero
-  Carmelo Buttà, professore di economia e direzione delle imprese dell'Università di Catania e delegato del Rettore, segretario
Conservazione dei Beni Culturali

-  Cosimo Damiano Fonseca, professore di storia medievale e ex rettore dell'Università di Potenza, presidente
-  Ferdinando Bologna, professore di storia dell'arte all'Università di Roma Tor Vergata, esperto accademico
-  Fulvio Zuliani, professore di storia dell'arte medievale all'Università di Padova, esperto accademico (ha svolto anche funzioni di segretario)
-  Francesco Prinzi, funzionario del Ministero dei Beni Culturali, esperto del mondo del lavoro
-  Pieter De Meijer, professore di letteratura italiana e rettore dell'Università di Amsterdam, esperto straniero.

Ciascuno dei componenti dei gruppi di esperti ha ricevuto dalle due sedi visitate, oltre al rimborso delle spese, un onorario complessivo di L. 2.000.000. Nessun onorario è stato invece percepito dai membri del comitato nazionale e dai membri dei gruppi di autovalutazione.

Il comitato nazionale ha tenuto nel 1995 cinque riunioni:
-  il 5 febbraio a Pisa, per impostare il lavoro, incontrare i gruppi di autovalutazione delle quattro sedi e concordare con loro le modalità dell'attività da svolgere;
-  il 3 maggio a Roma, per fare una verifica dell'autovalutazione svolta, incontrare i due gruppi di esperti e concordare con loro le modalità del lavoro da svolgere;
-  l'8 giugno a Roma, per dare una prima lettura dei rapporti di valutazione dei gruppi di esperti e impostare il rapporto nazionale;
-  il 20 giugno a Roma, per approfondire alcuni temi del rapporto nazionale;
-  il 13 luglio a Roma, per concludere la stesura del rapporto nazionale.

Riassumendo, le date fondamentali del progetto sono state:
21/11/94 riunione di lancio a Bruxelles
5/2/95 prima riunione del comitato nazionale a Pisa
15/4/95 consegna dei rapporti di autovalutazione
4-10/5/95 visite dei gruppi di esperti presso le università
5/6/85 consegna dei rapporti di valutazione
13/7/95 approvazione del rapporto nazionale.

Fattori positivi e negativi nell'attivazione del progetto

Riguardo all'impegno delle persone coinvolte nel progetto, in generale si potrebbe dire che coloro che, per varie ragioni di carica (rettori, presidenti di corso di laurea, etc.), avevano avuto modo di riflettere ai temi della valutazione, hanno accettato di miglior grado di collaborare, mentre qualche freddezza è stata riscontrata tra coloro che si sono trovati coinvolti nel progetto pilota senza precedente riflessione.

Comunque quasi tutti i membri dei vari gruppi e comitati hanno partecipato al progetto con marcato impegno e con notevole interesse. Si è trattato peraltro di un impegno vissuto più sul versante privato e volontario, a tutti i livelli, che sul versante dell'impegno istituzionale e del riconoscimento formale.

In effetti il progetto pilota ha sofferto notevolmente di una sua natura quasi privata: compresso nei tempi, mancante di riscontri ai livelli alti del Ministero se non per gli atti formali, pochissimo noto in ambito universitario e persino nelle sedi universitarie interessate, senza significativi rapporti con il mondo esterno, e in particolare con il mondo lavorativo e professionale specifico dei percorsi formativi da valutare. Occorre peraltro riconoscere che tale "privatezza" deriva, in parte, anche dall'intenzione iniziale, pur non completamente esplicita, di evitare un'eccessiva attenzione sul progetto, con l'idea che questa avrebbe inevitabilmente portato a lunghi dibattiti e mediazioni, con conseguenti rallentamenti operativi.

Qualche rallentamento si è peraltro verificato lo stesso. In tutta la prima fase del lavoro di preparazione del progetto pilota il lavoro di coordinamento e di segreteria era stato svolto dal dott. Giorgio Allulli, funzionario della Conferenza dei Rettori, poi passato ad altro impiego e sostituito dalla dott.ssa Stefani, dovendosi così scontare qualche inevitabile ritardo organizzativo.

Alcuni ritardi rispetto alla tabella di marcia europea sono stati dovuti alla difficoltà di completare in tempo i rapporti di autovalutazione (attività non consueta per gli atenei), alla difficoltà di riunire il comitato nazionale per i molti impegni dei suoi componenti e per ragioni oggettive (ad esempio lo sciopero aereo del 7 luglio che ha portato all'annullamento della corrispondente riunione e le assenze per problemi di salute della dott.ssa Stefani a partire dall'inizio di giugno), alle difficoltà di far combaciare gli impegni dei componenti dei gruppi degli esperti con le date ottimali per le sedi e con i periodi di vacanza accademica (Pasqua). Si è registrata qualche difficoltà nella formazione di uno dei gruppi di autovalutazione.

Si sono verificate purtroppo alcune defezioni: due componenti dei gruppi di esperti e uno del comitato nazionale non hanno potuto partecipare per motivi di salute o per altri motivi ai lavori del progetto pilota. Visti i tempi ristretti a disposizione, non è stato ovviamente possibile provvedere alla loro sostituzione.

In generale non è apparsa molto presente, soprattutto a livello nazionale, la componente esterna all'università (e di conseguenza la valutazione degli utilizzatori del prodotto "laureato"), mentre è stata giudicata in modo unanimemente positivo la partecipazione degli esperti stranieri, che hanno dato un contributo intenso e pregevole.

I lavori dei gruppi di autovalutazione, dei gruppi di esperti e del comitato nazionale si sono svolti senza eccessive difficoltà, salvo il fatto che per tutti i loro componenti questo impegno si è sommato a molti altri, con ovvie difficoltà organizzative. Nelle riunioni il rapporto è stato franco e costruttivo; fuori dalle riunioni i rapporti sono avvenuti soprattutto per mezzo degli elaborati piuttosto che attraverso contatti personali.

Mentre, tutto sommato, non è stato difficile individuare la nozione di "programma", fatta coincidere con il percorso formativo, una parte preponderante del dibattito nelle varie riunioni è stata dedicata alla chiarificazione delle griglie o liste di controllo dei vari elaborati e al loro adattamento al sistema italiano.

Per quanto riguarda il Politecnico di Torino, il "programma" è stato individuato nel "settore dell'informazione" (che comprende i tre corsi di laurea in ingegneria elettronica, ingegneria informatica e ingegneria delle telecomunicazioni) piuttosto che nel singolo corso di laurea in ingegneria elettronica. Infatti la particolare struttura organizzativa che il Politecnico di Torino si è data, con un consiglio di settore che regge tutti i percorsi formativi del settore, ha reso più consigliabile questa soluzione.

Sembra opportuno sottolineare la sottostima generalizzata del finanziamento necessario per procedere ad una valutazione efficiente, anche solo a livello di progetto pilota. Molta parte del lavoro, sia nelle sedi valutate, sia negli organismi di gestione del progetto pilota, è stata compiuta addebitando le spese ai bilanci ordinari degli atenei di appartenenza e comunque basandosi sulla buona volontà degli interessati.

Nonostante che siano stati evidenziati forse più gli aspetti negativi che quelli positivi, il giudizio complessivo sull'attivazione del progetto è ampiamente positivo: in soli sei mesi si è raggiunto un obiettivo che molti all'inizio credevano impossibile, sia per ragioni operative (il sistema universitario italiano è spesso accusato di burocraticismo), sia per una visione pessimistica delle reazioni che la valutazione avrebbe indotto nelle sedi interessate. Invece, soprattutto per merito dell'entusiasmo messo in campo da molti dei responsabili, il progetto pilota è stato portato in fondo senza eccessive difficoltà e con ottimi risultati nei tempi e nella qualità degli elaborati.

L'autovalutazione

Il preventivo accurato studio delle liste di controllo e delle procedure ha certamente favorito il lavoro dei gruppi di autovalutazione e la sintonia tra le quattro sedi in questo campo. I rapporti di autovalutazione sono risultati così facilmente leggibili e confrontabili, oltreché abbastanza approfonditi.

Le modifiche concordate alle liste di controllo non sono state sostanziali ma piuttosto indirizzate alle particolarità del sistema universitario italiano, in particolare per quanto riguarda i docenti (il cui stato giuridico è interamente stabilito a livello nazionale e non vi è praticamente spazio per la contrattualità decentrata), l'organizzazione del percorso formativo (anch'esso largamente dipendente da tabelle nazionali), l'accesso degli studenti (libero per legge in Italia, salvo casi particolari).

La maggiore difficoltà è venuta senza dubbio dalla raccolta dei dati statistici, in particolar modo per il settore umanistico. Certamente questa esperienza ha rafforzato in tutte le persone coinvolte, e anche negli organismi di governo del percorso formativo e dell'ateneo, la certezza che è necessario dotarsi di adeguati e aggiornati sistemi informativi con supporto informatico.

L'impressione generale è comunque che la procedura dell'autovalutazione è ampiamente accettabile e accettata a livello metodologico, ma la sua efficiente ed efficace attivazione rende indispensabili gli interventi nel campo della "strumentazione" necessaria (dai finanziamenti specifici al sistema informativo e alla formazione di personale esperto nel campo).

Generalmente risulta assai debole la partecipazione del personale tecnico-amministrativo che lavora nel percorso formativo prescelto, non si comprende se per mancata informazione o per disinteresse. Certamente si ha la sensazione che l'autovalutazione sia stata intesa soprattutto a livello dei docenti, visto che anche la partecipazione del mondo studentesco non sembra sia stata molto intensa anche se maggiore di quella del personale tecnico- amministrativo.

In tutti i rapporti di autovalutazione non risultano particolarmente evidenti le caratteristiche "locali", mentre vengono evidenziate quelle "nazionali", nonostante che queste siano ovviamente eguali per tutti. Ad esempio l'effetto che ha il valore legale del titolo di studio viene spesso qualificato come negativo ai fini della qualità, ma ciò non dipende ovviamente dalle singole sedi né le differenzia. Si ricava così l'impressione che molte delle osservazioni dei rapporti di autovalutazione siano rivolte più allo scopo, comprensibile e legittimo, di sollecitare interventi migliorativi del Ministero o del Parlamento piuttosto che a quello di individuare punti di intervento possibili a livello locale. Addirittura si nota talora la tendenza a evidenziare e spiegare differenze normative e organizzative con gli altri sistemi dell'ambito europeo, quasi per stimolare interventi in sede nazionale e anche per dare giustificazione di taluni risultati gestionali percepiti come negativi.

Si percepisce anche la sensazione - perfettamente giustificabile per la natura sperimentale del progetto pilota e quindi per la mancanza di riferimenti stilistici certi - di leggere analisi interessanti e ben condotte sui fenomeni universitari ma destinate a persone esterne all'università; di conseguenza queste analisi risultano di tanto in tanto poco significative o ripetitive per gli addetti ai lavori.

Non mancano peraltro osservazioni invece assai interessanti e pertinenti. Ad esempio emerge qualche giudizio sul mercato del lavoro, poco recettivo in campo umanistico oltre che per ragioni strutturali nazionali anche per caratteristiche locali (e vi è differenza tra Udine, situata in regione a statuto autonomo con competenza sui beni culturali, e Viterbo, situata in regione a statuto ordinario).

I rapporti di autovalutazione, letti in filigrana, evidenziano anche il livello di partecipazione della sede, quasi sempre alto e attivo tranne un caso in cui il rapporto sembra come passivamente appiattito sugli argomenti delle griglie. Nei primi casi l'autovalutazione ha fornito anche spunti per dibattere sul momento valutativo (in una sorta di meta-valutazione) e per innescare immediate benefici in qualità, nel secondo caso non sembra aver generato particolari benefici.

Le visite in loco e i rapporti degli esperti

Molte delle osservazioni fatte sui rapporti di autovalutazione potrebbero ripetersi sui rapporti dei gruppi degli esperti, a cominciare da quella che il lavoro preventivo di esame delle liste di controllo e di adattamento al sistema italiano ha molto facilitato il lavoro degli esperti. Inoltre l'evidenziazione nei rapporti di autovalutazione dei problemi riscontrati sulle liste di controllo ha aiutato i gruppi di esperti a superare alcune difficoltà interpretative, in quanto spesso queste erano eguali nelle due liste di controllo.

Di notevole utilità è risultato l'incontro del 3/5/95 tra gruppi di autovalutazione e gruppi di esperti, dapprima in seduta plenaria e poi in sedute separate per l'ingegneria e per la conservazione dei beni culturali, perché ha permesso di sciogliere quei dubbi che venivano dalla lettura dei punti maggiormente generici dei rapporti di autovalutazione, ma soprattutto perché ha rapidamente creato un clima amichevole di collaborazione tra i due livelli della valutazione prima ancora della visita in loco.

In questa fase tutti e due i gruppi di esperti hanno deciso di non procedere ad alcune parti delle visite in loco, in particolare alle visite in aula per assistere alle lezioni.

Risulta comunque poco evidente dai rapporti di valutazione degli esperti - né del resto era chiesto - il ruolo specifico giocato dalla visita in loco e come questa si è svolta. In particolare non appare possibile giudicare dai rapporti di valutazione come gli esperti abbiano colto le reazioni del personale universitario e degli studenti della sede visitata.

I due gruppi di esperti hanno utilizzato una tecnica espositiva leggermente diversa. Quello dell'ingegneria, interpretando fedelmente le linee guida fornite e gli accordi presi, ha preparato due rapporti separati per le due sedi, anche se naturalmente lo schema e larghe parti dei documenti sono perfettamente simmetrici; manca comunque in ognuno dei due rapporti qualunque riferimento all'altra sede sottoposta a valutazione, e di conseguenza qualunque confronto tra le due sedi. Quello della conservazione dei beni culturali, invece, ha stilato un unico rapporto di valutazione, pur riservando in ogni paragrafo considerazioni separate alle due sedi; ne risulta quasi automaticamente un confronto sistematico tra le due sedi.

Nei rapporti di valutazione prevale la parte espositiva rispetto a quella valutativa in senso stretto, soprattutto nei due dell'area dell'ingegneria. In certo senso i rapporti di autovalutazione hanno influenzato "troppo" i rapporti degli esperti, anche se è significativo vedere quali parti dei rapporti di autovalutazione gli esperti abbiano ripreso e con quali modifiche. Quasi mai, certamente per ragioni di tempo, si è proceduto ad approfondimenti dei dati forniti dalle sedi.

Rispetto ai rapporti di autovalutazione, però, le caratteristiche locali delle sedi risultano più evidenziate rispetto ai problemi generali, anche se spesso non sono valutate esplicitamente.

La composizione quasi interamente accademica dei gruppi di esperti ha certamente influito sulla somiglianza tra i rapporti di autovalutazione e la peer review, indebolendo l'aspetto esterno della valutazione, non sentendosi mai i professori universitari del tutto estranei alle sedi e alle strutture universitarie anche diverse dalla propria.

Risultati metodologici

Innanzitutto, per scelta esplicita del comitato nazionale che ha così voluto interpretare il senso metodologico del progetto pilota, in questo paragrafo (come del resto nei precedenti) non sarà dato alcun cenno sui "risultati" della valutazione ma bensì si tenterà di tracciare un bilancio dell'esperienza valutativa condotta. Mancherà dunque ogni riferimento a punti di forza o di debolezza delle singole sedi e alle eventuali corrispondenti indicazioni dei gruppi di esperti, né verranno acclusi a questo rapporto nazionale i rapporti di autovalutazione e di valutazione.

Inoltre, per ragioni di brevità, non si ritornerà su quegli aspetti del progetto pilota sui quali nei precedenti paragrafi sono state già espresse en passant valutazioni metodologiche.

Il metodo di valutazione proposto a livello europeo dal progetto pilota si è rivelato indubbiamente positivo dal punto di vista del suo inserimento in una realtà complessa, difficile e un po' sospettosa come quella universitaria. I due momenti dell'autovalutazione e della valutazione esterna hanno rispettivamente aiutato le sedi a sentirsi protagoniste del momento valutativo, potendone anche indirizzare fino ad un certo livello l'andamento, ma anche a fornire quell'oggettività e quei confronti senza i quali è a tutti chiaro che la valutazione rimane un'esercitazione accademica vuota.

Un importante valore a sé stante è rappresentato dallo stimolo positivo rappresentato dall'autovalutazione, anche se vi è il rischio che questo si restringa alle persone (docenti, personale tecnico- amministrativo, studenti) più interessate e volenterose senza effettivamente influire sull'ambiente e quindi sulla effettiva qualità media dei servizi didattici. Da non dimenticare, a tal proposito, il fatto che i docenti universitari italiani godono di ampi e forse eccessivi spazi di autonomia di organizzazione del proprio lavoro didattico, il che li autorizza spesso a sentirsi sganciati da esigenze di coordinamento e di impegno qualitativo non personale ma complessivo; ne segue che indicazioni che provengono dalle valutazioni di qualità corrono il rischio di rimanere lettera morta se non si riesce a farle corrispondere a precise conseguenze operative.

Sempre come ricaduta metodologica deve essere segnalato il fatto che anche gli esperti, quasi sempre senza esperienze specifiche e mirate nel campo della valutazione, hanno avuto modo di misurarsi con il problema, ricavandone una reale sollecitazione culturale. Questo tipo di effetto è certamente favorito dalla metodologia dei rapporti scritti con analisi verbali, dei lavori in gruppo, delle visite in loco, mentre tenderebbe ad essere meno forte nel caso di analisi puramente numeriche e statistiche.

Altrettanto evidente è però l'osservazione che il metodo proposto dal progetto pilota è molto costoso, sia in assoluto, sia relativamente ai benefici che se ne possono ottenere. Costoso perché richiederebbe a regime tempi abbastanza lunghi di impegno per molte persone (sia delle sedi valutate, che su scala nazionale) a fronte di risultati non immediatamente utilizzabili a livello nazionale od europeo per la difficile confrontabilità degli esiti valutativi, e forse anche a livello locale per la genericità dei giudizi espressi.

Ai responsabili della sede valutata (dai rettori ai coordinatori dei percorsi formativi) sarebbe certamente utile leggere i rapporti di valutazione, ricavandone suggerimenti per migliorare la qualità offerta, e così ci si comporterà in Italia al termine del progetto pilota. Ma difficilmente si potrà avere quella fertilizzazione incrociata che verrebbe dal confronto esplicito con altre sedi e che eliminerebbe la componente strutturale del disagio (carenza di finanziamenti nazionali, vincoli di legge, etc.), certamente importante ma che spesso finisce con l'impedire di individuare quei margini di miglioramento che si possono cogliere con relativa facilità a livello locale.

Con tutte le cautele già citate, forse sarebbe positivo inserire nel modello valutativo una maggiore presenza di indicatori numerici, da confrontarsi con indicatori medi nazionali o europei da calcolare accuratamente in base a situazioni sufficientemente simili. L'informazione valutativa risulterebbe più chiara ed esplicita, anche se più rozza, e la parte del giudizio verbale potrebbe meglio servire a illustrare, ed eventualmente a giustificare in base alle situazioni locali, gli scarti rilevati dalle medie.

Da questo punto di vista sarebbe opportuno che lo stesso gruppo di esperti visiti più sedi simili per lo stesso percorso formativo e prepari un rapporto sinottico: si ricavano molte più informazioni utili da una valutazione trasversale dello stesso percorso formativo, piuttosto che da valutazioni generali di ateneo in cui reperire i dati sul singolo percorso formativo che interessa. Questo permetterebbe anche di non limitarsi a confrontare i risultati ottenuti rispetto agli obiettivi dichiarati di ogni sede, ma di confrontare tra loro gli obiettivi delle diverse sedi.

La necessità di avere sedi simili e percorsi confrontabili è stata particolarmente evidente nell'esperimento italiano. Di troppo recente istituzione il Politecnico di Bari rispetto a quello di Torino, ma soprattutto troppo recente il corso di laurea in conservazione dei beni culturali a Viterbo rispetto a Udine.

In generale è unanime il giudizio che le sedi e i percorsi formativi da sottoporre a valutazione devono essere sufficientemente assestati, o quantomeno che la valutazione di sedi e percorsi in fase di assestamento debba essere nettamente separata, sia in metodi che in contenuti, dalle altre.

Nonostante che la metodologia proposta non abbia per principio nessun limite di applicazione alla ricerca (anzi la peer review proviene tipicamente dalle valutazioni degli articoli di ricerca in campo scientifico), si è chiaramente percepito con disagio che tutto il progetto pilota metteva in ombra l'aspetto della ricerca. La ricerca, oltre ad essere inscindibile con la didattica almeno nel modello italiano, rappresenta a giudizio unanime il vero fattore di qualità di un percorso formativo e si dovrebbe trovare il modo di valutarla correttamente.

Vi sono naturalmente dei limiti e dei rischi in questa posizione, in quanto non è vero che la qualità complessiva dei servizi didattici dipenda direttamente e strettamente dalla qualità della ricerca condotta dai docenti, soprattutto a livello di percezione dell'utente medio. Ma certamente vi sono degli importanti punti di contatto che non possono essere sottovalutati. Un esempio è rappresentato in Italia dalla tesi di laurea, che risulta ancora essere, soprattutto in campo umanistico, come il culmine del processo formativo e il momento di reale valutazione delle capacità e dei risultati ottenuti dallo studente.

Si sono rivelate metodologicamente utili le liste di controllo: una loro accurata messa a punto certamente è un dato strategico non trascurabile in un processo valutativo basato soprattutto su giudizi sintetici verbali, sia per indirizzare il processo stesso, sia per renderne più confrontabili i risultati.

Un altro limite metodologico, soprattutto per quanto riguarda l'ingegneria, è stato riscontrato nell'accentuazione della valutazione di processo (il percorso formativo e la sua organizzazione interna) rispetto a quella di prodotto (la qualità del laureato vista attraverso il suo inserimento nel mondo del lavoro). È ovvio peraltro che questa seconda valutazione avrebbe richiesto analisi assai più difficili, oltre ad una maggiore partecipazione del mondo delle professioni e del lavoro a tutti i livelli della procedura di valutazione.

Riguardo alla efficacia delle raccomandazioni espresse dai gruppi di esperti rispetto ai punti di forza e di debolezza nei singoli percorsi formativi, certamente le indicazioni su temi più specifici risulteranno utili, ma è anche vero che molte raccomandazioni erano già implicite negli stessi rapporti di autovalutazione (sorta di "autoraccomandazioni"), a testimonianza del ruolo particolarmente importante giocato da questi ultimi. Non si può comunque dire che le indicazioni dei punti di forza e di debolezza e le relative raccomandazioni siano tutte pienamente operative e concrete, troppo spesso riferendosi a temi generali e nazionali su cui gli interventi locali non hanno rilievo o a temi strutturali (carenze di organico e di spazi, ad esempio) su cui l'intervento della sede non può essere rapido e deve comunque confrontarsi con le esigenze legittime degli altri percorsi formativi. Si noti che quest'ultimo punto andrebbe a favore del rapporto di valutazione di ateneo, piuttosto che del rapporto di valutazione trasversale di percorso formativo.

Non sembra invece necessario soffermarsi sulle reazioni esterne al progetto pilota, in quanto si è già detto della carenza di rapporti con l'esterno e delle sue motivazioni. Dai rapporti di valutazione non appare nemmeno la reazione degli organi accademici di gestione dell'università o del percorso formativo, che del resto non è stata sollecitata salvo gli incontri previsti nella visita in loco e per la quale bisognerà attendere la distribuzione agli interessati dei rapporti di valutazione e del rapporto nazionale.

Un discorso a parte meriterebbero i mezzi di comunicazione di massa, ai quali si pensa di adire a fine progetto per illustrarne fini e contenuti. In questo ambito la situazione presenta una duplicità, peraltro molto comune nel settore giornalistico: da un lato la metodologia del progetto pilota si presta meglio di altre ad essere illustrata e eventualmente meditata, dall'altro le semplificatrici "graduatorie" tra atenei riscuotono maggiore attenzione da parte dei lettori.

Conclusioni e prospettive per il futuro

Le conclusioni da trarre al termine dell'esperienza nazionale del progetto pilota sono certamente di segno positivo. Il progetto ha offerto una forma sperimentale interessante di una metodologia ancora non esaminata in Italia, dando informazioni e stimoli che saranno preziosi per tutti.

Naturalmente l'esperimento condotto ha evidenziato anche qualche limite della metodologia, primo fra tutti il costo alto rispetto ai benefici concreti e a breve termine che si possono ricavare. Tra l'altro ciò potrebbe generare un ricorso - in sede di ripartizione di risorse e di riequilibrio di queste tra le sedi, tra le aree o tra i percorsi formativi - a forme parallele di valutazione condotte dagli organi finanziatori mediante dati e indicatori numerici semplificati ma facilmente confrontabili, svuotando di gran parte del significato la valutazione della qualità con la metodologia prescelta dal progetto pilota.

A questo proposito sembrerebbe necessario, come si è sopra specificato, introdurre dei correttivi, sia riguardo al ruolo degli indicatori numerici, sia riguardo alla necessità di confronto tra percorsi formativi simili. I correttivi non dovrebbero peraltro far perdere i connotati migliori della metodologia, che risiedono nella forte partecipazione delle sedi, nello scambio di esperienze professionali e umane che viene dal lavoro di gruppo e dalle visite in loco, nella capacità di adattarsi ai moltissimi aspetti di una realtà multiforme come quella universitaria e alla natura stessa del lavoro educativo nel campo della formazione superiore.

Quest'ultimo punto riporta in campo l'altro punto sentito come limite della metodologia, e cioè la necessità di far intervenire anche la valutazione dell'attività di ricerca come fattore di qualità di un percorso formativo.

Occorrerebbe inoltre trovare il modo di ampliare la valutazione includendovi anche quella proveniente dall'inserimento del laureato nel mondo del lavoro, particolarmente importante in generale ma soprattutto in un momento di gravi problemi occupazionali anche per i laureati.

È stato già segnalato come particolarmente interessante la presenza di un esperto straniero nel gruppo di esperti. Anche ai fini della "dimensione europea" sarebbe stato altrettanto interessante inserire nell'autovalutazione e nelle visite in loco la consultazione di quegli studenti italiani del percorso formativo che hanno avuto esperienze europee mediante i programmi specifici (ERASMUS, SOCRATES, etc.) e gli eventuali studenti stranieri presenti nella sede italiana nell'ambito degli stessi programmi. Un cenno dovrebbe essere fatto anche al programma ECTS, per il trasferimento dei crediti didattici da un paese all'altro, perché può certamente rappresentare un altro fattore di innovazione e di incremento della qualità.

Un problema che diverrà sempre più importante, e che converrebbe mettere in campo sin d'ora, è la valutazione contestuale delle forme di educazione permanente o di aggiornamento professionale collegate ad un percorso formativo, anch'esse segnale importante di una risposta di qualità alle esigenze degli utenti.

I problemi di adattamento della metodologia al sistema italiano sono stati relativamente semplici e quindi non rappresentano motivo di preoccupazione per il futuro. Però, a salvaguardia degli aspetti culturali e sociali che ogni sistema nazionale legittimamente difende, l'esperienza del progetto pilota dovrebbe indicare l'opportunità, almeno per il prossimo futuro, di creare uno spazio europeo di confronto e di osservazione reciproca tra metodi valutativi, entro il quale sarebbe auspicabile il massimo interscambio di persone e di metodi, piuttosto che istituire in qualsivoglia forma un organismo europeo che conduca direttamente la valutazione su scala europea.

Sarebbe interessante varare progetti di valutazione in comune tra università, sia a livello nazionale, sia a livello europeo. Sarà proposta alla Conferenza dei Rettori la possibilità di varare un progetto che prepari e sperimenti uno schema nazionale per i rapporti di autovalutazione, tenendo conto delle esperienze maturate nel progetto pilota. In generale le università dovrebbero essere stimolate, e nel contempo lasciate libere, di proseguire nelle valutazioni della loro qualità, eventualmente premiando quelle che si inseriscono in network europei da costituire sul tema specifico della valutazione della qualità.

Riguardo all'informazione da diffondere sul progetto, il Ministero dell'Università e la Conferenza dei Rettori organizzeranno la presentazione pubblica dei risultati del progetto pilota a livello italiano nel prossimo mese di settembre e sarà chiesta ospitalità a giornali di più alto livello per illustrare le attività italiane del progetto. Ovviamente tutti i rettori italiani riceveranno la documentazione generale del progetto e il rapporto nazionale. La stessa documentazione sarà inviata ai parlamentari italiani che hanno presentato disegni di legge sulla valutazione della qualità in ambito universitario.

Si ritiene infine che sarebbe assai opportuno che il progetto pilota sfociasse in un secondo progetto pilota europeo più ampio, da svolgersi nel 1996-1997, sulla valutazione della qualità dell'istruzione superiore e della ricerca in Europa. Il comitato nazionale è pronto a sollecitare tutti gli enti interessati e a fare la sua parte affinché questo tema diventi un punto strategico del primo semestre 1996 di presidenza italiana dell'Unione Europea.