Caro Presidente [dell'Anvur],
il documento dei 48 e altri interventi di alcuni degli stessi
sostengono e cercano di diffondere la tesi che nel pubblicare il rating delle
riviste di area 14 (in particolare il riferimento va al rating di sociologia)
non abbiamo chiarito i criteri utilizzati e che non c’è trasparenza sulle
procedure seguite.
Rispetto a queste accuse voglio ribadire i seguenti punti.
1. Il Gev area 14 ha scrupolosamente seguito la procedura indicata
e richiesta dal Coordinatore generale della VQR e approvata a maggioranza dai
Presidenti:
a) richiesta alla Società scientifica (nel nostro caso unica) di
settore di proporre un rating delle riviste italiane articolato in 3 fasce;
b) invio del rating dell’ AIS a referees stranieri con la
richiesta di pareri e osservazioni;
c) invio all’ AIS ( in forma anonima) dei pareri e osservazioni
ricevuti dai referees sollecitando controdeduzioni;
d) valutazione finale da parte dei membri del sub-Gev che hanno
prima proposto ciascuno il loro rating, poi votato sui casi di
riviste che non avevano ottenuto una chiara maggioranza, poi votato il rating
finale.
Può essere considerata “non trasparenza” il fatto che non abbiamo
divulgato i nomi dei referees?
Può essere considerata una scorrettezza il fatto che il Gev non ha
semplicemente recepito la proposta dell’ AIS, peraltro molto discussa anche
all’interno della corporazione, come dimostra l’ampio dibattito ancora visibile
sul sito, ma ha esercitato “in scienza e coscienza” il proprio diritto-dovere
di esprimere il giudizio finale?
2. Nella Nota metodologica allegata al rating sono
chiaramente indicati i criteri utilizzati dai componenti del sub-gev per
fissare la loro graduatoria. I criteri sono:
- la regolarità della pubblicazione;
- la composizione del comitato scientifico (presenza di accademici
italiani accreditati, presenza di accademici non italiani accreditati);
- la pratica documentata del referaggio anonimo (con presenza di
scheda standard, anonimato dell’autore, double peer review);
- la presenza in Sociological Abstracts, Worldwide Political Science Abstracts,
International Political Science Abstracts, Social Services Abstracts, Current
Abstracts, SocINDEX;
- l’indicizzazione presso le principali piattaforme di ricerca
bibliografica (Ebsco Discovery Service, International Bibliography of the
Social Sciences (IBSS), Google Scholar, ProQuest Summon, Casalini Digital
Library, Articoli italiani di periodici accademici (AIDA), Catalogo italiano
dei periodici (ACNP), ecc.);
- l’ indicizzazione nei data base ISI e/o Scopus;
- l’indice H calcolato sulla base del data base Google Scholar
tramite il software Public or Perish;
- la presenza nelle biblioteche
universitarie e dei centri di ricerca specializzati.
Facendo riferimento al dibattito prima
menzionato, mi permetto di citare il seguente stralcio dell’intervento di P.
Giglioli postato 21 dicembre 2011 in risposta alla classificazione delle
riviste proposta da alcuni direttori di riviste sociologiche
“…Noi riteniamo al contrario che una
severa procedura di accreditamento sia cruciale per includere nel novero delle
riviste accademiche di sociologia solo quelle che soddisfano alcuni requisiti
minimi sia di carattere scientifico (per esempio, un sistema di referaggio
serio, cioè anonimo, ma trasparente; una periodicità regolare; una direzione e
una redazione tali da far considerare la rivista una rivista di rilevanza
nazionale, non un semplice bollettino d’istituto), sia di pertinenza al settore
sociologico (sappiamo bene che la sociologia è intrinsecamente eterogenea, ma
qualche confine va necessariamente tracciato, altrimenti lo stesso concetto di
disciplina sarebbe vanificato).”
Come si vede, i primi tre criteri da
noi utilizzati vengono richiesti come requisiti minimi per la procedura di
accreditamento che Giglioli riteneva indispensabile. Dov’è lo scandalo? Ai
criteri indicati dallo stesso Giglioli come indispensabili per una procedura di
accreditamento seria abbiamo aggiunto altri criteri, avendo l’obiettivo di
produrre non solo un elenco ma un rating. Questi criteri ulteriori non fanno
riferimento solo all’indice H, come più volte richiesto da alcuni dei firmatari
della lettera. Condividiamo, infatti, molte delle osservazioni fatte da questi
colleghi a chi lo proponeva come indicatore unico, non tanto per la sua bontà
ma per la “sfiducia” nei confronti della corporazione.( E’ significativo, tra
l’altro, che anche sull’effettivo valore dell’indice non si sia trovato un
accordo.)
All’indice H abbiamo affiancato altri
criteri la cui comune caratteristica è di essere “oggettivi”, cioè
riscontrabili attraverso la ricerca su basi dati e non dipendenti dalle
autodichiarazioni dei direttori delle riviste (metodo scelto dall’AIS).
L’accusa che ci viene rivolta è che non
abbiamo “operazionalizzato” questi criteri. E’ vera. Ma ha senso solo in
riferimento all’ indicatore presenza nelle biblioteche universitarie e dei
centri di ricerca specializzati, per il quale si poteva creare una scala. Negli
altri casi non ha senso perché gli indicatori sono dicotomici (si/no). Possiamo
ampiamente documentare che la verifica è stata fatta.
Sulla base delle proposte dell’ AIS, di
quelle dei referees e dei dati raccolti dalle banche dati, dai siti delle
riviste, dalla visione diretta di diversi numeri delle riviste, ciascuno di noi
in coscienza ha fatto le proprie scelte e, in caso di difformità di giudizio,
abbiamo tenuto conto di fattori anche reputazionali per arrivare ad un rating
condiviso. Dunque, data la non proponibilità di assurdi criteri di ponderazione
tra le diverse informazioni oggettive raccolte sulle riviste, il GEV14 ha
adottato la procedura della peer review informata, in cui ogni membro ha
riassunto nella sua valutazione tutti i criteri oggettivi e reputazionali di
cui è giunto a conoscenza.
D’altra parte mi pare che il nostro
lavoro corrisponda esattamente a quello che chiedeva Giglioli nello stesso
intervento del 21 dicembre:
“…..Né vogliamo minimamente schierarci
a priori contro l’approccio bibliometrico, che al contrario riteniamo molto
utile quando è usato con cautela, buon senso e senza rigidezze talebane. Ci
domandiamo tuttavia se, nella valutazione delle performance delle riviste,
contino solo le citazioni che sono riuscite a raggranellare, specialmente
quando piccoli numeri fanno la differenza. A nostro avviso, anche qualità come
l’apertura di nuovi orizzonti d’indagine, la capacità di coinvolgere giovani
ricercatori, il progetto culturale perseguito, il sostegno che le riviste,
specialmente quelle nuove, possono offrire a sottosettori specialistici che
trovano difficoltà ad essere rappresentati nelle riviste generaliste dovrebbero
essere considerate. E tali qualità non sono facilmente rilevabili con i dati di
Publish or perish. Hanno bisogno di essere accertate in maniera meno
frettolosa, più delicata e paziente, quella tipica della peer review.”
Oggi questa diventa una colpa? Lascio a
te la risposta.
Mi permetto di affrontare un ultimo
argomento. Negli ultimi giorni qualcuno ha proposto di chiudere la “guerra” sul
rating tornando alla proposta dell’ AIS. Non ritengo accettabile tale proposta
perché la metodologia di classificazione scelta dall’AIS decisamente
non mi pare appropriata, come ha rilevato E. Reyneri nel documento, che ti
allego, in cui sono messi in luce tutti i difetti e i rischi di discrezionalità
e manipolazione soggiacenti un’apparente quantificazione.
Cari saluti, Ivo Colozzi
P.S. Se lo ritieni, puoi inoltrare o
pubblicare questa lettera.
* * *
I silenzi e le ammissioni
del prof. Colozzi
La risposta del prof.
Colozzi al documento dei 51 (non dei 48) [ http://www.ais-sociologia.it/classificazione-riviste-esigiamo-trasparenza-lettera-aperta-anvur/] è del tutto insoddisfacente. Poiché in
essa il prof. Colozzi mi tira in ballo per nome e cognome, non posso esimermi
dal replicare. Lo faccio ovviamente a titolo personale.
1. Quello che Colozzi
non chiarisce
Nella sua missiva Colozzi
si limita a reiterare le procedure che il Gev avrebbe seguito e i criteri che
avrebbe applicato. Ma non offre nessuno dei chiarimenti richiesti dai
firmatari della lettera aperta e non dissipa in alcun modo le opacità e le
incongruenze che essi avevano rilevato. In particolare,
a) non spiega perché i
suggerimenti degli esperti stranieri non sono stati seguiti in maniera
uniforme;
b) non spiega in che modo
il subGev abbia appurato sia la regolarità della pubblicazione delle riviste,
che la pratica documentata di referaggio, che, come afferma il suo
collega del Gev, Emilio Reyneri, in una lettera che Colozzi cita con
approvazione, non può essere
accertata sulla base delle dichiarazioni dei direttori delle riviste.
c) non dice niente
rispetto alla assoluta carenza di potere discriminante, e quindi alla
sostanziale inutilità, di diversi indicatori che lui e i suoi colleghi
affermano di aver usato, una carenza denunciata nella lettera dei 51. In
effetti il prof. Colozzi si troverebbe a mal partito se, sulla base della sua
“documentata verifica”, dovesse indicare quali tra le riviste di sociologia
sottoposte alla valutazione NON figuri in nessuna delle banche dati e
piattaforme bibliografiche che cita, non sia presente in nessuna nelle
biblioteche universitarie e nei centri di ricerca specializzati e non abbia nei
suoi vari comitati scientifici o editoriali nessun accademico italiano o
straniero accreditato.
In breve, poiché i criteri
di cui al punto b) sono oggettivamente inaccertabili allo stato dei fatti e
quelli del punto c) sono soddisfatti dalla grande maggioranza delle riviste,
tali criteri servono a ben poco per un ranking. Tutt’al più possono essere
impiegati per un accreditamento,
cioè per distinguere le riviste accademiche di sociologia da quelle che non lo
sono.
Poiché neppure il
requisito della presenza su Isi o Scopus è un criterio utile (nessuna rivista
sociologica italiana appare su Isi e solo due su Scopus), l’unico indicatore
tra quelli elencati da Colozzi di cui il Gev14 ha potuto disporre per
effettuare l’ordinamento gerarchico delle riviste rimane l’indice H, che
peraltro Colozzi stesso critica, le cui modalità di impiego non sono
specificate e del quale non viene fornito il periodo di riferimento (come il
prof. Colozzi sa benissimo l’indicatore H è fortemente influenzato dal tempo).
d) Per finire, il prof.
Colozzi se ne esce con una stravagante affermazione metodologica, che non sappiamo da quale testo della
disciplina abbia potuto trarre. Cioè
che la ponderazione tra le diverse informazioni oggettive relative alle riviste
è assurda e improponibile. Perché prof. Colozzi? Da dove proviene questa sua
bizzarra convinzione? Forse non si rende conto che se la ponderazione è assurda
ciò significa che ciascun valutatore può dare il valore che vuole a ciascuno
degli indicatori e che questo implica giudizi imparagonabili: qualcuno può dare
la massima importanza ad un indice bibliometrico e qualcun altro, per esempio,
alla rigorosità del referaggio. E tutto questo trasforma l’esercizio di
valutazione in un guazzabuglio disorganizzato, in cui ciascuno dice ciò che
vuole senza alcun criterio direttivo. (Per non tediare i lettori con dettagli
troppo tecnici non commento qui l’altrettanto insensata opinione del Prof.
Colozzi, seconda la quale le variabili dicotomiche, al contrario di quelle
“scalari” non avrebbero bisogno di operativizzazione, ma sono pronto a
dibattere l’argomento con lui di fronte a qualsiasi competente giurì di
metodologi)
2. Quello che Colozzi
ammette.
Visti i problemi che
abbiamo notato rispetto agli indicatori – o sono inaccertabili o non
discriminano o sono criticati dallo stesso presidente del Gev - come avranno
fatto gli “esperti” valutatori a classificare le riviste di sociologia?
Il prof. Colozzi non lo
dice apertamente, ma, come sempre, il diavolo sta nei dettagli. Nel cercare di
giustificare di fronte al presidente dell’Anvur il suo operato, sottoposto a
numerose e serie critiche, alle quali si aggiunge la recente presa di posizione
del Presidente e di tutto il direttivo dell’Ais, il prof. Colozzi si lascia
sfuggire due frasi che la dicono lunga sul modo in cui le valutazioni sono
state realmente effettuate:
“abbiamo tenuto conto di fattori anche reputazionali ” e “ogni
membro ha riassunto nella sua valutazione tutti i criteri oggettivi e
reputazionali di cui è giunto a conoscenza” (sottolineatura mia).
Iniziamo da questo
meraviglioso “è giunto a conoscenza”: che vorrà dire? Vuol dire evidentemente
che non c’è stato nessun controllo sui dati oggettivi: per esempio, se non
sapevano quasi niente sulle modalità del referaggio, pazienza, i membri del
Gev, hanno fatto con gli elementi di cui erano “giunti a conoscenza”. Anche il
sentito dire e le nozioni più vaghe in questo clima andavano bene, dopo tutto
c’era fretta e bisognava sfornare una classifica. E’ agghiacciante pensare che è sulla base di questi dati
“giunti a conoscenza” che sono e saranno giudicati centinaia di sociologi
italiani.
Ma la parola più cruciale
sfuggita alle penna del prof. Colozzi è un’altra: l’aggettivo “reputazionali”.
Da dove sbucano questi fattori reputazionali, finora mai sentiti nominare?
Nella lista dei criteri enunciata dal prof. Colozzi non figurano. E siccome la
valutazione, per la stessa ammissione del presidente del Gev, doveva avvenire
sui criteri enunciati, qualsiasi altro tirato in ballo post hoc non è
altro che un criterio ad hoc invocato a posteriori per legittimare una
decisione e come tale illegittimo.
D’altra parte, come
avranno accertato Colozzi e i suoi colleghi i fattori reputazionali (esiste
un’ampia letteratura in proposito)? Hanno forse fatto una survey dei sociologi
italiani? Hanno richiesto il parere della comunità internazionale (di fatto sappiamo che i pareri dei
valutatori internazionali sono stati allegramente trascurati)?
In realtà, è chiarissimo
che i criteri “reputazionali” consistono nelle preferenze dei membri del Gev.
Tradotto dal suo burocratese, quello che dice il prof. Colozzi è: “E’ vero,
abbiamo indicato dei criteri, ma sono difficili da accertare, non discriminano
abbastanza e poi abbiamo anche fretta. E allora poche storie, abbiamo deciso noi sulla base delle
nostre preferenze. Siamo o non siamo i membri del Gev?”.
A questo proposito mi
permetto di far notare al prof. Colozzi che se avesse letto, non oso dire
riletto, il suo Max Weber, avrebbe appreso che la sua legittimità di valutatore
in un sistema organizzativo di tipo legale, non patrimonialistico o
carismatico, consiste nell’osservare le regole che egli stesso si è dato. Se ne
invoca delle nuove ad libitum (appunto i fattori “reputazionali”, quale
che sia il significato che Colozzi conferisce a questo termine che nella
letteratura tecnica è chiarissimo), lo fa, come qualsiasi giurista gli
spiegherebbe, a suo rischio e pericolo, perché compie un’operazione che viola i
presupposti di legittimità in base ai quali egli opera.
D’altra parte, dal punto
di vista sostanziale, le preferenze del prof. Colozzi come degli altri suoi colleghi,
interessano ben poco ai sociologi italiani che aspettano di essere valutati.
Fossero state le preferenze di figure di prestigio nel mondo della sociologia
italiana, per esempio, quelle di Alessandro Pizzorno, Luciano Gallino, o Franco
Ferrarotti, le avremmo prese in considerazione volentieri e con grande
attenzione. Francamente quelle di Colozzi e dei suoi colleghi lasciano il tempo
che trovano e ci sono del tutto indifferenti. Oltretutto si tratta di
preferenze relative a campi di cui non sono particolarmente competenti. Per
esempio, hanno valutato riviste di etnografia, di teoria sociologica, di
devianza, di sociologia del diritto, ma non ci risulta che nel board del Gev
sedessero etnografi, studiosi di teoria sociologica, di devianza, di sociologia
del diritto.
3. Conflitto d’interessi
Un altro punto sul quale
Colozzi non risponde riguarda la sua posizione ambigua nel processo di
valutazione, cioè il fatto che lui e i suoi colleghi sono parte dello stesso
oggetto che valutano. In altre parole, riguarda il patente conflitto di interessi
nel quale i membri del subGev sono invischiati e che probabilmente getta
qualche luce anche sulle loro preferenze. I seguenti dati sono istruttivi.
A parte la prof. Milly
Buonanno, tutti gli altri sei membri del Gev occupano un ruolo nei boards delle
riviste che hanno classificato in fascia A:
Ivo Colozzi fa parte del
Comitato di direzione di “Sociologia e politiche sociali”
Sandro Cattacin fa parte
del Comitato scientifico internazionale di “Sociologia e politiche sociali”
Roberto Cipriani fa parte
del Comitato scientifico di “Studi di sociologia”
Antonietta Mazzette fa
parte del Comitato di direzione di “Sociologia urbana e rurale”
Emilio Reyneri fa parte
del Consiglio di direzione di “Sociologia del lavoro” e del Consiglio
editoriale di “Stato e mercato”
Giovanna Rossi fa parte
del Comitato di direzione di “Sociologia e politiche sociali”, nonché del
Consiglio scientifico e anche della redazione di “Studi di sociologia”.
Per completezza, non
perché appartenga formalmente al Gev14, ma perché, essendo l’unica sociologa
presente nel Consiglio direttivo dell’Anvur, anzi essendone la vice-presidente,
è quella che ha di fatto nominato i membri del Gev di sociologia, Luisa Ribolzi
fa parte del Comitato scientifico italiano di “Sociologia e politiche sociali”,
e del comitato scientifico di “Studi di Sociologia”.
Che cosa ha da dire il
prof. Colozzi a questo proposito?
Come ci possiamo fidare della fairness
sua e dei suoi colleghi, specialmente quando è basata su “criteri
reputazionali”? E’ possibile non si sia neppure posto il problema? Che non si
senta imbarazzato di fronte alla comunità sociologica? Lasciamo a lui e ai lettori la
risposta.
4. Conclusione
Il prof. Colozzi mi fa
l’onore di dedicarmi ben due citazioni. Lo ringrazio, ma mi avrebbe fatto
piacere se fosse stato un mio lettore non solo assiduo, ma anche attento. In
tal caso avrebbe certamente capito che quando Alessandro Dal Lago, Giolo Fele,
Marco Marzano ed io scrivevamo quelle frasi pensavamo a valutatori non
coinvolti in conflitti d’interessi, a valutatori che non svolgessero il loro
compito frettolosamente in due o tre settimane sulla base di qualche scambio di
e-mail, che non si esprimessero sulla base di dati di cui in qualche modo erano
“venuti a conoscenza”, che fossero metodologicamente competenti, che non
introducessero surrettizi criteri
“reputazionali” che non fanno altro che mascherare i propri orientamenti di
politica e di do ut des accademico,
che fossero al corrente degli standard con cui le peer reviews sono eseguite nelle comunità scientifiche in cui sanno
farle (faccio notare che, per esempio, la classificazione delle riviste in
Australia [ERA], ha preso circa tre anni
e che successivamente è stata ritirata per le distorsioni che aveva
provocato nel mondo accademico e intellettuale e che in Francia dopo un’analisi
durata molti mesi e un partecipato dibattito è stato scelto di fare solo una
differenza tra riviste accreditate e non accreditate, senza procedere ad alcun
ranking).
Come abbiamo scritto, una peer review è un processo meditato,
delicato e paziente, che prende tutto il tempo necessario per essere compiuto,
e che si concreta alla fine in una motivazione ampia e articolata, rivista per
rivista, che ingloba elementi quantitativi e qualitativi, che espone e giustifica
le ragioni di un rating, che compara ognuno dei soggetti valutati con gli
altri. Niente di tutto questo è avvenuto nel caso delle valutazione delle
riviste diretta dal prof. Colozzi. Questo spiega anche la sua reticenza a
mostrare gli atti, perché quello che può mostrare è ben poco, solo una serie di
voti, ma nessuna giustificazione del giudizio. Eppure, data la sua anzianità
accademica, al prof. Colozzi non dovrebbe sfuggire che anche nel più squallido
concorso è necessario fornire le motivazioni delle valutazioni e che queste
sono pubbliche. Solo così ovviamente è possibile contestarle.
La limpidità e la serenità
di giudizio sono i primi essenziali requisiti di un organo di valutazione.
Purtroppo questo non è il caso dell’organo presieduto dal prof. Colozzi. Finora
esso è stato contrassegnato da uno stile opaco nelle procedure, autoritario nei
modi e arbitrario nei risultati, uno stile inaccettabile in una comunità
scientifica degna di questo nome. Mi chiedo se occorra appellarsi a istanze
esterne all’accademia per far sì che i requisiti del diritto siano osservati.
Pier Paolo Giglioli
Non per difendere nessuno, ma vorrei aggiungere un paio di osservazioni che fanno emergere altrettanti paradossi.
RispondiEliminaE' evidente che il contenuto della risposta del prof. Giglioli è condivisibile, così com'era condivisibile il contenuto di altre missive. Rimane però vero che:
1) Il punto 3 di Giglioli è specioso. In una comunità scientifica funzionante, la presenza di uno studioso in uno comitato di rivista (o più comitati: alcuni membri del GEV sono presenti in parecchi comitati) è segno di distinzione e dovrebbe essere considerato come un punto a favore. D'altronde, come spesso s'è detto, la logica di fondazione/gestione delle riviste italiane è tradizionalmente assai diversa da quelle delle riviste anglosassoni che abbiamo (?) deciso di prendere come modello (in realtà, di alcune riviste). In Italia le riviste nascono spesso per "esodi" di gruppi di studiosi che già partecipavano alla gestione di altre riviste, un po' come la mia università di Padova nacque per una fuga di studenti "in cerca di maggiore libertà accademica" dall'Università di Bologna, alma mater di Giglioli, nel 1222 (un esempio classico sono riviste che sono nate come "migrazioni" dalla RIS, ma in effetti anche ASR nacque per contrapposizione ad AJS, e dunque...). Non abbiamo (de facto) riviste gestite dalla nostra associazione professionale (alla quale, peraltro, né io né Giglioli aderiamo) secondo i criteri rigorosi e trasparenti e mandati chiari e limitati. Ciò rende l'osservazione al punto 3 assai speciosa e di sicuro non generalizzabile kantianamente. Escludendo tutti gli studiosi che appartengono, o hanno fatto parte, dei comitati e/o direzioni di riviste rimarremmo con un magro bottino.
2) Ciò detto, è l'ultima frase a lasciarmi un po' interdetto. La riporto per completezza: "Finora esso è stato contrassegnato da uno stile opaco nelle procedure, autoritario nei modi e arbitrario nei risultati, uno stile inaccettabile in una comunità scientifica degna di questo nome." Verrebbe da rispondere: nulla a cui le performance di tanti nostri colleghi ordinari nelle valutazioni comparative non ci avesse già abituato. Chi di noi ha partecipato a commissioni di concorso, commissioni d'area, valutazioni di progetti di ricerca o assegni o borse di studio, ha spesso avuto l'occasione di assistere (e partecipare, ahimé) a procedure opache, arbitrarie e autoritarie. Insomma, dato l'ethos dei sociologi italiani (o almeno di quei sociologi che negli ultimi 20'anni hanno preso le decisioni cruciali su reclutamenti, finanziamenti e gestione delle risorse), il risultato era ampiamente prevedibile. Anzi, potremmo anche dire che se avessimo avuto procedure ponderate, chiare, trasparenti, democratiche e giustificabili sarebbe stato un vero e proprio miracolo che avremmo faticato a spiegare con concetti banali come habitus, struttura, meccanismo.
Stupisce, in poche parole, lo stupore del prof. Giglioli, vista la sua esperienza accademica, il suo gusto per l'etnografia e la sua antica sapienza in fatto di "baroni e burocrati"
Matteo Bortolini
Ricercatore confermato SPS/07, Università di Padova
Managing editor, Sociologica
Redazione, Quaderni di Teoria sociale
International board, Comparative Sociology
Membro del collegio del Dottorato, UniPD
Membro della commissione di Area 16, UniPD
Membro del direttivo della sezione "History of Sociology", ASA
Ringrazio il dott. Bortolini per aver condiviso il contenuto della mia risposta. Rispetto ai due punti che sviluppa vorrei fargli notare:
Elimina1) E' vero che far parte del comitato direttivo o editoriale di una rivista potrebbe in astratto essere un segno di distinzione per il componente di un Gev (anche se, dato il numero di riviste di sociologia esistenti in Italia, si tratta di una distinzione assai inflazionata). Ma, senza bisogno di scomodare Kant, trovo un po' anomalo, per usare un termine eufemistico, che nonostante le riviste italiane di sociologia siano così numerose, due sole, "Studi di sociologia" e "Sociologia e politiche sociali", esprimano metà dei componenti del subGev14 e che, dei 7 sociologi che lo compongono, 6 facciano capo a riviste di Franco Angeli e 2 a riviste di Vita e pensiero. Non si dà il caso, dott. Bortolini, che questo abbia a che fare con una composizione del subGev non proprio equilibrata?
2) Mentre ringrazio il dott. Bortolini per l’attenzione che dimostra per una mia pubblicazione di trentatre anni fa, vorrei rassicurarlo: non sono affatto stupito e non so da quale elemento del mio testo lo deduca. Ma non stupirsi non significa approvare con compiacimento o rassegnazione, come il mio interlocutore sembra che sia inclinato a fare. Vorrei anche ricordargli che, al contrario di quanto accade nel caso del Gev14, nei concorsi, anche quelli più scandalosi, le motivazioni sono obbligatorie e gli atti sono pubblici. E’ per questo che è stato possibile ricorrere contro e riformare alcuni esiti concorsuali particolarmente disgustosi, come il blog Per la sociologia ha meritoriamente documentato.
Pier Paolo Giglioli