lettura-profonda-deep-reading-library-return-box

Lettura profonda: non buttare il digitale con l’acqua sporca

Le neuroscienze ci mettono in guardia: la lettura profonda è in pericolo. Occhio però alle conclusioni affrettate. Il rischio è di vedere il problema nel supporto materiale (e- book vs. carta) anziché nel complesso dell’esperienza.

Qualche appunto, a margine dell’incontro ‘La lettura profonda. Capire, connettere ed elaborare: quello che i ragazzi disimparano con internet e come rimediare’, organizzato da Parole O_Stili per Didacta e moderato oggi da Giovanni Boccia Artieri.

 «Restiamo umani, continuiamo a leggere». Chi resisterebbe a un programma tanto seducente e ragguardevole? La lettura come estrema ipotesi di umanità, come resistenza, come percorso di elevazione. Leggere per essere migliori, insomma. Perché – lo sappiamo – l’«inverno dello spirito» è alle porte. E proprio noi, che siamo lettori consapevoli, lo sentiamo venire.

A volte, però, dietro le migliori intenzioni si celano visioni distorte. È una distorsione, io credo, pensare che leggere sia un segno di umanità in sé, e che un lettore sia necessariamente non solo una persona più saggia, ma anche più compassionevole (come se Hitler non avesse la sua biblioteca). O ancora che la lettura serva a qualcosa, senza una vita in comune. Confesso di odiare la protervia di taluni lettori, quelli che guardano i non-lettori con un misto di paternalismo e disapprovazione, perché si sentono dalla parte dei giusti e ritengono di essere investiti di una particolare missione: fare in modo che anche gli altri leggano. Per il loro bene, s’intende.

La sindrome del missionario

Io credo che ogni discorso sulla presunta crisi della lettura profonda dovrebbe affrancarsi da questa logica paternalista. Perché, se partiamo dal presupposto che alla lettura profonda spetti un primato morale, siamo già schiavi di un pregiudizio. Aggiungo che dovremmo guardare con interesse alle esperienze di lettura diverse da quell’unica che ci sembra “giusta”. Anche per criticarle, se necessario. Ma sempre trattando i non-lettori e i diversamente-lettori da persone intelligenti, anziché vittime inconsapevoli di una grave minaccia, che nella loro ingenuità non percepiscono e dalla quale solo noi possiamo salvarli.

In definitiva, dovremmo evitare di contrapporre in modo manicheo la lettura profonda (sempre buona) a tutte le altre pratiche di lettura (sempre cattive). Ciò mi sembra privo di senso prima di tutto dal punto di vista scientifico. Perché non tiene nel dovuto conto le condizioni in cui le diverse esperienze si sviluppano in concreto. Non tiene conto, cioè, del dispositivo. Il quale non va inteso solo come l’apparato hardware e software in cui si fissa il testo scritto, ma come l’insieme dei fattori che orientano il nostro comportamento di lettori.

Device vs. dispositivo

Per gli anglofili, la contrapposizione è fra device e dispositive (o apparatus). Dovremmo sospettare che, a seconda degli usi e degli elementi in gioco, lo stesso device produca esiti discorsivi diversi e conduca quindi a pratiche ed esperienze eterogenee. Dovremmo allora concentrare la nostra attenzione sul dispositive. Il dispositivo di Kindle, per dire, non è fatto solo di un e-reader. Esso include uno specifico sistema di digital right management (DRM), un’infrastruttura di cloud computing dove sono conservati i nostri e-book, una piattaforma di commercio elettronico (Amazon.it e Amazon.com), una tecnologia di machine learning che analizza i dati relativi al nostro stile di lettura e ci suggerisce i prodotti più indicati per noi. Tutti questi elementi orientano il nostro comportamento, non solo lo schermo del device.

Neuroscienze e lettura profonda

Le neuroscienze ci hanno aiutato, in questi anni, a vedere che cosa fa il nostro cervello, quando è impegnato nella lettura profonda. Ora sappiamo che le zone cerebrali che si attivano sono numerose e che agiscono in sequenza. Il processo di lettura si scompone in una serie di sottoattività. Per impegnarsi nel deep reading serve la piena disponibilità dei nostri sistemi attentivi. Serve, insomma, un “occhio tranquillo”. L’ecosistema della lettura digitale non garantisce tutte le condizioni necessarie per sviluppare questo tipo di esperienza.

Tutto bene. A patto di non scadere nel determinismo ingenuo, in virtù del quale finiamo per preoccuparci più di quello che la tecnologia fa a noi e trascuriamo quello che noi facciamo con la tecnologia. Soprattutto, a patto di non usare i risultati delle neuroscienze come una clava, per rimarcare sul piano morale lo scarto rispetto ad altre pratiche di lettura, cognitivamente deboli.

 

Una nuova resistenza

Intendiamoci: certi appelli alla mobilitazione generale sono in perfetta buona fede. Contro il rischio di perdere l’arte della lettura dovremmo praticare una nuova resistenza (David L. Ulin, The Lost Art of Reading. Books and Resistance in a Troubled Time, Seattle, Sasquatch Books, 2010) e tornare nella nostra casa di lettori (Maryanne Wolf, Come Home: The Reading Brain in a Digital World, New York, HarperCollins, 2018; tr. it. Lettore, vieni a casa. Il cervello che legge in un mondo digitale, Milano, Vita e Pensiero, 2018).

Tuttavia il rischio è di imboccare scorciatoie che non fanno onore ai difensori della lettura profonda e del pensiero critico. È una pericolosa scorciatoia, a mio avviso, associare in modo biunivoco la lettura profonda al libro di carta e il cosiddetto skimming (lettura selettiva e superficiale) all’e-book. E da questa associazione trarre una frettolosa conclusione: la lettura buona è solo quella praticata sul libro di carta.

La debolezza metodologica di certe ipotesi, come detto, è che si concentrano sui presunti limiti del supporto di lettura (lo schermo peggio della carta) e trascurano il dispositivo nel suo complesso, inteso appunto come l’insieme delle condizioni in cui la lettura si sviluppa. Andrebbero considerati diversi fattori – per così dire hardware e software, di processo e di contesto – i quali concorrono a definire la nostra esperienza di lettura, tanto sulla carta quanto sullo schermo.

Sovraccarico informativo e condizione postmediale

Se il nostro cervello è sottoposto a un sovraccarico informativo, al quale rispondiamo semplificando, elaborando le informazioni “a raffiche” e concentrandoci sulle priorità, la colpa è del device o del processo? Davvero pensiamo che il computer – diciamo: il computer in sé – sia responsabile della progressiva indisponibilità a svolgere un’analisi complessa, a dedicare tempo e attenzione a ciò che leggiamo e financo a percepire la bellezza dietro le cose che richiedono impegno? Non sarebbe il caso di considerare la nostra condizione da un punto di vista più generale?

Sospetto che distrazione, deficit attentivo, indebolimento della capacità analitica, superficialità (e aggiungo: ipersensibilità allo spettacolare) siano riconducibili piuttosto alla nostra condizione di soggetti postmediali, ovvero costantemente immersi in un flusso di comunicazione a livello micro e macro, come in un liquido amniotico. È un ambiente che ci nutre ma del quale non percepiamo (più) la sostanza, proprio come l’aria che respiriamo. Se il medium è il messaggio, il computer non è il medium. Nel senso che guardare al computer, anziché al dispositivo mediale, è come osservare il dito e non accorgersi della luna.

Il problema della memoria

Tornerò più avanti sulla questione del dispositivo. Resto, per il momento, al tema di partenza: il futuro della lettura e l’indebolimento cognitivo che si suppone associato al passaggio dalla carta allo schermo.

Un fatto confermabile con un ragionevole margine di certezza è che la liquefazione della pagina e la dematerializzazione del testo insiti nel modello di lettura digitale si accompagnano a una certa riduzione dell’efficacia mnestica (cfr. Lauren M. Singer, Patricia A. Alexander, Reading on Paper and Digitally: What the Past Decades of Empirical Research Reveal, in “Review of Educational Research”, 6, dicembre 2017). Anche in questo caso, peraltro, il fenomeno ha una portata variabile: si accentua in misura proporzionale alla lunghezza dei testi.

Vorrei anche dire che, quando ci si propone di misurare la memorizzazione nell’esperienza della lettura, non sempre si usano tecniche omogenee. Stiamo parlando dell’abilità di apprendere del materiale verbale organizzato gerarchicamente. I test dovrebbero dunque misurare la capacità di immagazzinamento (SPAN) nella memoria a lungo termine di materiale precedentemente reso disponibile nella memoria a breve termine. Metodologie di test diverse producono risultati diversi.

Il diritto di dimenticare

A parte ciò, si rischia di perdere di vista una caratteristica essenziale della memoria umana, che è la capacità di dimenticare. Non mi riferisco tanto a quella funzione biologica nota come dimenticanza selettiva (tipica peraltro anche di altre specie animali: cfr. Pedro Bekinschtnein e altri, A retrieval-specific meccanism of adaptive forgetting in the mammalian brain, “Nature Communication”, 9, 7 novembre 2018). Alludo semmai al fatto che l’oggetto di certe letture si inserisce in quell’insieme di contenuti che chiamiamo ricordi autobiografici, sui quali ogni individuo opera in modo selettivo. Ricorro, per spiegare il concetto, a un passo del bellissimo romanzo di Gajto Gazdanov Strade di notte, in cui il protagonista fa la seguente considerazione:

«Contrariamente alla maggioranza dei miei conoscenti, io non dimentico nulla di ciò che vedo e provo, e ho la testa piena di un’infinità di cose e persone, molte delle quali, fra l’altro, hanno già lasciato questo mondo. Ricordo in eterno il viso di una donna che ho incrociato una volta soltanto, tengo a mente per anni emozioni e pensieri di una singola giornata. L’unica cosa che dimentico con facilità sono le formule matematiche, le trame e i contenuti di libri e manuali letti da tempo. Le persone invece le ricordo tutte quante, anche se la stragrande maggioranza di loro non ha avuto alcun ruolo nella mia esistenza.» (traduzione italiana di Claudia Zonghetti, Roma, Fazi Editore, 2017).

Ricordare o comprendere?

In ogni caso gli effetti del supporto (carta vs. schermo) sulla capacità del lettore di memorizzare i contenuti dei testi andrebbero valutati distintamente rispetto agli effetti sulla capacità di comprenderli. Una ricerca di Sara J. Margolin e altri, pubblicata su “Applied Cognitive Psychology” nel 2013, va in questa direzione. Confrontando i risultati della lettura su carta, computer e e-reader, non emergono sostanziali differenze dal punto di vista della comprensione di testi narrativi o espositivi. Si evidenzia piuttosto il fatto che alcuni comportamenti di lettura, a prescindere dal supporto utilizzato, possono influenzare la capacità di decodificare i testi.

La ricerca ha considerato in particolare i seguenti comportamenti: seguire il testo con un dito o con il puntatore del mouse, sottolineare il testo, rileggere il testo, annotare il testo e prendere appunti, vagare durante la lettura, leggere il modo endofasico o – viceversa – esofasico, muovere le labbra durante la lettura. Ebbene, i risultati dell’analisi condotta da Margolin e dai suoi colleghi portano a concludere che, nel caso di testi di tipo espositivo, il ricorso a suddetti comportamenti non ha un impatto significativo sul livello di comprensione, mentre ce l’ha nel caso di lettura di testi narrativi.

Si scopre inoltre che non esistono significative differenze nel ricorso a determinati comportamenti di lettura fra lettori su supporto cartaceo, computer e e-reader. L’unica differenza rilevante riguarda la tendenza a vagare durante la lettura, che risulta superiore tra i lettori di libri di carta rispetto ai lettori di e-book su e-reader (Sara J. Margolin et al., E– readers, Computer Screens, or Paper: Does Reading Comprehension Change Across Media Platforms?, “Applied Cognitive Psychology”, 27, 2013, 512-519).

A scuola, fra libro, tablet e smartphone

La questione si pone specificamente in ambito didattico, allorquando si vuole valutare l’impatto dei nuovi strumenti di lettura nei processi di apprendimento scolastico. La mera disponibilità di nuove tecnologie (ICT, information & communication technologies) non sembra contribuire positivamente. Anzi, diversi studi evidenziano un impatto negativo sulla performance degli studenti.

Ancora una volta, però, ci si domanda se sia coerente valutare pregi e difetti dei diversi apparati hardware e software (libro di carta, computer, tablet, e-reader, smartphone) a prescindere dal dispositivo, inteso non come device, ma come organizzazione dell’esperienza e orientamento del discorso didattico. Le potenzialità di ogni strumento andrebbero apprezzate tenendo conto del campo esperienziale abilitabile. Nell’ambito della didattica, dovremmo progettare (e valutare) non gli apparati, ma le esperienze.

Il problema del protocollo di analisi

In definitiva, per valutare correttamente l’efficacia di un dispositivo di lettura (uso sempre l’espressione in senso foucaultiano), occorre considerare non solo tutti gli elementi che lo compongono, ma anche i comportamenti degli individui all’interno del dispositivo. Mi rendo conto che ciò implica una serie di difficoltà di ordine metodologico. Quando i fenomeni sotto osservazione sono complessi, la scelta di misurare l’impatto relativo di tutti i fattori concorrenti determina l’aumento del rischio di errore. Basta sbagliare la misurazione di un fattore, per inficiare i risultati di tutta l’analisi. Prendendo a prestito il linguaggio della statistica, il problema in cui si incorre può essere classificato come overfitting, ovvero l’errore generato da un eccesso di parametri rispetto ai dati disponibili o osservabili.

Forzature metodologiche

Vi è un ulteriore aspetto rilevante sotto il profilo metodologico. Il modello di analisi della ricerca empirica in campo sociale deve essere allo stesso tempo robusto e non intrusivo. Si tratta di una vecchia questione. L’analisi può generare epifenomeni in due modi. In primo luogo, perché l’oggetto, sentendosi osservato, modifica il proprio comportamento standard. In secondo luogo, perché il ricercatore forza alcune variabili dell’osservazione, con lo scopo di renderle processabili all’interno del modello.

Va da sé che alcune variabili sono manipolabili, ma occorre sempre fare attenzione all’impatto che eventuali manipolazioni possono avere sulla natura del fenomeno oggetto di studio. A maggior ragione la cautela è d’obbligo quando abbiamo a che fare con scenari particolarmente complessi, caratterizzati da relazioni multivariate (più variabili indipendenti) e dalla presenza di variabili latenti (ossia di difficile misurazione).

Suscita una certa perplessità, per esempio, un recente studio condotto in Italia con lo scopo di valutare l’impatto delle piattaforme web 2.0 (sic) e in particolare di Twitter sull’apprendimento della letteratura nella scuola superiore (Gian Paolo Barbetta, Paolo Canino e Stefano Cima, Let’s tweet again? The impact of social networks on literature achievement in high school students: Evidence from a randomized controlled trial, Working Paper n. 81, Dipartimento di Economia e Finanza, Università Cattolica del Sacro Cuore, maggio 2019).

L’approccio adottato dai ricercatori è quello ben noto dello studio controllato randomizzato (RCT), il quale prevede l’allocazione casuale dei soggetti coinvolti in due gruppi: il primo gruppo applica il protocollo che deve essere valutato, mentre il secondo segue una procedura standard (gruppo di controllo). Tutte le altre variabili sono mantenute costanti nei due gruppi.

Sull’efficacia della Twitteratura

Questo approccio è stato applicato dai ricercatori a uno dei progetti dell’Associazione Culturale Twitteratura (TwLetteratura), il quale ha visto la partecipazione di circa 1500 studenti di 70 scuole italiane nel 2017. I progetti di Twitteratura, condotti ormai da alcuni anni, prevedono l’utilizzo di Twitter – e dello specifico metodo messo a punto dall’Associazione da alcuni anni – per potenziare l’esperienza didattica nell’ambito degli studi letterari e della lettura in generale. Per verificare l’efficacia del metodo Twitteratura sono dunque stati identificati due gruppi di studenti: in 37 scuole è stato utilizzato Twitter per accompagnare la lettura dei primi dieci capitoli del Fu Mattia Pascal di Luigi Pirandello, mentre in altre 37 scuole il romanzo è stato letto senza il supporto di Twitter.

La ricerca ha evidenziato una riduzione significativa del livello di comprensione del testo da parte dei lettori che hanno usato Twitter: la deviazione standard rispetto alla media è compresa fra il 25 e il 40%. Inoltre, l’impatto negativo sembra più evidente negli studenti che hanno in genere le prestazioni scolastiche migliori. Da notare che il progetto non prevedeva la lettura del romanzo su Twitter. La maggior parte degli studenti, anzi, ha letto il testo di Pirandello attraverso un’edizione cartacea.

La conclusione, alquanto frettolosa, è che il metodo Twitteratura non funziona. Che cosa non quadra, nello studio di Barbetta, Canino e Cima? Essendo stato coinvolto direttamente nelle discussioni che hanno preceduto l’analisi dei tre ricercatori e in quelle che l’hanno seguita, ed essendo fra gli ideatori del metodo Twitteratura, sono stato testimone mio malgrado di un’operazione discutibile: l’adattamento forzato dell’oggetto da analizzare al metodo di analisi.

 

Quando l’osservatore modifica l’oggetto

In particolare, per condurre uno studio controllato randomizzato era necessario operare su un campione molto ampio (1500 studenti, appunto) ed effettuare una serie di misurazioni complesse (questionari online, somministrati attraverso la piattaforma Questbase, e identificazione univoca degli studenti mediante codice anonimo individuale). La prima circostanza ha imposto l’onboarding nel progetto – tramite campagna pubblicitaria su Facebook – di un gran numero di insegnanti totalmente a digiuno del metodo Twitteratura e dunque incapaci di attivare l’esperienza che lo caratterizza. I questionari online, poi, sono stati vissuti dai partecipanti al progetto di lettura come intrusivi, e dunque hanno generato in molti casi resistenza e sabotaggio.

Insomma, il metodo Twitteratura è stato sacrificato sull’altare del protocollo di analisi. Qualunque cosa Barbetta, Canino e Cima abbiano misurato con il loro studio, non è il metodo Twitteratura, per la semplice ragione che nel corso del progetto di lettura del Fu Mattia Pascal di Pirandello tale metodo è stato in larga misura disatteso e vanificato.

Studenti bialfabetizzati

Un’ulteriore questione concerne l’idea che gli strumenti digitali per la didattica e la lettura si pongano in alternativa ai libri di carta. Chi ha detto che debba essere così? A me sembra che uno degli aspetti più convincenti dell’appello di Maryanne Wolf consista proprio nella proposta di un percorso di bialfabetizzazione. Un percorso educativo, cioè, che parta dallo sviluppo delle competenze analogiche necessarie per la lettura profonda e si integri progressivamente – a partire dal decimo anno di età – con lo sviluppo delle competenze digitali.

Del resto, già nel 2015 uno degli studi più estensivi sull’uso delle tecnologie digitali nelle scuole, realizzato dall’OCSE sulla base dei risultati di PISA 2012, evidenziava due fatti significativi. In primo luogo, non è possibile per gli studenti eccellere nella lettura online senza essere in grado di comprendere anche i testi stampati. Non a caso, i paesi che mostrano i migliori risultati nella valutazione PISA sulla lettura online sono Singapore, Corea, Hong Kong-Cina, Giappone, Canada e Shanghai-Cina, ossia gli stessi che hanno evidenziato i migliori risultati anche nel test di lettura su supporto cartaceo.

 

Competenze digitali oltre la lettura

Secondariamente, lettura digitale non significa solo decifrazione e comprensione di un testo sullo schermo. La competenza del lettore digitale comprende anche la capacità di navigare attraverso i testi online (cfr. Students, Computers and Learning. Making the Connection, 2015). Altro aspetto interessante: taluni effetti regressivi di un ricorso “eccessivo” al digitale a scuola sono misurabili in particolare sugli studenti che vivono all’interno di un contesto culturale relativamente povero. Viceversa, non si riscontra un impatto così significativo sul segmento di popolazione studentesca proveniente da famiglie di livello culturale più elevato.

Che cosa ci insegna l’intelligenza artificiale

Un ultimo spunto di riflessione, sul futuro della lettura profonda, viene forse dal mondo dell’intelligenza artificiale. C’è chi immagina il giorno in cui le macchine praticheranno la lettura profonda. Nell’attesa, l’intelligenza artificiale può insegnarci qualcosa sull’intelligenza umana. Può aiutarci a comprendere, per esempio, il nesso fra lettura profonda e comprensione del mondo.

È interessante, in questa prospettiva, la riflessione di Gary Marcus, autorevole neuroscienziato americano, che insegna presso il Dipartimento di Psicologia della New York University e studia da anni la differenza fra intelligenza umana e intelligenza artificiale. Nel 2014 Marcus ha fondato Geometric Intelligence, una startup acquisita da Uber due anni dopo. Oggi è a capo di Robust.AI, altra startup che si occupa di intelligenza artificiale forte (general AI) cercando di superare i limiti degli algoritmi di apprendimento automatico (machine learning e deep learning).

 

Il nuovo libro di Gary Marcus

Di Marcus è uscito in settembre Rebooting AI. Building Artificial Intelligence We Can Trust, un libro scritto insieme a Ernest Davis per l’editore Pantheon di New York. I due studiosi sono convinti che, per quanto al centro di sviluppi interessanti, le tecniche basate su reti neurali non permetteranno di creare macchine pienamente intelligenti. Il deep learning emula bene alcuni comportamenti del cervello umano, come il riconoscimento delle immagini o del linguaggio, ma fallisce inesorabilmente in altri ambiti, quali la comprensione di una conversazione o la ricerca di nessi causali tra fenomeni in apparenza irrelati.

Deep learning is not deep reading

Come detto, Marcus è un sostenitore dell’intelligenza artificiale forte. Che per lui significa intelligenza artificiale costruita combinando il deep learning con altri metodi. Le tecniche di deep learning sono molto efficaci quando si tratta di risolvere problemi all’interno di un contesto non troppo ampio e adeguatamente descritto. Anzi, la forza del deep learning consiste proprio nella sua capacità di processare una grande quantità di informazioni relative al contesto operativo. Tuttavia, non appena si trova al di fuori del perimetro assegnato, il deep learning si trova in difficoltà.

Pensiamo ad AlphaGo, imbattibile quando si tratta di giocare a Go in una scacchiera standard, ma improvvisamente maldestro se modifichiamo la forma della scacchiera da quadrata a rettangolare. O ai notevoli ostacoli che tuttora frenano lo sviluppo dei sistemi a guida autonoma per ragioni analoghe (le vetture di Waymo – per dire – se la cavano piuttosto bene a Phoenix, in Arizona, ma incontrerebbero grandi difficoltà a circolare in contesti territoriali molto diversi).

Ebbene, in una recente intervista rilasciata a Karen Hao per MIT Technology Review il 27 settembre 2019, Marcus fornisce una interessante definizione dell’intelligenza naturale. Ciò che distingue un essere umano da un algoritmo di apprendimento automatico è, secondo Marcus, una duplice capacità: da un lato il nostro cervello punta più su una comprensione del mondo magari imperfetta, ma vasta, e meno sulla capacità di dominare un ambito specifico di conoscenza; dall’altro lato il nostro cervello sa leggere.

Restiamo umani, continuiamo a leggere (in profondità)

Implicitamente Marcus riconosce dunque che la lettura (si legga: lettura profonda) è un’attività umana particolarmente sofisticata, al punto che per il momento le macchine faticano a emularla. Qualcuno potrebbe contestare che ciò non è più vero: le macchine sanno leggere! I programmi di text mining sempre più utilizzati negli studi legali, così come nell’ambito del data journalism e della linguistica computazionale, non esibiscono forse straordinarie competenze nella lettura e nella comprensione di testi anche lunghi e articolati?

Può darsi. Tuttavia, ai tecno-ottimisti ingenui suggerisco di dare in pasto a Google Translate o DeepL il distico «Lui folgorante in solio / Vide il mio genio e tacque», e vedere l’effetto che fa. Il punto è che, per comprendere il senso e financo la lettera della celebre ode manzoniana, non basta leggere. È necessario leggere in profondità. E Google non lo sa ancora fare. E dunque, sì, possiamo ribadirlo: «restiamo umani, continuiamo a leggere».

Animated Social Media Icons by Acurax Responsive Web Designing Company
Visit Us On TwitterVisit Us On FacebookVisit Us On PinterestVisit Us On YoutubeVisit Us On Linkedin