CHI HA PAURA DELLA NEUROPOLITICA?
L’analisi dei pattern neurologici impliciti promette di rivoluzionare il settore degli studi politici.

 

Massimo Morelli

Ed Feigenbaum

Ed Feigenbaum

L’intelligenza artificiale simbolica
I modelli di Intelligenza Artificiale hanno compiuto un notevole passo avanti quando sono passati dai cosiddetti ‘sistemi esperti’ – che alcuni chiamano anche intelligenza artificiale ‘simbolica’ o ‘vecchia maniera’ – a quelli statistico-matematici delle reti neurali e del machine learning. All’inizio si procedeva a modellare una base di conoscenza (knowledge base) relativa a una qualche disciplina specifica, si passava questa conoscenza ai computer attraverso specifici linguaggi di programmazione e poi si applicavano a queste knowledge base dei reasoner (in italiano ‘motore inferenziale’) basati su versioni speciali della logica formale per ricavarne delle inferenze (il guru dei sistemi esperti era Ed Feigenbaum, vincitore del premio Turing e fondatore del Knowledge System Laboratory a Stanford). Questo modus operandi  – che ha dato vita, tra l’altro, ai cosiddetti ‘grafi della conoscenza’ (knowledge graph) e alle ontologie del web semantico – è tuttora vivo e vegeto soprattutto presso le accademie di tutto il mondo, ma dal punto di vista strettamente commerciale non ha mai veramente sfondato. In un certo senso i risultati applicativi sono stati inferiori alle attese.
Uno dei problemi consiste nel fatto che modellare un qualunque dominio di conoscenza, anche se a farlo è il migliore esperto disponibile su piazza, e trasferirlo a un calcolatore, per quanto potente esso sia e per quanto sofisticati siano i linguaggi di sviluppo applicati, non è affatto facile. Inoltre i risultati prodotti dall’intervento dei reasoner sono spesso interessanti ma non sempre idonei a risolvere dei problemi concreti in via definitiva. Il mondo reale sembra troppo complicato e ambiguo per essere modellato e indagato adeguatamente con i mezzi della logica simbolica. Ma non è ancora detta l’ultima parola.

Frederick Jelinek

Frederick Jelinek

L’intelligenza artificiale statistica
La svolta si è avuta quando invece di modellare interi domini di conoscenza si è pensato di concentrarsi direttamente sui problemi concreti analizzando delle gigantesche base-dati (spesso ricavate da internet) con gli strumenti della statistica e dell’ottimizzazione matematica, alla ricerca di correlazioni significative. Inoltre, applicando opportunamente a queste analisi statistico-matematiche la struttura formale delle reti neurali (vagamente ispirata alle reti neuronali del sistema nervoso umano) e la metodologia cibernetica della retroazione negativa (o discesa del gradiente) si è riusciti a far sì che le macchine fossero in grado di autocorreggersi, dando vita al fenomeno dell’apprendimento automatizzato o machine learning. La grande differenza è che mentre nell’AI old fashioned al centro di tutto c’è la capacità umana di modellare il dominio di conoscenza, qui c’è invece la mole e l’affidabilità dei dati a disposizione, e la competenza specialistica umana viene messa in un certo senso da parte. Il primo a intraprendere questa strada fu Frederick Jelinek, direttore di un team dell’IBM dedicato a risolvere i problemi del riconoscimento del linguaggio naturale e della traduzione automatica. Egli si accorse che per conseguire quei risultati invece di chiedere ai linguisti di definire sempre più stringenti norme grammatico-lessicali da trasferire ai computer, era più produttivo analizzare l’utilizzo effettivo del linguaggio naturale ricavandone delle correlazioni statistiche. Come sappiamo questo filone di ricerca ha conseguito risultati sorprendenti, fino a innescare l’attuale esplosione dei Large Language Models e dell’AI generativa (su tutta questa vicenda si veda il bel libro La scorciatoia, pubblicato quest’anno da Nello Cristianini per i tipi del Mulino).  

La convergenza possibile
Va detto che anche la scuola dell’intelligenza artificiale simbolica o ‘vecchia maniera’ è tutt’altro che defunta e anzi, sia pure in ambito prevalentemente accademico, continua a elaborare interessanti soluzioni teoriche e tecnologiche. C’è pure chi, come Yann LeCun, uno dei creatori delle reti neurali convoluzionali e attuale capo della ricerca AI di Meta, pensa che il vero e proprio salto quantico verso l’Intelligenza Artificiale Generale sarà compiuto quando le due scuole riusciranno a trovare un’area di applicazione comune: si dice sempre che i Large Language Models si esprimono attraverso il linguaggio naturale senza capire quello che dicono, e allora ecco che proprio i sistemi di ragionamento simbolico possono aiutarli a ‘capire’ il significato delle loro espressioni [si veda in proposito Shirui Pan, Linhao Luo, Yufei Wang, Chen Chen, Jiapu Wang, Xindong Wu
, Unifying Large Language Models and Knowledge Graphs: A Roadmap, arXiv:2306.08302v2 [cs.CL] 20 Jun 2023]. Vedremo.

Politica: alla ricerca del benessere comune
Benissimo, ma cos’ha a che fare tutto questo con la neuropolitica? Molto in verità, perché nell’ambito degli studi politici sta un po’ accadendo, mutatis mutandis, quel che è accaduto all’Intelligenza Artificiale. Andiamo con ordine, altrimenti rischiamo di perderci nelle astrazioni. Innanzitutto va detto che, con buona pace dei fautori della realpolitik (espressione spesso usata per giustificare comportamenti riprovevoli, un po’ come coloro che lavorando per una qualche corporation si dichiarano ‘aziendalisti’ per autoassolversi da eventuali azioni eticamente discutibili), obiettivo della politica è o dovrebbe essere il conseguimento del maggior livello di ‘benessere’ possibile per il maggio numero di cittadini. Non stiamo parlando qui di ‘welfare’ in senso tecnico, espressione che spesso indica una precisa modalità di allocazione delle risorse economiche disponibili, bensì di benessere nel significato ordinario, quello che si legge nei vocabolari. Detta in parole semplici, un buon politico è quello che fa stare bene in primis i suoi elettori e poi possibilmente anche gli altri. Il problema è che le persone sono tutte diverse e hanno opinioni a volte radicalmente differenti su cosa sia il loro benessere. Alcuni mettono l’ordine sociale e la sicurezza al primo posto, per altri è fondamentale lo sviluppo economico, per altri ancora la qualità dei servizi sociali, eccetera. Non solo, ma questo modo di intendere il benessere muta con il trascorrere del tempo e a seconda delle contingenze, sicché è abbastanza difficile disegnare una precisa mappa del benessere percepito da parte dei membri di una determinata comunità.

Politica: la domanda per eccellenza
Soprattutto in occasione delle sfide elettorali, ma non solo, i politici si pongono un interrogativo fondamentale: cosa intendono esattamente per benessere i cittadini in questo frangente storico? O, in altre parole, quali sono i temi e le argomentazioni più importanti e convincenti, cui sono più sensibili? Quando eseguono dei sondaggi i politici sono convinti di porre dei quesiti a delle persone – anzi, meglio, a degli elettori – ma in realtà le stanno ponendo al loro sistema nervoso centrale, che in fin dei conti è il vero decision maker. Parlare di ‘persone’, di ‘cittadini’ o di ‘sistema nervoso centrale’ non è esattamente la stessa cosa, per almeno un buonissimo motivo: quando si pensa a delle ‘persone’ si immagina che queste siano almeno a grandi linee consapevoli di cosa desiderano e da cosa invece rifuggono. Ma in realtà sappiamo che non è affatto così, giacché moltissima parte della vita neuro-psicologica è inconscia e quindi il cervello ‘sa’ molte più cose di quante non ne sappia la ‘persona’ che se lo porta appresso nella sua scatola cranica. Il sistema nervoso centrale della persona possiede e offre molte più informazioni della persona stessa. 

Gli strumenti del marketing
Fino a oggi per rispondere al cruciale interrogativo sul benessere percepito dei cittadini, o meglio dal loro sistema nervoso centrale, i politici si sono avvalsi di strumenti di indagine mutuati per larga parte dal marketing di prodotto o servizio. Come sappiamo, da una parte ci sono gli strumenti qualitativi, come i focus group, le ricerche etnografiche, la user experience, e via dicendo, mentre dall’altra ci sono quelli quantitativi, come i sondaggi con interviste telefoniche o face to face, oppure gli analytics delle piattaforme web e dei social. Il consueto armamentario del provetto marketing manager. Tutte queste metodologie sono a loro modo solide e utili, ma condividono un aspetto fondamentale: si basano tutte sulle verbalizzazioni o i comportamenti dei soggetti esaminati, i cosiddetti ‘dati espliciti’. Tuttavia, come sappiamo, sia le verbalizzazioni sia i comportamenti possono essere dissimulativi oppure divergenti rispetto a ciò che i soggetti realmente pensano e sentono nel profondo.  Riguardo alla dissimulazione verbale può valer la pena di riportare l’opinione del celebre etologo Frans de Waal:

Frans de Waal

Il primatologo Frans de Waal

In relazione ai miei simili umani, dubito che il linguaggio possa dirci cosa sta passando per la loro testa.  Sono circondato da colleghi che studiano membri della nostra specie presentando dei questionari. Essi si fidano delle risposte che ricevono e mi assicurano di avere metodi per controllarne la veridicità. Ma chi ci dice che ciò che quelle persone dicono di se stesse riveli reali emozioni e motivazioni? […] Nessuno ammetterà mai di avere avuto pensieri omicidi, o di essere un tirchio o un cretino. Le persone mentono di continuo: perché dovrebbero evitare di farlo di fronte a uno psicologo che mette per iscritto tutto ciò che dicono? […] In effetti io sono sollevato dal fatto di lavorare con soggetti [scimpanzé, bonobo…] che non parlano, in quanto non devo preoccuparmi della veridicità delle loro dichiarazioni. [Frans de Waal, Siamo così intelligenti da capire l’intelligenza degli animali?, Raffaello Cortina Editore, Milano, 2016, pp.133-134].

Anche lo studio dei comportamenti umani è esposto a forte rischio di dissimulazione. È molto difficile studiare le persone direttamente nel loro ambiente, senza che sappiano di essere osservate, ed è noto che quando invece sanno di essere osservate si comportano in modo diverso da come si comporterebbero normalmente. Tutti gli antropologi e gli psicologi sono perfettamente consapevoli di queste difficoltà, e sostengono di conoscere delle metodologie che limitano o addirittura eliminano il rischio della dissimulazione. Sarà…
Resta infine da dire che la qualità di tutte queste ricerche, siano esse qualitative o quantitative, dipendono fortemente dalla competenza e abilità degli analisti, nonché del loro ‘stato di forma’ al momento di redigere i report.
Nessuno afferma che questi strumenti siano inutili o fuorvianti, tutt’altro. Se sono sulla cresta dell’onda da tanto tempo e su così vasta scala è indubbio che offrono un vantaggio competitivo. Tuttavia quando non si tratta di prodotti da lanciare sul mercato, ma di impostare le linee guida di un’azione politica, la posta in gioco è davvero molto alta e non ci si può accontentare delle approssimazioni. I cimiteri sono pieni di sondaggisti che al momento della verità, il quale per i politici corrisponde alle elezioni, hanno fallito miseramente le previsioni e sono stati cortesemente accompagnati alla porta. Una piccola notazione storica: fino a qualche decennio fa in Italia i sondaggi politici li faceva soprattutto l’istituto Doxa di Milano, al punto che era entrato nell’uso linguistico corrente dire “dobbiamo fare una doxa” o “lo dice la doxa”. Ebbene, da molto tempo l’istituto Doxa si guarda bene dal fare i sondaggi politici e dedica tutte le sue energie al marketing commerciale. Come mai? 

L’alternativa della neuropolitica
In buona sostanza degli strumenti di analisi basati sui dati espliciti ci si può fidare, ma entro certi limiti. Esiste un’altra opzione? Altroché: esiste, sta prendendo rapidamente piede (anche se in Italia siamo solo agli esordi), e si chiama ‘neuropolitica’. Grazie allo sviluppo scientifico e tecnologico delle neuroscienze contemporanee, abbiamo oggi a disposizione un’alternativa molto interessante ai metodi tradizionali del marketing di prodotto/servizio. Si tratta dei cosiddetti ‘predittori neurali’, ovvero di caratteristici pattern neurologici che accompagnano le preferenze del soggetto, nonché le sue scelte ed azioni successive. In questo caso invece di analizzare le verbalizzazioni e i comportamenti delle persone (dati espliciti), si studiano le loro attivazioni neurali a livello di sistema nervoso centrale (dati impliciti).

Le possibilità di indagine sui predittori neurali sono pressoché infinite, ma possiamo individuare due diversi filoni che implicano l’utilizzo di tecnologie diverse. Da un lato c’è l’indagine a livello corticale: la corteccia cerebrale è la parte del sistema nervoso centrale che si è evoluta più tardi e che ospita i sistemi funzionali percettivi, motori e cognitivi ‘superiori’. Naturalmente tali sistemi svolgono un ruolo fondamentale nella determinazione delle preferenze politiche, e  qui si usano prevalentemente strumenti come l’elettroencefalogramma (EEG), la spettroscopia nel vicino infrarosso (NIRS), la stimolazione magnetica transcranica (TMS), etc.
Dall’altro lato c’è invece l’indagine a livello di nuclei profondi (tronco encefalico e altre strutture sub-corticali): a livello sub-corticale hanno sede i sistemi emotivi più antichi (ricompensa, piacere, gioco, paura, rabbia, angoscia da separazione, etc.) che svolgono un ruolo altrettanto importante delle funzioni corticali nell’orientare le propensioni e scelte politico-elettorali. In questo caso la tecnologia fondamentale è la risonanza magnetica funzionale (fMRI). In realtà le opzioni a disposizione sono molte di più e il quadro è assai più complesso, ma questa prima suddivisione in due diversi filoni di indagine serve a garantire un primo orientamento.

Il vantaggio competitivo della neuropolitica
Benissimo, ma per quale motivo gli studiosi delle scienze politiche, i partiti e i movimenti politici dovrebbero imbarcarsi in analisi di questo tipo anziché affidarsi alle buone, vecchie metodologie di indagine del marketing tradizionale? Anche qui la risposta è netta e precisa: perché ne otterrebbero un vantaggio competitivo. I predittori neurali, in quanto dati ‘impliciti’, offrono alcuni vantaggi decisivi rispetto alle tecniche di indagine basate sulle verbalizzazioni e i comportamenti:

 – sono meno soggetti a distorsioni dissimulative o grossolani errori interpretativi.
Le persone possono dire o fare cose radicalmente antitetiche ai loro reali pensieri o sentimenti, ma non possono impedire al loro nucleus accumbens o ai loro lobi frontali di attivarsi o disattivarsi secondo determinate configurazioni quando provano piacere o disgusto.

 – perché vi sia attendibilità scientifica bastano relativamente pochi soggetti ben campionati, spesso nell’ordine delle poche decine per ogni rilevazione.

 – le indagini a livello corticale e di nuclei profondi si completano a vicenda: ciò che può sfuggire a una di esse può invece essere rilevato dall’altra. Se inoltre i risultati ottenuti attraverso le due metodologie non sono concordi, il ricercatore sa di dover approfondire l’indagine;

 – di norma i costi non esuberano quelli delle normali survey quali-quantitative, nonostante l’impiego di tecnologie avanzate.

Non sono benefici di poco conto. Soprattutto il primo punto è dirimente, anche se è doveroso menzionare un caveat: di fronte alle opportunità offerte dalla neuropolitica, la tentazione è quella di impiegarla solo ed esclusivamente in occasione delle tornate elettorali. È una scelta legittima e sicuramente foriera di risultati lusinghieri, ma in realtà il modo migliore di usare le neuroscienze è quello di abbracciare un orizzonte più vasto e costruire una base dati di lungo periodo, da implementare poi con dati specifici relativi alle diverse competizioni elettorali. Non un utilizzo sporadico e dettato dall’emergenza, bensì un centro studi permanente dedicato alla neuropolitica, attraverso il quale mappare l’evoluzione di desideri e paure, speranze e disincanti dei cittadini.

La neuropolitica come game changer
Così come l’intelligenza artificiale è passata dall’interrogare gli esperti umani per modellare le basi di conoscenza (knowledge base) all’interrogare direttamente le base-dati con l’ausilio degli strumenti statistico-matematici, così negli studi politici si sta passando dall’interrogare le persone affidandosi alle loro verbalizzazioni e ai loro comportamenti all’interrogare direttamente il loro sistema nervoso centrale alla ricerca di pattern neurologici inequivocabili. Anche in questo caso si tratta di un’autentica rivoluzione, senza bisogno di tirare in ballo il povero Copernico. Alla fine, probabilmente, i due modelli troveranno un modus vivendi cooperativo, anche se sono convinto che prima di ciò assisteremo a una definitiva affermazione dell’approccio neuropolitico. Negli Stati Uniti e in altre nazioni europee il cambiamento è già in corso, ma l’Italia può recuperare in fretta, essendo uno dei poli di eccellenza mondiale in tema di neuroscienze e potendo quindi avvalersi di ricercatori di prim’ordine. Cosa aspettiamo?