Educazione

Come recuperiamo la nostra conoscenza del mondo

human brain x-ray

Per comprendere il mondo, organizziamo singoli oggetti, persone ed eventi in diverse categorie o concetti. Concetti come “il telefono” consistono principalmente in caratteristiche visibili, cioè forma e colore, e suoni, come lo squillo. Inoltre, ci sono azioni, cioè come usiamo un telefono.

Tuttavia, il concetto di telefono non nasce solo nel cervello quando abbiamo un telefono davanti a noi. Appare anche quando il termine è semplicemente menzionato. Se leggiamo la parola “telefono”, il nostro cervello richiama anche il concetto di telefono. Vengono attivate le stesse regioni del cervello che sarebbero attivate se effettivamente vedessimo, ascoltassimo o usassimo un telefono. Il cervello sembra quindi simulare le caratteristiche di un telefono quando viene menzionato solo il suo nome.

Pubblicità e progresso

Fino ad ora, tuttavia, non era chiaro, a seconda della situazione, se venisse richiamato l’intero concetto di telefono o solo singole caratteristiche come suoni o azioni e se diventassero attive solo le aree cerebrali che elaborano la rispettiva funzione. Quindi, quando pensiamo a un telefono, pensiamo sempre a tutte le sue caratteristiche o solo alla parte che serve al momento? Recuperiamo la nostra conoscenza del suono quando squilla un telefono, ma la nostra conoscenza dell’azione quando lo usiamo?

I ricercatori dell’Istituto Max Planck per le scienze cognitive e cerebrali umane di Lipsia hanno ora trovato la risposta: dipende dalla situazione. Se, ad esempio, i partecipanti allo studio pensavano ai suoni associati alla parola “telefono”, si attivavano le corrispondenti aree uditive nella corteccia cerebrale, che si attivano anche durante l’udito vero e proprio. Quando si pensa di usare un telefono, le aree somatomotorie che sono alla base dei movimenti coinvolti sono entrate in azione.

Oltre a queste aree sensoriali, cosiddette specifiche della modalità, è stato riscontrato che esistono aree che elaborano sia i suoni che le azioni insieme. Una di queste cosiddette aree multimodali è il lobulo parietale inferiore sinistro (IPL). È diventato attivo quando sono state richieste entrambe le funzionalità.

I ricercatori hanno anche scoperto che, oltre alle caratteristiche basate su impressioni e azioni sensoriali, devono esserci altri criteri in base ai quali comprendere e classificare i termini. Ciò è diventato evidente quando ai partecipanti è stato chiesto solo di distinguere tra parole reali e inventate. Qui, una regione che non era attiva per azioni o suoni ha preso il via: il cosiddetto lobo temporale anteriore (ATL). L’ATL sembra quindi elaborare concetti in modo astratto o “amodale”, completamente distaccato dalle impressioni sensoriali.

Da questi risultati, gli scienziati hanno finalmente sviluppato un modello gerarchico per riflettere il modo in cui la conoscenza concettuale è rappresentata nel cervello umano. Secondo questo modello, le informazioni vengono trasmesse da un livello gerarchico a quello successivo e allo stesso tempo diventano più astratte ad ogni passaggio. Al livello più basso, quindi, ci sono le aree modalità-specifiche che elaborano le singole impressioni o azioni sensoriali. Questi trasmettono le loro informazioni alle regioni multimodali come l’IPL, che elaborano simultaneamente diverse percezioni collegate, come suoni e azioni. L’ATL amodale, che rappresenta le caratteristiche distaccate dalle impressioni sensoriali, opera ai massimi livelli. Più una caratteristica è astratta, più alto è il livello al quale viene elaborata e più lontano viene rimosso dalle impressioni sensoriali effettive.

“Dimostriamo così che i nostri concetti di cose, persone ed eventi sono composti, da un lato, dalle impressioni sensoriali e dalle azioni ad essi associate e, dall’altro, da caratteristiche astratte simili a simboli”, spiega Philipp Kuhnke, autore principale dello studio, che è stato pubblicato sulla rinomata rivista Cerebral Cortex . “Le funzionalità attivate dipendono fortemente dalla rispettiva situazione o attività” ha aggiunto Kuhnke.

In uno studio di follow-up su Cerebral Cortex , i ricercatori hanno anche scoperto che le regioni specifiche della modalità e multimodali lavorano insieme in modo dipendente dalla situazione quando recuperiamo le caratteristiche concettuali. L’IPL multimodale ha interagito con le aree uditive durante il recupero dei suoni e con le aree somatomotorie durante il recupero delle azioni. Ciò ha dimostrato che l’interazione tra regioni specifiche della modalità e multimodali ha determinato il comportamento dei partecipanti allo studio. Più queste regioni lavoravano insieme, più i partecipanti associavano le parole ad azioni e suoni.

Gli scienziati hanno studiato queste correlazioni con l’aiuto di vari compiti verbali che i partecipanti hanno risolto mentre giacevano in uno scanner di risonanza magnetica funzionale (fMRI). Qui, dovevano decidere se associare fortemente l’oggetto nominato a suoni o azioni. I ricercatori hanno mostrato loro parole di quattro categorie: 1) oggetti associati a suoni e azioni, come “chitarra”, 2) oggetti associati a suoni ma non ad azioni, come “elica”, 3) oggetti non associati a suoni ma a azioni, come “tovagliolo”, e 4) oggetti non associati né a suoni né ad azioni, come “satellite”.