ANALISI VOCALE/LVA
La Layered Voice Analysis esamina la voce dell’interlocutore per comprendere se al di là delle parole si nascondano delle emozioni positive o negative. È quindi una modalità di analisi che ha lo scopo di misurare diversi componenti vocali (emozioni) quali, ad es., l’eccitazione, la confusione, l’attenzione. La rilevazione e lo studio di una risposta fisiologica ad uno stimolo è il meccanismo scientifico sul quale si basa l’osservazione e la tecnica specifica della Layered Voice Analysis. Questa risposta fisiologica può essere una qualunque e dipende da ciò che si desidera analizzare. Infatti in questa metodica si analizza anche la componente verbale oltre la componente vocale della risposta che viene utilizzata per rispondere a delle domande (interviste e colloqui) o nel raccontare qualcosa (esposizione in base ad un tema richiesto). In questo senso è molto utile il confronto fra il livello verbale e la componente paralinguistica su cui si concentra la tecnica della Layered Voice Analysis. Nei casi in cui si voglia solo individuare i picchi di “tensione” (stress psicofisiologici) rilevabili nella voce del soggetto sottoposto ad un’intervista si ricorre all’Analisi di Stress Vocale. Questa metodica mira all’individuazione di variazioni acustiche nella frequenza principale della voce del soggetto (8-14 Hz in condizioni normali), in quanto è scientificamente provato che nelle situazioni che richiedono un’attività mentale o psicomotoria maggiore (ad es, provare una forte emozione) la modulazione della frequenza diminuisce mentre il tessuto muscolare che circonda le corde vocali in risposta allo stimolo limita di fatto la naturale vibrazione delle corde. La strumentazione necessaria per l’analisi analogica consiste in un microfono, in una macchina che codifica i segnali vocali in segnali analogici e li trasmette su un poligrafo e, solo in ambito forense, in un siero da somministrare all’informatore come, ad es., il pentotal, per disinibire le risposte. Nell’analisi digitale, invece, tutto ciò che serve è un microfono e un computer e può essere eseguita anche all’insaputa dell’informatore.
BIOFEEDBACK
Il Biofeedback nasce in America alla fine degli anni ’60 e la successiva implementazione dei sistemi di registrazione (spesso anche portatili) e dei sistemi computerizzati, ha permesso un consistente ampliamento delle potenzialità della procedura. La tecnica del biofeedback permette di gestire volontariamente alcune funzioni fisiologiche, relative al sistema nervoso autonomo, che sfuggono al controllo cosciente della persona come il battito cardiaco. Il Biofeedback è quindi una procedura psicofisiologica di autoregolazione di funzioni corporee. Impiegato in diversi disturbi (dolore cronico, ansia, stress, etc) caratterizzati da elevata reattività vegetativa (frequenza cardiaca o pressione arteriosa) il biofeedback (o retroazione biologica) è un metodo d’intervento psicofisiologico inquadrabile nell’ambito della psicofisiologia applicata attraverso il quale l’individuo impara a riconoscere, correggere e prevenire le alterazioni fisiologiche alla base di queste diverse condizioni patologiche con conseguente loro riduzione o eliminazione. Grazie al biofeedback, una certa funzione corporea (ad es, la tensione muscolare o la temperatura cutanea) viene monitorata mediante l’uso di elettrodi o di trasduttori applicati sulla pelle del soggetto. I segnali captati vengono amplificati ed usati per gestire segnali acustici o visivi che possono consentire al soggetto di adottare strategie di controllo per imparare a controllare volontariamente la funzione monitorata. La strumentazione per biofeedback svolge l’attività di monitorare i cambiamenti fisiologici, se possibile, di misurarli, e la presentazione dell’attività monitorata in una forma adatta attraverso: elettromiografia (EMG), vasocostrizione periferica, attività elettrodermica (EDA).
ECONOMIA COMPORTAMENTALE
È un campo di ricerca prodotto dalla combinazione tra psicologia ed economia il cui obiettivo è una migliore comprensione del comportamento economico. In altre parole, l’E.C. cerca di comprendere l’effetto dei processi mentali e psicologici, tra cui le emozioni, sui processi decisionali in una varietà dì contesti economici. Pertanto, studia gli effetti psicologici, sociali, cognitivi e i fattori emotivi che influiscono sulle decisioni in campo economico, istituzionale e le conseguenze sui prezzi di mercato, i rendimenti e l’allocazione delle risorse. Behavioral economics is primarily concerned with the bounds of rationality of economic agents. Lo studio dell’economia comportamentale indaga i presupposti che influiscono sui processi decisionali ed i meccanismi che guidano la scelta pubblica in un contesto di mercato. L’economia comportamentale riguarda principalmente i limiti della razionalità in agenti economici attraverso l’elaborazione di modelli di comportamento alternativi rispetto a quelli formulati dalla teoria economica standard. Behavioral models typically integrate insights from psychology, neuroscience and microeconomic theory; Tipicamente i modelli di comportamento esplorati dall’E.C. integrano intuizioni che vanno dalla psicologia, alle neuroscienze, fino alla teroria microeconomica;in so doing, these behavioral models cover a range of concepts, methods, and fields. così facendo, questi modelli di comportamento coprono una vasta gamma di concetti, metodi e campi.
ELETTROCARDIOGRAMMA
L’elettrocardiogramma, o ECG, è un esame diagnostico, che prevede l’utilizzo di uno strumento capace di registrare e riportare graficamente il ritmo e l’attività elettrica del cuore. In questo modo si ottiene un tracciato che registra l’attività del cuore tramite elettrodi applicati in diversi punti del corpo (si utilizzano dieci elettrodi posti sul torace e sugli arti inferiori e superiori). L’ECG rappresenta graficamente l’attività elettrica del cuore durante la contrazione ed il rilasciamento (sistole e diastole) degli atri e dei ventricoli. La possibilità che abbiamo attualmente di eseguire l’ECG deriva da una serie di intuizioni e scoperte che iniziano nel diciottesimo secolo e si concludono nel 1901 con la realizzazione del primo elettrocardiografo. Questo apparecchio anticipato dagli esperimenti di Lugi Galvani, dalle intuizioni di Du Bois-Reymond e dall’introduzione di un “elettrometro capillare” da parte di Gabriel Lippman, venne inventato nel 1887 dal tedesco Augustus Waller e perfezionato successivamente dal fisiologo William Einthoven. Il principio alla base dell’elettrocardiogramma (ECG) è quello secondo il quale la contrazione di ogni muscolo si accompagna a modificazioni elettriche chiamate “depolarizzazioni”; pertanto le modificazioni legate alla contrazione del muscolo cardiaco sono visibili solo se il soggetto sarà completamente disteso e rilassato, per evitare la contrazione dei muscoli scheletrici, che potrebbero falsare le registrazioni cardiache.
ELETTROENCEFALOGRAFIA
L’elettroencefalografia (EEG) è stata inventata nel 1929 da Hans Berger (medico tedesco), ed è una tecnica che registra l’attività elettrica dell’encefalo. Permette la misurazione, attraverso l’applicazione sulla testa di un certo numero di elettrodi, dell’attività elettrica del cervello, che a sua volta è la somma dell’attività elettrica di ogni singolo neurone. Il tracciato, formato da onde di frequenza e ampiezza diverse, mostra in quali aree cerebrali questa attività elettrica è presente o alterata. Con l’elettroencefalografia si può studiare l’attività elettrica cerebrale sia durante la veglia sia nel sonno, sia durante particolari condizioni di attivazione (Iperventilazione, Stimolazione luminosa intermittente ecc.). L’elettroencefalografia è l’unica tecnica che permette un monitoraggio nel tempo della funzione cerebrale e può evidenziare anomalie anche in assenza di lesioni strutturali documentabili. I parametri fondamentali dell’EEG sono la frequenza (misurata in Hz, numero di onde al secondo) e l’ampiezza (misurata in mV) delle oscillazioni di potenziale, o ritmi EEG. Tale frequenza varia a seconda del tipo di attività in cui il cervello è impegnato e può essere misurata con apparecchi elettronici. La variazione di tali onde si correla specificamente a eventi fisiologici (attività, concentrazione, sonno, stimolazioni sensoriali etc.) e patologici (tumori, ematomi, epilessia etc.).
FACEREADER
Il Face Reader è il primo strumento al mondo in grado di analizzare automaticamente le espressioni facciali, fornendo agli utenti una valutazione oggettiva delle emozioni del soggetto esaminato.
Oltre all’analisi automatica delle 7 espressioni facciali corrispondenti alle 7 emozioni universali (gioia, tristezza, paura, rabbia, disgusto, sorpresa, disprezzo) e l’espressione neutra, rileva anche la direzione dello sguardo, l’orientamento del volto e le caratteristiche del soggetto, come ad esempio, sesso ed età.
L’ultima versione del noto software della Noldus (la 7) è in grado di analizzare l’espressione in circostanze difficili, per esempio, quando una parte del volto è nascosta compensando alcuni limiti di quella precedente.
Da tempo viene utilizzato in più di 300 università, istituti di ricerca e aziende sparse in tutto il globo e impiegato nelle ricerche di mercato, negli studi di usabilità, nella psicologia, nella ricerca educativa etc.
FILOSOFIA DELLA MENTE
È una branca della filosofia che studia la natura della mente, gli eventi mentali, le funzioni mentali, le proprietà mentali, la coscienza e la loro relazione con il corpo fisico, in particolare col cervello. Il cosiddetto problema “mente-corpo” (mind-body problem), fino al XX sec. definito “problema anima-corpo”, rappresenta una delle questioni cruciali della filosofia della mente, oltre a quelle che riguardano la natura della mente e di quella della coscienza.
Oggi, con le nuove scoperte della neurofisiologia, tale problema si è specificato in quello mente-cervello. Nella filosofia della mente si vorrebbe risolvere questo problema fondamentale ed arrivare ad una scienza efficace ed esauriente delle componenti funzionali della mente (soprattutto della coscienza) e della loro integrazione operativa (fonte: wikipedia).
GALVANIC SKIN RESPONSE
La Risposta Galvanica Cutanea chiamata anche GSR (dall’inglese Galvanic Skin Response) rappresenta uno degli indicatori principali in cui il nostro corpo reagisce alla tensione o ad un qualsiasi evento, di qualsiasi natura che si manifesta al suo interno o al suo esterno e che può modificarne lo stato psicofisico. Il primo strumento consisteva in un misuratore elettrico chiamato Galvanometro, dal nome dello scienziato italiano del 18esimo secolo, Luigi Galvani (da questo deriva anche il nome GSR) e fu usato per la prima volta in bioenergetica negli anni ’50 in Germania dal famoso Reinhold Voll. Anche conosciuto come EDA (Electrodermal Activity), che è la proprietà del corpo umano che provoca una variazione continua delle caratteristiche elettriche della pelle e quindi definita come un cambiamento delle proprietà elettriche in seguito ad eventi quali lo stress o sudorazione da esercizi fisici. Il GSR rappresenta un indice di attività delle ghiandole sudorifere e della larghezza dei pori che sono entrambi controllati dal sistema nervoso simpatico. Le variazioni misurate con estrema sensibilità e precisione consentono di apprezzare l’impedenza della pelle umana (il valore della resistenza cutanea) e la temperatura corporea in situazioni diverse in corrispondenza di eventi provocati o spontanei.
LINGUISTICA COGNITIVA
È lo studio del linguaggio nella sua funzione cognitiva, dove con “cognitiva” si riferisce al ruolo cruciale delle strutture informative (mentali) che mediano la nostra interazione col mondo.
Si tratta di un diverso approccio al linguaggio che si concentra sul linguaggio naturale come mezzo per organizzare, elaborare e trasmettere tali informazioni.
Uno dei presupposti centrali sottostanti la ricerca in L.C. è che l’uso del linguaggio riflette la struttura concettuale, e che quindi lo studio del linguaggio può informarci sulle strutture mentali alla base del nostro agire linguistico.
La linguistica è quivi concepita come una forma di conoscenza che fa parte della cognizione e del pensiero.
In tal senso la L.C. vede il comportamento linguistico come elemento non separato dalle altre abilità generali che permettono processi mentali di ragionamento, l’apprendimento e la memoria, l’attenzione, etc, ma come parte integrante e strettamente interrelato ad esse.
MAGNETOENCEFALOGRAFIA
La MEG (Magneto Encefalo Grafia) è una tecnica di imaging biomedico funzionale utilizzata nella neurologia, che si basa sulla misurazione dei campi magnetici prodotti dall’attività elettromagnetica dell’encefalo per mezzo di dispositivi altamente sensibili come i superconducting quantum interference devices (SQUIDs). Tali campi magnetici sono estremamente deboli, tanto da richiedere di eseguire la MEG in stanze schermate da segnali magnetici. Viene quindi usata per valutare le fluttuazioni del campo magnetico che l’organismo produce, studia dunque la funzionalità cerebrale tramite la misura di tale campo magnetico generato dall’attività elettrica cerebrale, fornendo ottimi risultati. La MEG è stata sviluppata a partire dagli anni sessanta del secolo scorso ma è stata aiutata in maniera notevole dai recenti sviluppi avanzati degli algoritmi di calcolo e nella componente hardware.
NEUROCOMUNICAZIONE
Col termine “NeuroComunicazione” ci riferiamo all’utilizzo di tecniche verbali, non verbali e visive che stimolano determinati stati della mente e funzioni del cervello, tali per cui un soggetto possa essere maggiormente influenzabile e persuadibile. Pertanto, acquisire e saper utilizzare strumenti che favoriscano tale stato del cervello e della mente, significa poter influenzare il pensiero (inconscio cognitivo e emotivo) e orientare l’azione del target di riferimento sia esso individuo o gruppo.
NEUROFEEDBACK
Il Neurofeedback (o EEG Biofeedback), derivato dal Biofeedback, si propone di intervenire a livello neurocognitivo consentendo la visualizzazione in tempo reale su un monitor della propria attività elettroencefalografica (EEG), che, come sappiamo, è caratterizzata da onde cerebrali con una specifica morfologia, frequenza e ampiezza (onde gamma, beta, alfa, theta, delta). Pertanto il neurofeedback è un procedimento teoricamente finalizzato ad applicare i principi del Biofeedback (BFB) relativi all’automodulazione di alcune funzioni del SNC (Sistema Nervoso Centrale). Tale autocontrollo verrebbe facilitato tramite le informazioni derivanti dall’elettroencefalogramma (EEG) elaborato da un computer. Il computer visualizza con un ritardo di pochi millisecondi l’elettroencefalogramma del soggetto, fornendogli così un “feedback” in tempo reale dei suoi processi elettroneurofisiologici, ed aiutandolo così nel provare a modularli. Quando la modificazione avviene nella “direzione” voluta, il soggetto viene “rinforzato positivamente” (ad esempio, con un suono). In questo modo, grazie ad un esercizio continuativo, secondo i sostenitori del metodo, dovrebbe essere possibile praticare regolarmente questa forma di automodulazione e quindi migliorare le prestazioni raggiungendo uno stato psicofisiologico cognitivo-emozionale ottimale (ad esempio in manager o atleti), o trattare alcuni stati disfunzionali (come l’emicrania, le difficoltà di concentrazione, i deficit di attenzione presenti nel ADHD).
NEUROMARKETING
Come è oramai noto il NeuroMarketing è una branca di riferimento delle cosiddette “neuro-economie” che, in quanto tale, si trova nel punto di incontro tra neuro economia, neuroscienze e psicologia cognitiva dei consumatori e che quindi fonde il marketing tradizionale (economia) con neurologia (medicina) e psicologia (scienze comportamentali).
NEUROSCIENZE
Neural correlates of consciousness [minimal set of neuronal events that gives rise to a specific aspect of a conscious percept]. Scopo delle neuroscienze (neurologia, neurofisiologia, neurobiologia) è di trovare correlazioni specifiche e possibilmente stabili fra eventi fisico-chimici del sistema nervoso centrale ed eventi mentali.
OCULOMETRIA/EYETRACKING
L’oculometria, definibile come monitoraggio oculare e meglio noto col termine inglese eye tracking, è un processo di misurazione del punto di fissazione oculare o del moto di un occhio rispetto alla testa. Questa tecnica permette quindi di analizzare il movimento dell’occhio, quando si osserva qualcosa, e di ottenere la misurazione attraverso un rilevatore di movimento (“eye tracker“), ricavandone il tracciato, in modo da evidenziare gli spostamenti e i punti dove lo sguardo si è soffermato più a lungo. Tali misure sono consentite dall’utilizzo di una speciale telecamera puntata al centro di una o entrambe le pupille che ne registra movimenti, pause e il tempo di permanenza dello sguardo su un oggetto. Il tracciamento oculare che se ne ottiene definisce l’intero percorso dell’occhio durante la visione; il software collegato è in grado di “tradurre” quel movimento in una mappa di calore (heatmap) che evidenzia, nelle parti più rosse (quelle più calde), la concentrazione maggiore dell’attenzione.
Risalgono alla fine dell’Ottocento i primi studi sui movimenti oculari basati su osservazioni dirette. Dapprima Javal che nel 1879 scoprì che gli occhi del lettore non si muovono uniformemente sulla pagina ma fanno una serie di piccole pause prima di giungere alla fine di una riga. Purtroppo non portarono a risultati notevoli e da parte dei ricercatori vari furono i tentativi di trovare il metodo migliore per il monitoraggio oculare. Finché Edmund Huey nel 1898 costruì un rudimentale eye tracker costituito da una specie di lente a contatto collegata ad un puntatore in alluminio, che si spostava in risposta ai movimenti oculari. Questo gli consentì di registrare i movimenti oculari di un soggetto nel momento in cui stava leggendo un testo. Grazie a questo basilare strumento riuscì a dimostrare che leggendo un testo non ci si concentra su ogni singola parola, ma solo su quelle che il nostro cervello ritiene più rilevanti (immagine Huey). Negli anni’30 del secolo scorso Judd sviluppa la eye movement camera che fotografava con elevata frequenza i movimenti oculari rilevando un raggio di luce riflesso da uno specchio sulla cornea del soggetto e dalla cornea in un film attraverso una lente. Ma il primo eye tracker di tipo non intrusivo venne costruito da George Buswell a Chicago nel 1935 sviluppando il sistema di Judd attraverso il cosiddetto Experimental study of the eye-voice span in reading. Una sorgente luminosa illuminava l’occhio e il riflesso veniva impressionato su di una pellicola; il movimento dell’occhio provocava un corrispondente spostamento del tracciato impresso sulla pellicola stessa. Successivamente, nel 1950 Alfred L. Yarbus svolse importanti ricerche sull’eye tracking pubblicando nel 1967 un saggio tuttora considerato uno dei più importanti. Yarbus dimostrò sperimentalmente che la visione è un processo attivo costituito da molti movimenti oculari (per ogni secondo). Durante la visione vengono selezionate e ripetutamente scansionate solo alcune parti dell’immagine: quelle che presentano il maggior contenuto informativo. Attualmente i progressi tecnologici hanno reso disponibili sistemi di eye tracking che riescono a registrare la dilatazione e la contrazione delle pupille e dispositivi facilmente indossabili dal design ultraleggero che ricordano un paio di occhiali e che registrano i movimenti oculari ovunque ci si trovi. Grazie ad una vista laterale che assicura un comportamento naturale, mostra esattamente ciò che una persona sta guardando in tempo reale come se questa si muovesse liberamente in un museo, in un negozio, o in qualsiasi ambiente reale. Si tratta di una tecnica molto utile per studiare il comportamento dei consumatori perché spesso non siamo del tutto coscienti di cosa stiamo guardando e per quanto tempo. Tuttavia gli studi di oculometria producono una vasta mole di dati che richiedono un’analisi ponderata da parte degli esperti. Questo lavoro può richiedere molto tempo e risorse.
ONDE CEREBRALI/RITMI EEG
L’interpretazione di un tracciato EEG si basa sullo studio dei suddetti parametri. Gli scienziati suddividono comunemente i ritmi EEG in “cinque bande”, che corrispondono a cinque fasce di frequenza e che riflettono le diverse “attività del cervello”.
Delta (0.1-3.9 Hz): è il ritmo EEG che corrisponde a stati di sonno profondo o a condizioni patologiche quali coma e forme tumorali. Il bambino nei primi due anni di vita è prevalentemente in Delta e nell’adulto è lo stato di coscienza che favorisce la Rigenerazione cellulare e gestisce il ripristino dell’equilibrio del nostro corpo. Queste onde vengono anche chiamate “onde lente” (quarto stadio del sonno), in quanto caratteristiche del cosiddetto sonno N-REM (non REM), ma che non è ancora il sonno REM (quinto stadio del sonno). Riuscire ad entrare nello stato delta da sveglio, vuol dire aprire un accesso alla parte inconscia della nostra conoscenza. Queste onde aumentano incredibilmente le capacità mentali e l’intelligenza, permettendoci di risolvere più velocemente e più facilmente qualunque problema ci venga sottoposto.
Theta (4-7.9 Hz): queste onde, comunemente rilevabili nella regione delle tempie, corrispondono allo stato di profondo rilassamento; in condizioni normali si presentano nei primi minuti dell’addormentamento, quando si è ancora in uno stato di dormiveglia. Il ritmo delle onde theta è dominante nel neonato, presente in molte patologie cerebrali dell’adulto, negli stati di tensione emotiva e nell’ipnosi. Queste onde aumentano le funzioni cerebrali, migliorando la memoria e rendendo più facile e duraturo l’apprendimento. Osservando l’attività neuronale nella corteccia prefrontale (deputata all’apprendimento e alla memoria), durante questa fase vengono attivati i recettori per l’acetilcolina, un neurotrasmettitore preposto a trasmettere impulsi a livello di Sistema Nervoso Centrale e di Sistema Nervoso Periferico, che favoriscono un miglioramento nella capacità di apprendimento.
Alpha (8-12.9 Hz) o di Berger: la loro presenza è riconducibile a stati di coscienza tranquilla e corrisponde a uno stato di leggero rilassamento; normalmente è lo stato in cui si trova una mente calma e concentrata. È quindi caratteristica delle condizioni di veglia, per cui non sono presenti nel sonno o nelle condizioni di riposo mentale (fatta eccezione per lo stadio REM). Viene anche chiamato lo stato del “super-apprendimento”, poiché la mente sembra essere più ricettiva e più aperta ad assimilare nuove informazioni. È quindi una condizione caratterizzata, quindi, dalla capacità di immagazzinare e richiamare una grande quantità di informazioni, velocemente e in modo efficace. Durante questa fase aumenta la produzione di serotonina. Quando un soggetto è invece sottoposto ad un’attività cerebrale leggermente maggiore si comincia a registrare la presenza del ritmo beta.
Beta (13-30 Hz): l’attività di queste onde è dominante in un soggetto ad occhi aperti e corrisponde a una coscienza “attiva o concentrata” che implica una corteccia altamente attivata soprattutto nell’area frontale e centro-parietale. Quello beta è lo stato in cui ci troviamo normalmente quando siamo svegli o siamo impegnati in un’attività cerebrale qualsiasi: mentre stiamo lavorando, guidando o parlando. Sono riconducibili a questo stato, problemi specifici legati al vivere quotidiano, come, ad esempio, l’ansia, il panico e lo stress.
Gamma (30-42+Hz): onde che indicano una corteccia altamente attivata e quindi caratterizzano gli stati di particolare tensione: stati di intenso lavorio mentale, risoluzione di problemi complessi e forti emozioni come la paura; durante l’attività mentale intensa presentano l’ampiezza minima.
RISONANZA MAGNETICA FUNZIONALE
Nel 1992 si avvia lo sviluppo della Risonanza Magnetica Funzionale (fMRI), finalizzata alla costruzione di una mappa del cervello umano sulla base della risposta agli stimoli esterni e all’individuazione delle regioni del cervello responsabili del controllo del pensiero e del movimento. Questa tecnica consiste nell’uso dell’imaging a risonanza magnetica (MRI) per valutare la funzionalità di un organo o un apparato, in maniera complementare all’imaging morfologico. La diagnostica per immagini mediante risonanza magnetica (RM) utilizza brevi scariche (impulsi di radiofrequenza) di onde elettromagnetiche (onde emesse da atomi di idrogeno) inviate al magnete e assorbite dai protoni dei tessuti del paziente sottoposto all’esame (rispetto al campo magnetico proiettato sul cervello). È quindi una tecnica in grado di visualizzare la risposta emodinamica (cambiamenti nel contenuto di ossigeno del parenchima e dei capillari) correlata all’attività neuronale del cervello consentendo di rilevare i collegamenti tra l’attivazione del cervello e i compiti che il soggetto esegue durante la scansione. La modificazione dello stato di ossigenazione dell’emoglobina nei globuli rossi è il principio teorico dell’effetto BOLD (Blood Oxygen Level Dependent), sul quale la fMRI si basa e che viene utilizzata come mezzo di contrasto endogeno. La fMRI si caratterizza per l’assenza di invasività (non viene somministrato mezzo di contrasto paramagnetico), l’elevata risoluzione spaziale e temporale e la facile riproducibilità come la possibilità di co-registrazione con immagini anatomiche di alta qualità.
TOMOGRAFIA A EMISSIONE DI POSITRONI
Abbiamo visto nei primi anni ’70 del secolo scorso Allen Cormack e Godfrey Hounsfield hanno introdotto la Computed Tomography (CT) basata sul modello matematico di Radon, ovvero sulla possibilità di ricostruire immagini di un oggetto dalle sue proiezioni. La tomografia a emissione di positroni (o PET, dall’inglese Positron Emission Tomography) è una delle tecniche di medicina nucleare e di diagnostica medica cui si ricorre per la produzione di bioimmagini (immagini del corpo). Il risultato infatti porta all’ottenimento di mappe dei processi funzionali all’interno del corpo. A differenza di TC e RM, che invece forniscono informazioni di tipo morfologico del distretto anatomico esaminato, la PET fornisce informazioni di tipo fisiologico. La PET/CT (Positron Emission Tomography/Computed Tomography) è uno strumento di diagnostica per immagini che viene utilizzata, oltre a numerosi altri campi di applicazione, anche per lo studio dell’encefalo. La PET/CT cerebrale ad esempio permette di raccogliere informazioni sul metabolismo e sulle funzioni del cervello “al lavoro” (in vivo), od anche di valutare la corretta attività delle vie chimiche di segnalazione che regolano diverse funzioni e sono legate a malattie degenerative neurologiche. La tecnica prevede la somministrazione endovenosa di un radiofarmaco (molecola contenente un atomo radioattivo) che si distribuisce a livello cerebrale (mettendo positroni) consentendo di studiarne la funzionalità o di rilevare la presenza di eventuali forme tumorali.
TOMOGRAFIA ASSIALE COMPUTERIZZATA
Tomografia Assiale Computerizzata (TAC) è una tecnica diagnostica per immagini utilizzata per esaminare il cervello. Attraverso il ricorso a raggi X vengono ricercate le differenze di densità tissutale, come la presenza di sangue. In questo modo si ottengono una serie di radiografie di sezioni orizzontali del cervello vivente. La TAC evidenzia i tessuti molli, i fluidi, le ossa e può essere impiegata per rilevare l’immagine del sistema vascolare. Preceduta nel 1930 dall’invenzione della stratigrafia (tecnica per rappresentare un solo strato del corpo sulla pellicola radiografica) da parte del radiologo italiano Alessandro Vallebona, la metodica circolare alla base della TAC fu ideata e realizzata dall’ingegnere inglese Godfrey Hounsfield e dal fisico sudafricano Allan Cormack, che nel 1979 valse loro il premio Nobel per la medicina “the development of computer assisted tomography“. Se inizialmente il tomografo computerizzato consentiva esclusivamente lo studio delle strutture del cranio nel 1974 la metodica venne estesa all’intero corpo grazie a Ralph Alfidi. Fino ai primi anni settanta la TAC era impiegata esclusivamente per la ricerca e lo studio delle patologie cerebrali. Era opinione comune e fortemente radicata che l’innovativa tecnica non potesse in alcun modo travalicare questo ambito. Fu un radiologo americano di origine italiana, il professor Ralph Alfidi, ad avere l’intuizione che tale metodica poteva essere estesa all’intero corpo nel 1975 attraverso l’effettuazione della prima TAC “ufficiale” dell’addome.
Robert CIALDINI (1945)
Psicologo statunitense, professore di Marketing presso l’Arizona State University; noto per aver identificato 6 categorie, le cosiddette “armi della persuasione”, all’interno delle quali rientrano le principali tecniche di persuasione.
Antonio DAMASIO (1944)
Neuroscienziato portoghese, professore di neurologia, neuroscienze e psicologia presso la University of Southern California; divenuto celebre grazie alle sue ricerche che hanno portato all’identificazione delle aree neuronali implicate nei processi emotivi, ma soprattutto alla dimostrazione scientifica che le emozioni sono implicate nel prendere decisioni.
Paul EKMAN (1934)
Psicologo statunitense, professore emerito presso UCSF; a partire dalle intuizioni di Darwin e dal sistema elaborato da Hjortsjö, diffonde il metodo FACS, lavoro cui si ispira una nota fiction televisiva statunitense (“Lie to me”); è considerato uno delle 100 persone più influenti del mondo.
Milton H. ERICKSON (1901-1980)
Psichiatra e psicoterapeuta statunitense; padre dell’ipnosi indiretta, riconosciuto come uno dei più importanti psicoterapeuti e ipnoterapeuti del XX sec.; al suo indiscusso e inimitabile genio terapeutico si sono ispirati numerosi modelli psicoterapici.
Michael GAZZANIGA (1939)
Psicologo e neuroscienziato statunitense, professore di psicologia e direttore del nuovo centro SAGE per lo studio della mente presso l’Università della California a Santa Barbara; ritenuto uno dei più importanti studiosi della mente, ha dedicato la sua vita alla ricerca dei codici con cui sono governati i processi mentali.
Gerd GIGERENZER (1947)
Psicologo tedesco e scienziato cognitivo, ha insegnato in numerose istituzioni accademiche tra cui l’Università di Chicago, è direttore dell’Istituto Max Planck per lo sviluppo umano e direttore del Centro Harding per il rischio alfabetico a Berlino; ideatore della “regola del pollice” e reinventore dei principi della razionalità limitata del premio Nobel Herbert Simon (scomparso nel 2001 e considerato una delle importanti menti del XX secolo): La sua eredità consiste nel prendere sul serio l’incertezza. Se la maggior parte degli economisti resta convinta che sappiamo tutto e che possediamo una perfetta visione d’insieme, Simon enfatizzava che sono le regole a farci sbagliare, non la stupidità. E quindi spiegava che dobbiamo semplificare, anziché ottimizzare modelli via via più intricati. Ci vogliono le famose “regole del pollice”, norme cioè che funzionino nel mondo reale.
Daniel GOLEMAN (1946)
Psicologo, scrittore e giornalista statunitense; celebre è la sua definizione del concetto di “intelligenza emotiva”, secondo cui la conoscenza di sé, la persistenza e l’empatia sono elementi che nascono dall’intelligenza umana, e sono quelli che probabilmente influenzano maggiormente la vita dell’uomo; ha ricevuto molti premi e riconoscimenti per le sue ricerche, tra cui due nomination al Premio Pulitzer per i suoi articoli, un premio alla carriera dall’American Psychological Association e l’elezione a membro dell’American Association for the Advancement of Science.
John M. GOTTMAN (1942)
Psicologo di fama mondiale, professore emerito di Psicologia presso l’Università di Washington; specializzato in consulenza matrimoniale e in Psicologia dello Sviluppo, ideatore e ricercatore del Love-lab e cofondatore del Gottman Institute.
Daniel KAHNEMAN (1934)
Psicologo israeliano, docente a Princeton; grazie ai suoi studi pionieristici sul processo decisionale condotti insieme a Amos Tversky è stato uno dei fondatori della finanza comportamentale; nel 2002 ha ricevuto il premio Nobel per l’economia per avere integrato risultati della ricerca psicologica nella scienza economica, specialmente in merito al giudizio umano e alla teoria delle decisioni in condizioni d’incertezza.
Stephen KOSSLYN (1948)
Neuropsicologo statunitense, fondatore e direttore delle Minerva Schools, presso il Keck Graduate Institute a Claremont in California; tra i più eminenti studiosi nel campo delle immagini mentali e pioniere della teoria del “cervello alto e cervello basso”, che pare contrapporsi alla dicotomia oramai assodata scientificamente della suddivisione in quanto a funzionalità in emisfero destro e sinistro.
George LAKOFF (1941)
Linguista statunitense, professore di linguistica presso l’Università della California a Berkeley; insieme al filosofo Mark Johnson ha elaborato una teoria sulla centralità della metafora nel pensiero umano che successivamente ha applicato anche al pensiero politico.
Joseph LEDOUX (1949)
Neuroscienziato statunitense, professore di Scienze, Scienze Neurali e Psicologiche e di Psichiatria del bambino e dell’adolescente e direttore dell’Istituto del Cervello Emotivo dell’Istituto Nathan Kline presso la NYU, direttore del Centro per le neuroscienze della Paura e dell’Ansia di New York; i suoi studi hanno riguardato, da un lato, il funzionamento del sistema limbico in relazione agli stati emozionali e, dall’altro, i modi in cui si esprime la personalità umana; a lui si deve l’individuazione della sede centrale delle emozioni, l’amigdala.
Benjamin LIBET (1916-2007)
È stato neurofisiologo e psicologo statunitense, professore presso l’Università della California a San Francisco; pioniere nelle ricerche sulla coscienza, in particolare sul tempo intercorrente tra l’esecuzione di un atto e la consapevolezza dell’averlo compiuto, con evidenti conseguenze sull’arduo problema sollevato dal concetto filosofico di “libero arbitrio”.
Giorgio NARDONE (1958)
Psicologo e psicoterapeuta italiano, fondatore, insieme a Paul Watzlawick, del CTS Centro di Terapia Strategica di Arezzo; ivi è direttore della Scuola di Comunicazione e Problem Solving Strategico, della Scuola di Psicoterapia Breve Strategica di Arezzo e docente di Tecnica di Psicoterapia Breve.
Steven PINKER (1954)
Psicologo cognitivista canadese, è stato professore al Department of Brain and Cognitive Sciences al Massachusetts Institute of Technology per 21 anni e attualmente professore di psicologia presso la Harvard University; autore di diverse opere scientifiche e di divulgazione sul linguaggio e sulle scienze cognitive.
Vilayanur S. RAMACHANDRAN (1951)
Neuroscienziato indiano, professore presso l’Università della California a San Diego; incluso nel cosiddetto “club del secolo” della rivista Newsweek, come uno dei 100 personaggi che potrebbero dare un contributo importante alla società del XXI sec., in quanto considerato uno dei massimi esperti della struttura del cervello e dei meccanismi di funzionamento della mente.
Giacomo RIZZOLATTI (1937)
Neuroscienziato italiano, direttore del dipartimento di Neuroscienze dell’Università di Parma; insieme a Fadiga, Fogassi, Pavesi negli anni’90 identificarono i “neuroni specchio” (da loro denominati così), una classe di neuroni che si attivano quando un individuo compie un’azione e quando l’individuo osserva la stessa azione compiuta da un altro soggetto; la scoperta gli è valso nel 2004 un premio istituito dalla «Grete Lundbeck European Brain Research Prize Foundation» e la candidatura al Nobel.
John R. SEARLE (1932)
Filosofo americano, professore di Filosofia della Mente e di Filosofia del Linguaggio presso l’Università della California a Berkeley; padre del “naturalismo biologico”, un approccio innovativo al problema del rapporto mente-cervello; è considerato il più autorevole studioso della mente.
Nassim Nicholas TALEB (1960)
Filosofo libanese, esperto di matematico finanziaria; noto per la sua teoria sui “Cigni Neri” (2007), eventi inattesi e con gravi ripercussioni, che lui definisce così: Esistono due tipi di eventi rari: a) I cigni neri raccontati, ovvero quelli che fanno parte del dibattito pubblico e di cui è probabile sentire parlare in televisione, e b) i cigni neri di cui nessuno parla, perché sfuggono ai modelli e di cui ci si vergogna a parlare in pubblico, dal momento che non sembrano essere plausibili. Il fatto che nel primo caso la frequenza dei cigni neri sia sopravvalutata e nel secondo gravemente sottovalutata è del tutto compatibile con la natura umana.
Paul WATZLAWICK (1921-2007)
Psicologo e filosofo austriaco naturalizzato statunitense; eminente esponente della californiana (USA) Scuola di Palo Alto che, ispirandosi alle illuminanti teorie e ricerche di Gregory Bateson e alla pratica clinica di Don D. Jackson e Janet H. Beavin nel XX secolo, definì i cosiddetti “Cinque Assiomi della Comunicazione”.
Drew WESTEN (1959)
Psicologo statunitense, è professore presso il Dipartimento di Psicologia e Scienze Comportamentali presso la Emory University di Atlanta; fondatore della Westen Strategies, società di consulenza politica e aziendale e consulente di candidati e leader del partito democratico.
Gerald ZALTMAN (1939)
Esperto di marketing, professore emerito presso la Harvard Business School; è considerato il padre del nuovo marketing basato sulla comprensione della cosiddetta “Customer Mind”; celebre è la sua definizione di “mente del mercato”, luogo di incontro tra i processi consci e inconsci dei consumatori e quelli degli esperti di marketing.
Semir ZEKI (1940)
Docente britannico, professore di neurobiologia alla University College di Londra e fondatore dell’Istituto di Neuroestetica, con base a Berkeley, in California; la sua ricerca, focalizzata sulla visione, si è sviluppata a partire dagli studi di neuroanatomia per integrarsi progressivamente nell’approccio psicocognitivo; successivamente si è concentrato sullo studio delle basi neurali della creatività e dell’apprezzamento estetico dell’arte.