Translate

mercoledì 23 maggio 2012

Psicologia Cognitiva

Molteplici sono i campi di indagine che possono essere ricondotti all'ambito della psicologia cognitiva. In questo capitolo, si partirà da un tentativo di definizione della mente, vista in rapporto-contrapposizione con il corpo, per poi andare ad esplorare la percezione e le regole che ne stanno alla base e ci pemettono di vedere e sentire il mondo in cui viviamo, per passare poi a considerare l'apprendimento, la memoria umana con i suoi limiti e le tecniche per rafforzarla, le regole che governano il pensiero umano e le diverse concezioni dell' intelligenza.

La natura della mente

Dopo il breve viaggio compiuto tra le diverse scuole psicologiche, se vogliamo definire in termini generali l'oggetto di studio della psicologia, potremmo sentirci autorizzati a dire che ciò che essa, pur da molteplici prospettive, si propone di studiare è la mente. Prima di esaminare più nel dettaglio alcuni degli argomenti specifici delle scienze psicologiche, sarà quindi opportuno cercare di dare una definizione al termine “mente” e capire come la psicologia si rapporta con essa, da che punto di vista la studia.
Parlando di mente è difficile trovare attributi o aggettivi che la descrivano in maniera precisa e univoca, in quanto essa non possiede proprietà analoghe a quelle degli oggetti o delle entità (quali il corpo) che si posizionano nello spazio. Essa viene generalmente colta come uno “spazio interno”, qualcosa che sta dentro di noi, e che in un certo senso “osserva” quanto avviene intorno a lei. Questa visione della mente come interiorità ha portato a una visione dualistica dell'uomo: a vedere cioè l'essere umano come composto da due entità tra loro differenziate: il corpo e la mente. Questa visione pone senz'altro diversi problemi, primo fa tutti come avvenga l'interazione tra corpo e mente. Fu il filosofo francese Cartesio (1596-1650) il primo a postulare in maniera chiara e precisa il dualismo mente-corpo, considerandole quali entità del tutto separate, ma che collaborano a formare l'uomo in quanto tale (il corpo trasmette alla mente informazioni sensoriali, ed esegue poi gli ordini che gli arrivano in risposta dalla mente). La posizione di Cartesio, che è vista comunque come atto di nascita della psicologia quale disciplina che studia il mentale, è stata più volte criticata, rivista, integrata. Di conseguenza il problema del rapporto mente- corpo (mind-body problem, in inglese) attraverso il quale è possibile trovare la strada verso una definizione della mente in quanto tale, è stato ampiamente discusso. In proposito possono essere sinteticamente distinte diverse categorie di posizioni. In primo luogo le posizioni moniste, in cui si ammette soltanto l'esistenza del corpo o della mente. Abbiamo poi le posizioni dualiste, in cui si accetta la distinzione tra mente e corpo e se ne cercano ragioni e giustificazioni. C'è poi chi cerca di trovare un modo per far coesistere monismo e dualismo, sostenendo che mente e corpo non sono generi diversi di realtà, ma ammettendo nel contempo che esse hanno proprietà differenti. E infine posizioni in cui si cerca dievadere dalla distinzione mente-corpo, prospettando, per esempio, un superamento delle tradizionali categorie a cui essa fa riferimento o proponendo una concezione secondo la quale i due termini della distinzione sarebbero aspetti diversi ma compresenti di una medesima realtà, in sé né mentale né corporea, o sia mentale che corporea.
Forse il modo migliore per evadere da questo dilemma del collegamento tra le due entità mente-corpo, consiste nel considerarli come già costitutivamente uniti, intrisi l'uno dell'altra pur essendo profondamente differenziati. In quest'ottica il corpo non sarà solo fisicità, non sarà ridotto a una macchina (come voleva Cartesio), ma si arricchisce di valenze psicologiche, e la mente, dall'altro lato, lungi dall'essere considerata una cosa più o meno astratta, o un insieme di stati che si susseguono sarà ciò che dà un senso al soggetto che percepisce il mondo.
Tenendo presente il coesistere di visioni differenti rispetto al mentale, inoltriamoci a vedere come aspetti monotematici del funzionamento della nostra mente sono stati studiati dalla psicologia.

La percezione

Già più volte abbiamo visto quanto siano profondi i legami e i punti di contatto tra filosofia, e psicologia, e anche la percezione non costituisce un'eccezione. Infatti furono i filosofi i primi ad occuparsi della sua analisi. Essa, in senso filosofico generale, viene intesa come l'atto del prendere coscienza di qualcosa, mentre per la psicologia essa sarà intesa prevalentemente come l'elaborazione di dati sensoriali.
Sfumata e controversa è la distinzione tra sensazione e percezione, tanto che alcuni autori sono giunti a considerarle come parte di un'unica – per quanto complessa – funzione psichica (la senso-percezione). Ma in genere si parla di sensazione in relazione ad eventi mentali di tipo atomistico – non ulteriormente scomponibili – suscitati da stimoli relativamente semplici (lampi luminosi, singole note musicali, ecc.). Stimoli di questo genere furono molto utilizzati dagli studiosi di psicofisica di cui abbiamo parlato nel secondo capitolo, in relazione alla nascita della psicologia.
La percezione, al contrario, viene intesa come più “complessa”, in quanto consiste nella funzione psicologica che interpreta i dati sensoriali al fine di conferire a questi una configurazione dotata di significato.
A livello di senso comune siamo convinti che ciò che noi percepiamo (definito dal termine tecnico di “percetti”) corrisponda esattamente alla realtà, tendendo quindi a far coincidere in maniera precisa il mondo fisico con il mondo percepito. In realtà questa corrispondenza non è mai così precisa. Il mondo così com'è (che potremmo definire approssimativamente come l'oggetto di studio della fisica macroscopica) costituisce le stimolazioni distali. Esse però in quanto inserite in un ambiente determinato (e quindi percepite in rapporto all'illuminazione, ad altri stimoli, al punto di vista...) hanno un loro “potenziale informativo” che mettono a disposizione del sistema visivo, questo potenziale costituisce lo stimolo prossimale. Quanto di questa informazione disponibile viene effettivamente impiegato dai recettori retinici viene definito come stimolazione prossimale. Essa viene poi codificata e rielaborata e va a costituire i percetti – ciò che noi percepiamo effettivamente. L'insieme di questi processi costituisce la cosiddetta catena psicofisica, la quale è alla base del divario, spesso non percepito, ma effettivo, tra l'ambiente geografico (gli stimoli prossimali) e l'ambiente comportamentale (i percetti). Va da sé che questa distinzione fattuale tra mondo distale e mondo percepito è in un certo senso fine a se stessa in quanto una “buona” percezione è quella che permette all'uomo di interagire in maniera efficace con l'ambiente che lo circonda, e la nostra percezione è nella maggior parte dei casi ottima.
Le teorie della percezione
La percezione si presenta come argomento preferito di indagine soprattutto per le prime scuole psicologiche, che vedono nell'osservazione e nello studio dell'immediatamente percepito il campo d'indagine privilegiato per una disciplina che si propone di studiare la mente degli individui in modo scientifico. Cosa meglio delle percezioni, che rappresentano il più evidente legame tra la mente e il mondo esterno poteva essere o apparire passibile di un'indagine e una misurazione scientifici? Infatti, per quanto affiancata da altri argomenti di indagine, compare nelle formulazioni teoriche di molte delle correnti di pensiero presentate nel secondo capitolo.
Il tedesco Hermann von Helmholtz (1821-1894) nel 1867 propone la teoria empiristica, per cui quale la percezione del mondo e degli oggetti con cui ci relazioniamo quotidianamente è resa possibile sulla base dell'esperienza e dell'apprendimento che derivano dai nostri contatti con questo mondo. E quindi sulla base dell'esperienza passata che le sensazioni elementari – di per sé stesse sparse e frammentate – che arrivano al nostro cervello dal mondo esterno vengono poi associate tra di loro e integrate sulla base di conoscenze e a formare la struttura organica con la quale ciascuno di noi interagisce. Questa organizzazione degli stimoli negli adulti si basa su meccanismi di inferenza inconscia, che uniscono il mosaico di sensazioni parcellari proveniente dall'esterno al patrimonio di conoscenze dell'individuo.
La scuola della Gestalt, invece, ritiene che il significato degli oggetti percepiti dipenda soprattutto da principi interni di organizzazione del campo percettivo di natura innata, su cui hanno scarsa incidenza le esperienze passate così come le credenze e le aspettative degli individui. Anche per i gestaltisti gli stimoli in sé possono essere intesi come frammentati e composti da più parti: queste parti però si organizzano in maniera automatica a formare un campo percettivo sulla base delle dinamiche interne delle forze che li compongono (principio dell'autodistribuzione automatica). Tali fenomeni di organizzazioni sono basati su alcuni principi identificati dagli studiosi tedeschi della Gestalt (vedi il paragrafo seguente, L'organizzazione percettiva) i quali permettono agli stimoli con cui ci rapportiamo di essere percepiti come delle totalità coerenti e ben strutturate caratterizzate da proprietà e relazioni immediatamente evidenziate.
Il movimento del New Look (fondato dagli americani J.S. Bruner, L. Postman ed E. Mc Ginnies) rimarca invece che la percezione nasce dall'incontro tra gli stimoli esterni e le attese, i valori e gli interessi del soggetto, il quale diventa così un attivo costruttore delle proprie esperienze percettive. Gli individui, posti davanti a uno stimolo complesso, compiono una categorizzazione, identificandolo e categorizzandolo sulla base di dati indizi, strutturati sulla base delle relazioni e delle proprietà del percepito arricchite dall'universo motivazionale e “personale” del soggetto.
Le cosiddette teorie della percezione diretta (o ecologiche), ispirate all'opera di J.J. Gibson, sostengono che le informazioni sono già presenti nella stimolazione percepita dal soggetto e da quest'ultimo possono essere immediatamente colte senza che debbano intervenire processi di elaborazione. Il soggetto non si trova dunque né a dover rielaborare in maniera costruttiva il percepito né a integrarlo in alcun modo: deve solamente cogliere le informazioni percettive disponibili nell'ambiente. A questa ricchezza dell'informazione sensoriale, sia dal punto di vista spaziale che temporale che di ordine intrinseco, Gibson si riferisce utilizzando il termine affordances (disponibilità, appunto). Un'altra di queste teorie è quella del ciclo percettivo proposta da U. Neisser, la quale prevede l'esistenza nella mente dell'individuo di schemi che dirigono l'attenzione e l'esplorazione dell'ambiente producendo delle anticipazioni e quindi preparano il soggetto a ricevere determinati tipi di informazione e a cogliere quelle più pertinenti per i suoi scopi.
L'organizzazione percettiva
A prescindere dalle posizioni teoriche dei singoli studiosi, tutti concordano nel ritenere che alla base del mondo così come noi lo percepiamo ci sia una qualche organizzazione effettuata o recepita dalla mente che le permette di organizzare e interagire con il flusso di stimoli che percepisce in maniera unitaria e coerente.
Questa organizzazione è guidata dall'attenzione che permette di selezionare specifici stimoli e dirigere su di essi l'attività mentale: tale processo d'attenzione può dipendere da caratteristiche dello stimolo o del contesto e da predisposizioni o attese del soggetto derivanti da bisogni interni, interessi, motivazioni, risonanze emotive, esperienze passate. Un contesto in cui è facile sperimentare in prima persona questa funzione selettiva dell'attenzione si presenta in contesti particolarmente ricchi di stimoli, come ad esempio una festa. Tendenzialmente noi ci concentriamo sulla persona o le persone con cui stiamo dialogando e non prestiamo attenzione (escludiamo, filtriamo) gli altri stralci di conversazione che comunque percepiamo. Ma se da qualche parte ci arrivano stralci di una conversazione che troviamo più interessante (per esempio se sentiamo qualcuno che parla di noi) probabilmente sposteremo al nostra attenzione dall'ascolto della prima conversazione alla seconda, che senz'altro ricorderemo anche molto meglio (effetto cocktail party). Questa possibilità di selezionare gli stimoli e di passare da uno all'altro presume che la nostra mente in qualche modo percepisca tutti gli stimoli, ma poi avendo a disposizione solo una limitata quantità di canali per l'elaborazione ne elabori in maniera completa solo uno alla volta, rimanendo però sensibile alle caratteristiche salienti degli altri stimoli. Per esempio, se siamo intenti in una conversazione importante e teniamo la radio accesa in sottofondo, pur prestando maggiore attenzione alla conversazione siamo in grado di cogliere con immediatezza un cambiamento di speaker o la messa in onda della nostra canzone preferita. A questo proposito è stata proposta la teoria del filtro per cui l'attenzione nei casi in cui il soggetto riceve più messaggi concorrenti (come avviene, per esempio, nell'ascolto dicotico) seleziona un messaggio e a questo solo permette di passare alle successive fasi di elaborazione dell'informazione.
Un altro effetto legato alla percezione può però suggerire una diversa interpretazione di come la nostra mente elabori le informazioni sensoriali. L'effetto Stroop, consiste in un ritardo nei tempi di risposta (o, più in generale, peggioramento della prestazione) che si verifica quando al soggetto è chiesto di dire il nome del colore con cui è scritta una parola designante il nome di un altro colore (per esempio la parola “rosso” scritta in verde). Norman interpretò tale fenomeno postulando che la selezione attentiva abbia luogo non tanto selezionando gli stimoli in ingresso, quanto piuttosto elaborando in maniera selettiva le informazioni già presenti nella nostra memoria (e pertanto familiari) che il nuovo stimolo viene ad attivare. Nel caso sopra proposto dell'effetto stroop questi “automatismi” sono coinvolti nel processo imprescindibile di riconoscimento e processamento dei colori – stimoli tanto familiari da risultare imprescindibili a livello di processamento sensoriale.
Altre modalità di organizzazione sensoriale sono i principi di unificazione percettiva individuati e proposti dalla scuola della Gestalt , che essendo universali e innati permettono di strutturare in maniera costante, coerente e logica configurazioni sensoriali complesse. I gestaltisti ipotizzano che tre siano le macrocategorie di unificazione percettiva che guidano la nostra visione del mondo. In primo luogo abbiamo i principi di raggruppamento che sono alla base della tendenza a raggruppare stimoli isolati in insiemi dotati di significato sulla base dei principi di vicinanza (tendenza a raggruppare – a parità di altre condizioni – gli elementi tra loro vicini), somiglianza (tendenza a unificare, sempre a parità delle condizioni di contorno, elementi che ci appaiono simili), chiusura (percepiamo come unità elementi che suggeriscono una tendenza alla chiusura), continuità (tendenza a privilegiare l'organizzazione lineare che prevede percettivamente minori interruzioni) e pregnanza (si preferiscono le configurazioni che presentano il maggior grado di semplicità, regolarità, simmetria).
Importante è poi l'articolazione figura-sfondo, tendenza che porta a mettere in relazione ogni stimolo che percepiamo come “figura” a uno sfondo corrispondente: questo ci permette di mettere automaticamente in risalto la figura (il focus della nostra attenzione) che è quella che si presenta con una forma precisa (a differenza dello sfondo), e ha quindi un contorno che la definisce, mettendo in evidenza il suo “essere oggetto”, in contrapposizione all'indeterminatezza dello sfondo. La forza di questa organizzazione può essere notata osservando le cosiddette “figure reversibili” – immagini costruite in modo tale da risultare instabili con la conseguenza di far percepire al soggetto che le osserva una periodica inversione tra figura e sfondo.
Un altro fenomeno psicologico che facilita il lavoro di organizzazione percettiva della nostra mente è costituito dalla costanza percettiva in base alla quale uno stimolo ci appare identico pur variando le condizioni di stimolazione dei recettori sensoriali. Per esempio, la percezione che abbiamo di certe caratteristiche di un oggetto (forma, dimensioni, colore ecc.) non risente del fatto che l'oggetto sia visto da diversa prospettiva, da diversa distanza, con diversa illuminazione e così via. Per esempio, un libro con la copertina bianca ci apparirà bianco sotto un'illuminazione naturale, rosa sotto una forte luce rossa. Ma noi posti davanti alla domanda “Di che colore è la copertina del libro?” continueremmo a rispondere “Bianca”, pur percependo la discrepanza tra la nostra consapevolezza e la percezione in sé.
La percezione della profondità
Il mondo che percepiamo e con cui ci rapportiamo è chiaramente un mondo in tre dimensioni. Il nostro occhio, invece, lavora sulle informazioni retiniche che hanno carattere bidimensionale. La cosa apparentemente sembra presentare un forte contrasto. In realtà però il nostro cervello è in grado di superare brillantemente questa disomogeneità ricorrendo all'aiuto di informazioni/indizi sensoriali aggiuntive che l'ambiente fornisce. Questi indizi di profondità sono di tipo monoculare (si basano cioè su informazioni provenienti da un solo occhio) e binoculare (basati sulle informazioni raccolte da entrambi gli occhi e poi confrontate tra di loro). Gli indizi monoculari sono essenzialmente l'accomodazione (cioè la messa a fuoco di un oggetto da parte del cristallino – messa a fuoco che varia a seconda della distanza fisica dell'oggetto dal nostro occhio), e i cosiddetti indizi pittorici (così chiamati perché sono basi teoriche imprescindibili per i pittori) tra cui ricordiamo la sovrapposizione (tra due stimoli che si ostruiscono parzialmente, lo stimolo ostentato sarà necessariamente più vicino di quello ostruito), l'altezza sul piano dell'orizzonte (gli stimoli più lontani appaiono “più in alto”), il chiaroscuro (l'uso delle ombre per indicare profondità: viene utilizzato anche in geometria per disegnare solidi tridimensionali), la prospettiva lineare (valga il noto esempio delle rotaie del treno che tendono ad incontrarsi in prossimità dell'orizzonte) e il gradiente tissurale (tanto più un oggetto è vicino all'osservatore tanto meno quest'ultimo ne percepirà con chiarezza tutti i dettagli).
Il nostro sistema nervoso si avvale anche degli indizi binoculari di profondità che ricava dal confronto tra ciò che ogni singolo occhio percepisce. Questo confronto basato sulla disparità retinica è utile per oggetti posti a una distanza media dall'osservatore, tenendo sempre conto che quanto più un oggetto è vicino a chi lo osserva tanto maggiore sarà la disparità retinica, in quanto il cambiamento di posizione relativa dello stimolo osservato per ciascun occhio sarà ovviamente maggiore. Per oggetti che sono invece molto vicini al soggetto (7/8 metri circa) l'indizio della percezione cui si ricorre è la convergenza che va ad interpretare le informazioni provenienti dai muscoli retinici, il cui sforzo cresce in maniera proporzionale all'avvicinarsi dell'oggetto che si sta osservando.
La percezione del movimento
Il mondo con cui dobbiamo interagire, però, non è composto solamente da stimoli statici, per quanto tridimensionali. È prevalentemente con stimoli in movimento che noi ci relazioniamo; pertanto la percezione del movimento risulta tra le capacità più importanti per la sopravvivenza adattiva delle specie viventi. Come prima cosa è interessante notare come le immagini alla base della nostra percezione sono essenzialmente immagini non-statiche (i nostri occhi sono in continuo movimento per raccogliere le informazioni percettive) a prescindere che l'effettivamente percepito riguardi poi un'immagine statica o in movimento. Questa capacità di saper riconoscere gli stimoli in movimento dipende dalla differenza tra distanza assoluta e distanza relativa sulla retina: degli stimoli vengono percepiti come stabili quando la loro distanza relativa resta immutata (ad esempio leggendo un testo la posizione assoluta delle parole cambia perché si muovono gli occhi, ma la loro posizione relativa – cioè la distanza tra una parola e l'altra e la loro disposizione all'interno della pagina – resta costante), mentre quando il movimento degli occhi e il movimento assoluto degli oggetti sulla retina differiscono tra loro, si percepisce il movimento.
A volte, però, il nostro sistema di elaborazione delle informazioni può essere tratto in inganno, percependo come in movimento un oggetto o uno stimolo che è in realtà immobile. Un buon esempio è fornito dall'effetto autocinetico, un fenomeno percettivo di tipo illusivo che si verifica quando, fissando nel buio un punto luminoso fisso, si ha, dopo qualche secondo, l'impressione che tale punto si muova. Lo stesso effetto è riscontrabile nell'illusione del treno (quando trovandosi su un treno e fissando un treno posto accanto al nostro si trova difficile distinguere in maniera immediata quale dei due inizia a spostarsi), data dalla situazione particolarmente povera di indizi percettivi che rende difficile il confronto tra i movimenti relativi.
Ma generalmente non ci basiamo solo sul confronto tra movimenti percepiti sulla retina, ma possiamo avvalerci (come nel caso della percezione della profondità) di altri indicazioni aggiuntive, quali, ad esempio, il rapporto dello stimolo con lo sfondo, basato sull'illuminazione e sulla velocità del movimento percepito. È anche molto importante il movimento relativo di un oggetto riportato a un oggetto statico di confronto cui si viene sovrapponendo (l'indizio del movimento relativo è noto anche come parallasse di movimento, ed è rapportabile all'indizio monoculare di profondità della sovrapposizione).
Wertheimer, fondatore della teoria gestaltica, nel 1912 riuscì a spiegare sperimentalmente il fenomeno del movimento apparente o stroboscopico. Si tratta di un effetto percettivo (chiamato anche “fenomeno phi”) che si ha quando una rapida attivazione intermittente e alternata di due sorgenti luminose adiacenti produce nel soggetto l'illusione di essere di fronte a un unico oggetto luminoso in movimento. Il fenomeno nel quale, in sostanza, una successione di stimoli statici distinti genera l'impressione di un movimento continuo, sta alla base della tecnica cinematografica, e dipende essenzialmente dal ritmo di illuminazione delle due sorgenti luminose (che deve essere abbastanza veloce).

L'apprendimento

Con il termine apprendimento, si intende un processo, attivato dall'esperienza, che produce una modificazione relativamente permanente del comportamento. La sua funzione è quella di rendere l'individuo maggiormente adattato all'ambiente in cui vive e può essere presente anche negli organismi più semplici in forme molto elementari come la sensibilizzazione e l'assuefazione: in tal caso l'organismo, posto di fronte alla ripetizione di determinati stimoli, aumenta o diminuisce la propria reattività ad essi o ad alcune loro caratteristiche. Nelle sue forme più evolute, invece, prende in considerazione anche il ruolo svolto dall'intelligenza e dalla creatività. Nell'uomo sono riscontrabili le modalità “primitive” di apprendimento, affiancate però da altre più complesse che permettono non solo di acquisire conoscenza (sotto varie forme, pratiche e fattuali), ma anche di tramandarla nel tempo in maniera non genetica ma andando a formare un sistema culturale.
Il condizionamento classico
Il condizionamento è il processo attraverso il quale si operano modificazioni del comportamento stabilendo un'associazione tra un determinato stimolo e una determinata risposta.
Il primo a condurre ricerche sul condizionamento fu il fisiologo russo Ivan Pavlov (1849-1936) attraverso alcuni studi di carattere fisiologico. L'esperimento più famoso di Pavlov venne condotto sui cani. Egli partì dalla considerazione che la salivazione dei cani di fronte al cibo era un riflesso incondizionato, cioè una risposta innata dell'organismo. Arrivò poi a notare che il cane salivava non solo quando veniva a diretto contatto con il cibo, ma anche semplicemente udendo un segnale acustico che lo sperimentatore aveva fatto in modo di associare costantemente alla consegna del cibo. Questa reazione dell'animale, in assenza dello stimolo relativo, venne denominata riflesso condizionato.
Il condizionamento classico prevede quindi uno stimolo incondizionato (nell'esperimento, il cibo), una risposta o riflesso incondizionato (la salivazione), uno stimolo condizionato (il suono) e infine una risposta o un riflesso condizionato (la salivazione anche in assenza di cibo, ma con la sola presentazione dello stimolo condizionato - suono).
Per ottenere l'estinzione della risposta condizionata è sufficiente eliminare l'associazione fra lo stimolo incondizionato e quello condizionato: l'estinzione tuttavia non sarà totale, è possibile infatti un recupero spontaneo nel momento in cui si ripresentano le stesse condizioni.
Sempre legato al condizionamento classico sono i concetti di generalizzazione, che consiste nell'estendere la risposta condizionata ad altri stimoli molto simili allo stimolo condizionato originario, e discriminazione, che – al contrario – mira a far sì che l'animale soggetto al condizionamento sia in grado di rispondere unicamente allo stimolo target e non a stimoli ad esso simili.
L'approccio metodologico di Pavlov si caratterizza per il rigido obiettivismo, che esclude ogni ricorso alla coscienza e all'intenzione nella spiegazione del comportamento, e per l'intento di dedurre dal comportamento osservabile dell'animale la fisiologia neuronale corrispondente. Secondo lo studioso russo, infatti, il meccanismo del riflesso condizionato è alla base di tutti i processi di apprendimento sia umano sia animale.
Il condizionamento operante
Fu principalmente B.F. Skinner a proseguire gli studi sul condizionamento, elaborando il cosiddetto condizionamento strumentale, od operante, il cui fine è quello di produrre comportamenti nuovi attraverso una serie di rinforzi. L'esperimento più noto di Skinner riguarda un ratto affamato posto in una gabbia in cui si trova una leva con vicino una vaschetta vuota per il cibo: è sufficiente premere la leva per innescare il meccanismo di immissione del cibo nel recipiente. Il ratto compierà quest'azione inizialmente in modo accidentale, ma poi, essendo rinforzato costantemente dal cibo prodotto conseguentemente alla pressione della leva, tornerà a ripetere il comportamento sempre più spesso. In questo caso è la risposta del soggetto (premere la leva) ad essere strumentale rispetto alla produzione della ricompensa (rinforzo).
Nel condizionamento operante è fondamentale dunque il concetto di rinforzo: come è facilmente intuibile l'apprendimento avviene in tempi più rapidi quanto più i rinforzi sono maggiori, inoltre perché la presentazione del rinforzo sia efficace deve esserci una forte continuità temporale tra il comportamento e lo stimolo rinforzante (in caso contrario il soggetto vedrebbe le due componenti come scollegate tra di loro, e non verificherebbe di conseguenza nessun apprendimento). Inoltre è stato osservato che le risposte conformi ai rinforzi sono più frequenti quando i rinforzi non sono costanti (cioè quando le risposte corrette vengono ricompensate solamente di tanto in tanto). Da questo punto di vista possiamo parlare di rinforzo intermittente, che può essere a intervallo fisso (si forniscono rinforzi a intervalli fissi di tempo per un periodo di tempo prefissato: ad esempio un rinforzo ogni 30 secondi per 7 minuti), a intervallo variabile (si forniscono rinforzi per un periodo di tempo prefissato ma non si rispettano intervalli fissi tra un rinforzo e l'altro), a rapporto fisso (un rinforzo viene fornito dopo che il soggetto ha fornito un numero prefissato di risposte esatte) e a rapporto variabile (si fornisce un rinforzo in maniera casuale dopo un certo numero di risposte esatte). Per gli animali così come per gli esseri umani la modalità di rinforzo più efficace si è rivelata quella del rinforzo a rapporto variabile (che è poi quello alla base delle lotterie, dei “gratta e vinci” e di analoghe forme di gioco d'azzardo).
Esiste anche il rinforzo negativo, quando a una determinata risposta viene fatta seguire una punizione (per esempio, nel caso degli animali una scossa elettrica). Il ruolo e l'utilità delle punizioni sono stati discussi a lungo: il rinforzo negativo, infatti, non elimina totalmente la risposta, ma solo temporaneamente; quando la punizione non viene più associata alla risposta, l'animale infatti ritorna a premere la leva con la stessa frequenza di prima. La punizione tuttavia ha un effetto generalizzato rendendo l'animale più pauroso e più inibito e perciò anche meno disponibile all'apprendimento.
Nel condizionamento operante si parla anche di modellamento: esso consiste nell'addestramento di soggetti all'acquisizione di modi di comportamento nuovi e particolarmente complessi in maniera progressiva e per approssimazioni successive. Un esempio è quello di insegnare a un cane a rotolarsi: prima gli si insegna a sedersi, poi a distendersi, poi a mettersi su un fianco e infine a rotolarsi. L'arte del modellamento consiste nell'estendere gradualmente la risposta richiesta partendo da semplici comportamenti iniziali che, rinforzati, portano alla risposta complessa finale. Questo metodo è utilizzato anche dagli ammaestratori per gli animali del circo.
Un'altra forma di condizionamento è quella dell'evitamento che consiste nella presentazione di uno stimolo (generalmente sotto forma di segnale acustico o luminoso) poco prima di uno stimolo disturbante che l'animale può evitare emettendo una determinata risposta subito dopo lo stimolo di avvertimento.
L'approccio cognitivo
La posizione comportamentista relativamente all'apprendimento (basata cioè su un apprendimento fondato sulle regole messe in luce da studiosi quali Pavlov e Skinner a proposito del condizionamento) è stata criticata in quanto sarebbe insufficiente a spiegare le modificazioni spontanee del comportamento e soprattutto non giustificherebbe la produzione di risposte insolite o di idee creative.
I gestaltisti (di cui abbiamo già parlato nel secondo capitolo e ancora introducendo la percezione) sostengono una teoria dell'apprendimento per intuizione o insight, in cui non si tratta di aggiungere qualcosa di nuovo a ciò che è già noto, ma di riorganizzare e di ristrutturare gli elementi cognitivi in un tutto significativo in maniera più complessa e consapevole. In tal modo la soluzione non viene colta gradualmente secondo un processo per prove ed errori, ma improvvisamente e con minore probabilità di dimenticare quanto è stato fatto proprio.
Anche per lo svizzero Jean Piaget l'apprendimento non può ridursi a una risposta automatica dell'individuo all'azione dell'ambiente, né può essere solo un processo di riorganizzazione. Il soggetto infatti, nel momento in cui apprende, reinventa le conoscenze: non si può apprendere senza comprendere. L'apprendimento quindi viene visto in un'ottica sempre più complessa in cui si sottolinea l'importanza dei processi cognitivi.
Lo statunitense Edward C. Tolman sostiene che l'apprendere è dovuto a una rappresentazione schematica mentale o mappa cognitiva della situazione e ritiene inoltre che tale processo sia presente anche negli animali. Si parla a questo proposito di apprendimento latente, non espresso cioè, ma in qualche modo influenzato da fattori cognitivi già elaborati precedentemente e che vengono utilizzati, sollecitati da un rinforzo, solo al momento opportuno. È presente anche un processo metacognitivo (di riflessione cioè sopra il processo stesso dell'apprendere) che permette di organizzare la conoscenza scegliendo le strategie più adatte e controllando che vengano utilizzate adeguatamente: pianificando il ragionamento, verificando i risultati, riproponendo nuove strategie. In questo modo non solo apprendiamo qualcosa di nuovo, ma impariamo a imparare.

La memoria

Generalmente parlando con il termine “sistema di memoria” si può intendere qualsiasi tipo di sistema o struttura in grado di garantire la conservazione e il recupero di informazioni nel tempo. Un'agenda, un computer, una lavagna su cui appuntare dei memoranda possono essere considerati – ciascuno a suo modo – dei sistemi di memoria. Anche dal punto di vista della psicologia, la memoria è ciò che ci consente, attraverso una serie di processi, di trattenere un'informazione nel tempo.
Memorizzare un'informazione è un'operazione complessa che può essere scomposta in diversi fattori. Il primo fattore fondamentale della memoria è la codifica o registrazione di un evento sotto forma di schema, immagine o concetto: esso riguarda quindi la modalità con cui un'informazione è immagazzinata o rappresentata in un sistema di memoria. Il secondo fattore è la ritenzione, che si riferisce al trattenimento o immagazzinamento dell'informazione nel tempo. Il terzo fattore, infine, è il recupero, o rievocazione, che corrisponde alla capacità di riconoscere e ricordare un'informazione in un secondo tempo.
In fase di codifica l'informazione potrà essere riorganizzata, ricostruita, reintegrata sulla base di conoscenze pregresse del sistema (o di ipotesi dello stesso in caso di informazioni mancanti), per favorire la ritenzione e il successivo recupero.
Quando un qualsiasi fattore (tecnico/meccanico ad esempio sistemi di memoria fisici, disturbi attentivi, cause organiche o altro nel caso della memoria umana) influisce con le fasi di codifica o di ritenzione o recupero può verificarsi una perdita di informazione, la cui entità potrà variare nel tempo – essendo la perdita temporanea o permanente – e nell'estensione, a seconda cioè della quantità di dati coinvolti.
La misurazione della memoria
Nella seconda metà del secolo XIX lo psicologo tedesco H. Ebbinghaus diede inizio a una serie di studi sulla misurazione della memoria umana. Egli si proponeva lo scopo di studiare la memoria pura, cioè come funzione a sé stante, priva di qualsiasi interferenza culturale o soggettiva. Lo studioso progettò i suoi esperimenti in maniera che in nessun modo il ricordo potesse basarsi sul significato delle parole impiegate, ed utilizzò quindi delle sillabe senza senso (chiamate logotomi), composte da diverse combinazioni di consonate-vocale-consonate, che andavano memorizzate dai soggetti (ma per lo più Ebbinghaus utilizzava sé stesso come soggetto delle proprie ricerche) nel minor tempo possibile.
In base ai suoi esperimenti Ebbinghaus elaborò tre teorie. Nella teoria del riapprendimento notò che una determinata lista di sillabe, precedentemente appresa e poi dimenticata, può esser riappresa in un tempo minore a quello necessario per memorizzarla la prima volta; questa riduzione del tempo di apprendimento, o risparmio, sta a significare che qualcosa nella mente dei soggetti rimane. Secondo la teoria del sovrapprendimento, dopo aver verificato che vi è un risparmio di tempo nel riapprendere una lista di sillabe già memorizzata, si può anche constatare che oltre a un certo limite non è più possibile ridurre il tempo e il numero delle ripetizioni, poiché si arriva a una soglia di saturazione oltre la quale non è possibile andare. In base alla teoria dell'effetto di posizione seriale, memorizzando le parole serialmente (una dopo l'altra), vi è una maggiore possibilità di ricordare soprattutto le parole che sono all'inizio (effetto primacy) e quelle che sono alla fine della lista (effetto recency).
Nella prima metà del Novecento F. Bartlett criticò gli esperimenti di Ebbinghaus in quanto riteneva che per studiare la memoria umana fosse più utile e proficuo adoperare termini significativi piuttosto che sillabe senza senso. Questo sulla base della constatazione che in genere la memoria umana è sempre e comunque utilizzata in un contesto dotato di significato, e non su materiale del tutto decontestualizzato (quali erano i logotomi di Ebbinghaus), e non è dunque utile studiarla in condizioni tanto diverse da quelle delle sue effettive applicazioni. Bartlett condusse dunque i suoi esperimenti facendo memorizzare ai soggetti brani dotati di senso e (specialmente lavorando su storie che apparivano strane e bizzarre alle persone coinvolte, magari perché lontane dal loro universo di riferimento culturale era lontano o diverso da quello presentato nel brano da memorizzare) notò come le persone tendevano a riorganizzare gli elementi presentati loro in modo da renderli più famigliari. Questo portò a postulare l'esistenza di schemi mentali volti a organizzare in maniera efficace ricordi e conoscenze e volti a facilitare e guidare la rievocazione del materiale memorizzato.
In genere gli esperimenti riguardanti la memoria umana sono stati condotti sulle rievocazioni, sul riconoscimento e sul riapprendimento.
La rievocazione, cioè la richiesta a un soggetto da parte dello sperimentatore di ripetere il materiale (generalmente una lista di parole) memorizzato, può essere libera (“Ripeti le parole così come ti vengono in mente”), seriale (“Ripeti le parole nell'ordine esatto in cui ti sono state presentate”) o guidata (lo sperimentatore fornisce al soggetto indizi utili per aiutarlo nella rievocazione “tra le parole che hai memorizzato erano presenti nomi di frutti?”). Naturalmente la rievocazione seriale, che è quella che pone maggiori vincoli al soggetto, è anche la più difficoltosa.
A sua volta la rievocazione in sé presenta maggiori difficoltà del riconoscimento, della richiesta, cioè, di riconoscere all'interno di una lista di stimoli quelli che appartenevano a una lista precedente, quella che il soggetto era stato istruito a memorizzare. Questa è probabilmente una delle ragioni per cui tanti studenti ritengono le prove a domande aperte più complesse di quelle con domande a scelta multipla: nel primo caso viene richiesta una rievocazione libera, nel secondo caso un riconoscimento.
Il riapprendimento riguarda quanto già citato parlando degli studi di Ebbinghaus: riapprendere del materiale precedente memorizzato (e che sembra essere stato dimenticato) porta sempre e comunque a un risparmio nel tempo di apprendimento complessivo.
La teoria multiprocesso
Tra i vari studiosi che si sono occupati di ipotizzare una possibile struttura del sistema memoria dell'uomo, spiccano Atkinson e Schiffrin, secondo i quali la memoria umana non è un sistema unico, ma è caratterizzata da molteplici processi, ognuno con le proprie caratteristiche. Essi distinguono dunque tre tipi di memoria: la memoria sensoriale (o registro sensoriale), la memoria a breve termine e la memoria a lungo termine.
Il registro sensoriale è quello che ci permette di mantenere un'informazione “sensoriale” (visiva, uditiva, olfattiva, tattile) per un breve periodo (uno o due secondi). Il registro sensoriale è suddiviso al suo interno in una parte di memoria iconica, che si riferisce alla capacità di ritenere per periodi molto brevi informazioni codificate in maniera visiva, e una di memoria ecoica, che si riferisce a stimolazioni uditive. Entrambi questi sottosistemi hanno un'elevata capacità (con un “colpo d'occhio” ad esempio, possiamo cogliere molti particolari) ma anche un rapidissimo decadimento.
La memoria a breve termine (MBT), invece, permette di trattenere l'informazione per un periodo breve (30 secondi circa) ma prolungabile grazie a un processo di reiterazione, o reharsal (ripetizione silente di ciò che interessa mantenere). La reiterazione è anche la condizione fondamentale che permette il trasferimento dell'informazione dalla memoria a breve termine a quella a lungo termine. Un buon esempio del funzionamento della MBT può essere dato dalla memorizzazione dei numeri telefonici: se ci limitiamo a leggere il numero sull'agenda e comporlo sulla tastiera del telefono esso resterà nella nostra memoria solamente per pochi secondi. Se invece, dopo averlo letto, ci troviamo nella necessità di conservarlo in memoria per un maggior lasso di tempo (ad esempio perché il telefono su cui comporlo si trova in un'altra stanza) una maniera efficace per impedire lo svanire dell'informazione è proprio quella di ripetere silenziosamente le cifre che compongono il numero. Secondo G. Miller (Il magico numero sette più o meno due, 1956) la MBT è limitata in quanto può trattenere al suo interno solo sette cifre o meglio unità (dove ogni unità va intesa come insieme complesso: 1-2-3-4-5-6-7 sono sette unità, ma anche 12-34-56-78-90-11-12 sono sette unità: il numero dei numeri è raddoppiato ma il numero di “raggruppamenti” è rimasto costante).
La memoria a lungo termine (MLT) è invece quella parte del sistema che ci permette di immagazzinare più informazioni e di trattenerle più a lungo, in alcuni casi per sempre. La MLT a differenza delle altre parti del sistema che abbiamo appena descritto più che alla forma con cui l'informazione in ingresso è stata codificata, presta attenzione al significato dell'informazione stessa. Sulla base di questo principio le informazioni contenute in questa parte del sistema memoria possono essere divise in conoscenze proposizionali (o dichiarative) e procedurali. La conoscenza proposizionale riguarda la conoscenza fattuale e tutti i suoi contenuti sono sotto forma di proposizioni (da cui proposizionale) che stabiliscono relazioni tra più concetti utilizzando criteri logici di verità. Essa è a sua volta suddivisibile in episodica (riguarda episodi, eventi della vita personale, ed è strettamente collegata al contesto di codifica delle informazioni) e semantica (ha un'impronta più “culturale” in quanto riguarda il patrimonio di conoscenze, indipendentemente dal contesto in cui si sono apprese o sono state applicate). La conoscenza procedurale, si riferisce al modo in cui apprendiamo abilità percettive e motorie. Questo tipo di conoscenza può essere ben rappresentata con la forma di script, cioè sotto forma di schemi mentali a carattere generale che descrivono suddividendole in “fasi” le componenti principali di azioni o insiemi di azioni (ad esempio “mangiare al ristorante” è un buon esempio di script, in quanto tutti si aspettano una serie precisa di componenti: entrare nel locale, sedersi a un tavolo, ordinare, mangiare, pagare il conto...).
La profondità di elaborazione
Craick e Lockard hanno proposto un'alternativa a questa teoria dei processi multipli, sostenendo che la durata del tempo per cui un'informazione, è ricordata non dipende tanto dal processo di reiterazione, che permette il passaggio dalla memoria a breve termine a quella a lungo termine, quanto dalla profondità di elaborazione dell'informazione stessa. Essi sostengono cioè che la qualità e il livello di profondità dell'elaborazione cui viene sottoposta un'informazione in entrata nel “sistema memoria” determinerà il suo essere ricordata o meno.
L'oblio
Introducendo il concetto di sistema di memoria abbiamo accennato al fatto che tali sistemi possono essere oggetto di una perdita delle informazioni in essi contenuti, per cause diverse.
Nella memoria umana questa perdita dell'informazione può avvenire in uno qualsiasi dei diversi processi di memorizzazione: codifica, ritenzione e recupero, e diversi sono i fattori che possono causare l'oblio, primo fra questi il trascorrere del tempo. Secondo Ebbinghaus la ritenzione cala molto rapidamente all'inizio per poi stabilizzarsi nelle ore successive in maniera costante. Molto importante è anche il ruolo dell'attenzione: se infatti non prestiamo sufficiente attenzione nel momento di codifica dell'informazione, sarà più difficile in seguito recuperarla. Anche i fattori emotivi possono interferire con la memoria; è stato provato, per esempio, come l'ansia determini una stimolazione distraente che indebolisce la capacità di ricordare. Sono significative inoltre le interferenze di altri ricordi. L'interferenza può essere proattiva, se ciò che dobbiamo memorizzare viene ostacolato da ricordi o eventi simili precedenti; retroattiva, se l'informazione nuova ostacola la ritenzione di ciò che era già stato memorizzato. L'oblio può avere anche cause organiche come traumi cranici o danni cerebrali; la malattia più nota che riduce la capacità di memoria, soprattutto nelle persone anziane, è il morbo di Alzheimer.
Le mnemotecniche
Con il termine mnemotecniche ci si riferisce a teorie e pratiche di potenziamento della memoria naturale. Esse sono note fin dall'antichità, in quanto le prime di cui ci sia giunta notizia venivano utilizzate al fine di ricordare i lunghi e complessi discorsi degli oratori pubblici: tra i famosi oratori che ne facevano uso di certo possiamo ricordare Simonide di Ceo tra i Greci e Cicerone e Quintilliano tra i latini. Nell'antichità classica, la teoria consigliava gli espedienti utili a ritenere qualsiasi tipo di nozione difficilmente memorizzabile (termini tecnici, liste cronologiche, cause giudiziarie ecc.). L'espediente fondamentale consisteva nell'attribuire alle nozioni da ricordare la medesima disposizione degli elementi di un ambiente ben noto e familiare. Un'altra tecnica suggeriva di mettere in versi ciò che si voleva ricordare, sfruttando le facilitazioni fornite dalle assonanze metriche.
Le mnemotecniche sono poi divenute oggetto di ricerche psicologiche. Alla base di tutte queste tecniche per il potenziamento della memoria ci sono due processi fondamentali: l'elaborazione e la riorganizzazione dell'informazione. Una caratteristica comune delle mnemotecniche è l'uso di suggerimenti più facili da ricordare di quanto non lo sia l'informazione che in seguito si dovrà recuperare.
Una delle tecniche più antiche è il cosiddetto metodo dei loci in cui si abbina ciò che si vuole ricordare a una serie ordinata di luoghi noti utilizzando, per esempio, l'ordine espresso dal colonnato di un tempio, posizionando in punti noti gli oggetti o termini da ricordare e poi immaginando di percorrere mentalmente questo percorso, “incontrando” uno dopo l'altro gli elementi inseriti. Un'altra metodologia simile alla precedente è quella delle parole piolo in cui si abbinano i numeri da 1 a 10 a una lista di parole. Un altro metodo è quello della parola chiave in cui si associa una parola nuova a una di suono simile e facilmente rappresentabile per mezzo di una figura: per ricordare la parola nuova bisognerà pensare prima alla parola chiave, poi all'immagine o alle azioni ad essa collegate.
Un ulteriore sistema per migliorare la propria memoria, anche se non può considerarsi esattamente una mnemotecnica può essere il diventare maggiormente consapevoli del suo funzionamento. Questa riflessione è nota con il termine di metamemoria, la quale si riferisce appunto alla conoscenza che il soggetto ha del funzionamento della propria memoria, delle strategie e dei meccanismi che vengono messi in atto nei compiti mnestici. I primi studi, condotti dallo statunitense Flavell negli anni Settanta, hanno messo in luce l'importanza della consapevolezza che il soggetto ha dei propri processi mentali quando esegue determinati compiti (memorizzare, risolvere un problema, compiere una scelta ecc.). Varie indagini hanno dimostrato che, in genere, quando una persona migliora la propria competenza metacognitiva (cioè è maggiormente cosciente di ciò che fa la mente mentre ricorda, ragiona ecc. ed è maggiormente informata circa il modo in cui la mente lavora), migliora conseguentemente anche le proprie prestazioni.

Il pensiero e i processi cognitivi

Abbiamo appena visto come le informazioni vengano raccolte, codificate e immagazzinate dal nostro sistema di memoria. Ma la mente umana non si limita ad accumulare informazioni, è anche in grado di cogliere o formare relazioni tra esse. Questa è una capacità collegata allo svolgersi di operazioni cognitive che portano alla costruzione di rappresentazioni mentali che a loro volta costituiscono i contenuti del nostro pensiero. Questi contenuti non devono essere immaginati come entità puramente astratte, ma sono strettamente collegati alle azioni o alle operazioni che da loro conseguono. Inoltre sono sensibili (e lo dimostrano in qualche modo anche gli studi sul condizionamento) alle risposte e agli stimoli dell'ambiente. È anche importante sottolineare come molte operazioni pur se collegate a processi mentali vengano eseguite automaticamente, mentre altre sono prettamente conscie e controllate.
Quando pensiamo possiamo farlo per parole o per immagini.
Pensare per parole e immagini
Quando pensiamo per parole è un po' come se mentre pensiamo conducessimo un discorso con noi stessi, traducendo in qualche modo i pensieri in parole, strutturandole in un discorso. L'esistenza di questo tipo di pensiero (utilizzato molto dai bambini, soprattutto quando devono compiere scelte o prendere decisioni) è verificabile e misurabile empiricamente, in quanto quando utilizziamo il pensiero verbale contemporaneamente tendiamo a parlare silenziosamente dentro di noi e alcuni muscoli specifici si contraggono, come se noi stessimo effettivamente pronunciando il nostro “discorso interiore”. Ovviamente questi movimenti muscolari, per quanto siano di minima entità, possono essere registrati e studiati. Questa modalità strutturata del discorso porta con sé una forma di pensiero tendenzialmente logico-sequenziale, data dalla forma stessa della verbalità che richiede una strutturazione nel tempo e il rispetto di regole logico-formali.
Ma, anche intuitivamente, possiamo renderci facilmente conto di come ci siano alcune forme di pensiero che non procedono sequenzialmente, che prendono in considerazione contemporaneamente più elementi. Provate, ad esempio, a pensare alle ultime vacanze: si sarà formata nella vostra mente un'immagine chiara del luogo dove avete trascorso le vacanze, oppure di qualche momento particolarmente pregnante che avete vissuto. Questa immagine che percepiamo con “l'occhio della nostra mente” è una modalità di pensiero molto diversa da quello verbale logico-sequenziale. Assomiglia maggiormente a una rappresentazione pittorica o fotografica, ed è quindi associabile alla percezione di un oggetto reale. A differenza però delle immagini “reali”, le immagini mentali possono essere facilmente manipolate, scomposte, ristrutturate. Fin dall'antichità le immagini mentali, proprio per il loro essere così facilmente sperimentabili, erano considerate le abitanti per eccellenza della mente; Aristotele riteneva addirittura che non esistesse memoria o pensiero senza immagini. La visualizzazione è stata poi fortemente ripresa con la nascita della psicologia, in particolare da Wundt che le trovava oggetto privilegiato delle sue analisi introspezioniste della mente umana. Con le critiche avanzate alla metodologia introspezionista e con l'avvento della scuola comportamentista (che vede la mente e tutti i suoi contenuti come qualcosa al di fuori della portata di analisi dello psicologo scientifico) anche le immagini mentali sono state allontanate dal campo della ricerca, ma non per questo sono scomparse dal pensiero e dalla consapevolezza delle persone. Ed è proprio grazie a questa loro “immediatezza” che sono state riprese e ristudiate, inizialmente come associate agli studi sulla memoria e sulle mnemotecniche, poi come oggetto di ricerca a sé stante. Una volta riguadagnata una loro posizione come oggetto di indagine della psicologia scientifica, le immagini mentali sono state oggetto di una forte disputa che vedeva contrapposti da una parte coloro che sostenevano che esse fossero una rappresentazione fotografica degli stimoli, fossero quindi un codice di pensiero non ulteriormente riducibile. Dall'altro lato c'era chi riteneva invece che le immagini mentali fossero una specie di interfaccia utilizzata dal cervello per “ritrascrivere” determinati tipi di stimoli (per lo più visuo-spaziali) in modo da facilitarne e renderne più immediata l'elaborazione: per i fautori di questa posizione il pensiero sarebbe dunque solamente verbale e le immagini sarebbero il corrispettivo delle interfacce user-friendly dei moderni computer (noi lavoriamo con interfacce come Windows, ma il computer elabora i dati che noi immettiamo in codice binario, codice che sarebbe difficilmente interpretabile in maniera immediata dall'utente medio). Kosslyn propose una soluzione “intermedia” avanzando l'ipotesi che le immagini siano una rappresentazione non riconducibile a un codice di tipo verbale, ma che così come noi le sperimentiamo nella nostra mente siano il risultato di un'elaborazione primaria di un formato più primitivo, che agirebbe più o meno come il programma di un computer. Kosslyn e i suoi collaboratori tentarono anche, sulla base di queste ipotesi, di riprodurre il processo che darebbe origine al pensiero visivo costruendo un apposito software.
I vantaggi del pensare per immagini sono molteplici e collegati alla natura delle immagini. Come si ricordava sopra, infatti, le immagini sono facilmente manipolabili, e permettono quindi di modificare concretamente oggetti, situazioni e anche di cambiare il proprio punto di vista relativamente a uno stimolo, osservandolo anche da più prospettive contemporaneamente. Consentono altresì di confrontare in maniera rapida più stimoli, stabilire analogie anche tra ambiti concettualmente diversi tra di loro e immaginare cambiamenti e spostamenti nello spazio e nel tempo. Inoltre non essendo sottoposte ai vincoli logici che condizionano il pensiero verbale le immagini mentali risultano senza dubbio più immediate e condivisibili, e permettono di affrontare – quanto meno come punto di partenza – stimoli/argomenti nuovi o che presentano difficoltà in maniera più confidente e creativa.
Il ragionamento
Anche il modo con cui gli esseri umani ragionano, utilizzando cioè il pensiero per trarre deduzioni dalle informazioni di cui sono a conoscenza, è stato oggetto di interesse ben prima dei filosofi che degli psicologi . E a lungo si è ritenuto che le regole della logica classica fossero un buon modello del ragionamento umano. In particolare si può partire dalla distinzione tra ragionamento induttivo e deduttivo. L'induzione è un procedimento di formazione della conoscenza che dall'esame dei particolari conduce all'universale. Fu Aristotele a stabilire la differenza tra l'induzione, che partendo da fatti e da proposizioni particolari passa a principi generali e la deduzione, un procedimento che dall'universale porta ai particolari. Aristotele poi attribuì solo al sillogismo deduttivo la capacità di costituire la scienza dimostrativa, in grado di addurre la ragione di una conclusione, mentre l'induzione avrebbe avuto una validità limitata all'ambito dialettico e retorico. Il ragionamento induttivo è molto utilizzato nella vita quotidiana, perché parte da dati empirici (il particolare) per ricavarne regole generali: un buon esempio di applicazione concreta del ragionamento induttivo è la formazione di concetti.
La deduzione invece, nella filosofia di Aristotele, è il legame che unisce nel sillogismo le premesse alla loro conclusione. Come è noto un sillogismo è una struttura argomentativa in cui date due proposizioni chiamate premesse, una terza proposizione, chiamata conclusione segue necessariamente da esse: se dunque si accettano come veritiere le premesse non si può che accettare come vera anche la conclusione che da esse deriva. Le proposizioni che compongono un sillogismo possono essere di diversi tipi: universali affermative (tutte le mucche sono erbivore), universali negative (nessun uomo è una mucca), particolari affermative (qualche uomo mangia carne di mucca) e particolari negative (qualche mucca non è pezzata). Le diverse premesse si possono combinare in sedici modi diversi. Un esempio di buon sillogismo potrebbe essere: “Tutte le mucche sono erbivori. Tutti gli erbivori hanno una buona digestione. Tutte le mucche hanno una buona digestione.”
“Erbivori” è chiamato termine medio in quanto è presente in entrambe le premesse, collegandole tra di loro, ma non è presente nella conclusione.
Se la logica formale si è soffermata a studiare sillogismi, ma ha anche distinto tra sillogismi validi e non validi, gli psicologi, invece, hanno preferito concentrarsi sui processi cognitivi sottesi al ragionamento di tipo deduttivo. Come prevedibile è stato riscontrato che le persone trovano più facile applicare i sillogismi (e ne seguono più facilmente la logica) quando i concetti coinvolti non sono astratti o scientifici ma concreti e legati al loro vissuto esperienziale. Inoltre il grado di accordo o disaccordo degli individui rispetto alle conclusioni così come la piacevolezza- spiacevolezza intrinseca delle conclusioni cui porta il sillogismo, influiranno sul giudizio rispetto alla validità del sillogismo stesso. I sillogismi sono comunque considerati in genere una modalità di ragionamento piuttosto oscura e artificiosa.
Per risolvere problemi di tipo logico generalmente si utilizzano ragionamenti basati su regole di inferenza, regole cioè che stabiliscono che una certa asserzione è vera se si verificano o se sono vere determinate condizioni di contorno. Ad esempio: Amilcare suona o il flauto o il banjo. Amilcare non suona il banjo, perciò Amilcare suona il flauto (p o q; non p, perciò q). Oppure: Amilcare suona il flauto. Se qualcuno suona il flauto i vicini si lamentano per il rumore. Allora i vicini di Amilcare si lamentano per il rumore (p; se p allora q, perciò q). Ma questi tipi di ragionamenti, strettamente legati alle regole della logica formale, rimandano in maniera forte ad un ragionamento su basi astratte. Le persone che non sono pratiche dell'applicazione di queste regole preferiscono, come già si diceva a proposito dei sillogismi, rifarsi a termini più concreti.
Ph. N. Johnson-Laird per spiegare il processo che gli individui utilizzano nella vita di tutti i giorni per risolvere problemi che implicano una modalità di ragionamento di tipo deduttivo ha introdotto il concetto di modello mentale: gli individui si costruiscono rappresentazioni delle situazioni che rispecchiano il modo in cui loro le hanno comprese.
Le modalità di ragionamento appena presentate sono caratterizzate dalla peculiarità di portare gli individui a trarre delle conclusioni da date premesse. Spesso risulta opportuno, ovviamente, controllare la validità delle conclusioni cui si è giunti: il processo cognitivo con il quale compiamo questa operazione altro non è se non la verifica delle ipotesi.
È possibile verificare le ipotesi mediante le regole di inferenza sopra esposte, oppure mediante i modelli mentali, ma anche attraverso schemi pragmatici di ragionamento. Uno schema pragmatico di ragionamento può essere visto come una generalizzazione di esperienze quotidiane, dalle quali estraiamo una serie di “regole per l'agire” che poi applichiamo a casi simili che ci capita di incontrare.
Soluzione dei problemi
Quando ci si trova davanti ad una situazione nuova, che non si sa con certezza come affrontare, questa situazione viene percepita come un problema. Problema può dunque essere una situazione difficile a scuola o sul lavoro, il trovare un modo per eludere una regola troppo rigida, per ovviare a un inconveniente dell'ultimo minuto che ha scombinato i nostri piani, ma anche l'escogitare una mossa migliore per sconfiggere il nostro avversario in una partita di scacchi.
Alla soluzione per tali situazioni in genere non si perviene attraverso la deduzione o l'induzione, ma attraverso l'ideazione di una soluzione originale che non deriva dell'applicazione di principi astratti né dalla sola esperienza passata.
In linea di principio due sono le tipologie principali di ragionamento utilizzate nella risoluzione di problemi: algoritmi ed euristiche. Un algoritmo è un procedimento di calcolo che si basa sull'applicazione di un numero finito di regole che determinano in modo meccanico tutti i singoli passi del procedimento stesso. Nel Medioevo con il termine algoritmo si indicava ogni procedimento mediante il quale si eseguivano le operazioni tra i numeri naturali (ad esempio addizione, sottrazione, moltiplicazione e divisione) attraverso la loro rappresentazione decimale con le cifre arabe. In seguito il termine è stato esteso a indicare ogni procedimento che consente di risolvere un qualsiasi problema, relativo anche a enti non numerici, in modo meccanico, mediante l'applicazione di un sistema esplicito di regole effettive. Per avere un'idea dei campi di maggior impiego di strategie basate sull'impiego di algoritmi basti pensare che l'individuazione di algoritmi ha accompagnato la storia di tutti i settori della matematica, in quanto la dimostrazione di esistenza delle soluzioni per un qualunque problema è sempre stata accompagnata dalla ricerca di regole per “calcolare effettivamente” tale soluzione. Ma la ricerca di algoritmi ha assunto particolare rilevanza con l'affermarsi dell'informatica in quanto i computer sono essenzialmente esecutori di algoritmi. Di conseguenza gli algoritmi – ideali per il funzionamento di una macchina come il computer con enormi capacità a livello di gestione di sistemi di memoria – spesso risultano inattuabili per gli esseri umani in quanto richiederebbero di prendere in considerazione un numero talmente elevato di possibilità da risultare, quand'anche attuabili, del tutto antieconomiche dal punto di vista del tempo e dell'economia cognitiva.
In questi casi si può ricorrere alle euristiche, strategie di soluzione dei problemi basate sull'analisi di un numero limitato di alternative, selezionate in quanto ritenute le più promettenti, così da ridurre il tempo di ricerca rispetto all'esame completo e sistematico di tutte le possibili risposte. Un esempio di euristica è l'analisi mezzi-fini, consistente nella progressiva riduzione della distanza tra la condizione di partenza e l'obiettivo da raggiungere. Tale riduzione si opera scegliendo, tra le alternative che si presentano in ciascun passaggio del processo di soluzione del problema, quella che avvicina maggiormente alla meta finale. È come se, percorrendo una strada, a ogni incrocio si scegliesse la via che conduce più vicino al posto in cui si vuole giungere. Le euristiche sono di conseguenza una procedura molto semplificata rispetto agli algoritmi, non indicando con precisione ogni azione che il soggetto impegnato nella soluzione del problema deve o dovrebbe intraprendere, e non garantiscono, inoltre, il raggiungimento della soluzione del problema di partenza. In compenso sono particolarmente flessibili ed “economiche” e perciò vengono spesso utilizzate in maniera spontanea nella vita di tutti i giorni, anche con buoni risultati. Esse vengono utilizzate sia per la risoluzione di problemi di cui conosciamo dati certi su cui lavorare sia per stimare situazioni dove più ampio spazio è lasciato alla probabilità, e si tratta quindi di stimare la probabilità di eventi che ci sono presentati, sulla cui base procedere poi alla soluzione o a una valutazione della situazione stessa.
Nella risoluzione di problemi applicare un'euristica vuol dire innanzitutto suddividere il problema in più fasi. La prima fase è il realizzare l'esistenza di un problema (se non mi rendo conto di dover “fare” qualcosa difficilmente cercherò di attuare una qualsiasi strategia solutoria) e comprenderne la natura (Che informazioni possiedo? Di quali informazioni necessito?). Sulla base della rappresentazione del problema che ci si costruisce a partire da questa prima panoramica si passerà a cercare di impostare un piano per la soluzione del problema (quali strategie impiegare, come impiegarle, che obiettivi intermedi proporsi, anticipare i possibili ostacoli o difficoltà e ipotizzare possibili strade alternative per evitarli...), si tratterà poi di mettere in atto il piano ideato e infine di valutarne gli esiti. Tra tutte le fasi elencate la più importante per la buona riuscita del processo solutorio è la prima: fondamentale è infatti il modo in cui ci si rappresenta il problema, gli obiettivi da raggiungere e le risorse a disposizione. Questo perché costruendoci un nostro modello mentale del problema in un certo senso ritrascriviamo le informazioni che abbiamo a disposizione, integrandole con le nostre credenze e la nostra visione del compito. Questo a volte può portare fuori strada rispetto alla soluzione del problema, in quanto può capitare che ricodificando i dati si passi a una formulazione più complicata degli stessi, oppure che si aggiungano vincoli o limiti che in realtà non sono presenti nel problema in sé.
La tendenza ad applicare una strategia solutoria già sperimentata ma inadatta alla situazione contingente, o a considerare un'unica strategia escludendo a priori strategie alternative è nota come impostazione mentale negativa, che porta a considerare come apprendimenti precedenti possano, se non interiorizzati con giusta prospettiva, andare ad influire in maniera controproducente con nuovi apprendimenti in campi similari ma che richiedono processi o strategie differenti. Una particolare forma di rigidità nella soluzione di problemi è la fissità funzionale, un meccanismo mentale consistente nella tendenza a prendere in considerazione gli elementi di un problema secondo il loro uso comune o tradizionale, mentre la soluzione richiede che tali elementi vengano impiegati in un ruolo insolito.
Gli apprendimenti passati possono anche essere benefici per la risoluzione di problemi, se utilizzati in maniera creativa come spunto per produrre analogie produttive tra situazioni diverse. In psicologia infatti la creatività è intesa come la capacità di produrre molte e diversificate idee, di compiere collegamenti tra idee usualmente considerate non aventi elementi in comune (le quali tuttavia possono essere messe in rapporto attraverso una serie di passaggi associativi), di ristrutturare le situazioni. Questi elementi consentono una ristrutturazione più ampia del problema, consentono anche di superare eventuali fissità mentali e generalmente garantiscono una produzione più diversificata di strategie solutorie e una maggiore facilità nel rapportarsi a situazioni nuove.
Accennavamo poco sopra che le euristiche vengono impiegate anche per situazioni in cui ci sia una dose di incertezza nelle informazioni che possediamo, e dove sia pertanto necessario prendere decisioni sulla base di una stima delle probabilità che un fatto si verifichi o meno oppure che sia o non sia vero. Diverse dalle euristiche che vengono abitualmente utilizzate per compiti di questo genere possono condurre facilmente le persone che le impiegano a cadere in errore. Le più diffuse sono l'euristica dell'accessibilità (valutare la probabilità di un evento sulla base della facilità con cui ci vengono in mente esempi pertinenti) e l'euristica della rappresentatività (quando, dovendo formulare un giudizio riguardo quale categoria o classe meglio rappresenta un evento, una persona o un oggetto, si procede confrontando non i dati in nostro possesso conformemente a regole di logica formale, ma le due classi da paragonare). Questa euristica della rappresentatività porta anche a comprendere il falso ragionamento del giocatore d'azzardo, il quale generalmente è propenso a ritenere che sia lo stereotipo dell'irregolarità a guidare i risultati del gioco. Per cui se giocando a “testa o croce” sarà uscito per più volte di seguito “testa” si è propensi a scommettere che il lancio successivo darà come risultato croce ragionando sull'assunto che la faccia “testa” è già uscita molte volte di seguito. In realtà secondo la legge della probabilità le due facce hanno sempre la medesima probabilità di uscire, cioè 1 su 2.

L'intelligenza

Con il termine intelligenza, in senso psicologico generale, si intende quel processo mentale che permette di acquisire nuove idee e capacità che consentono di elaborare concetti e i dati dell'esperienza per risolvere in modo efficace diversi tipi di problemi. Tuttavia, il concetto è molto ampio, sicché non esiste una definizione univoca e accettata universalmente; ogni spiegazione risente sempre dell'orientamento di pensiero di chi la formula.
Teorie sull'intelligenza
La psicologia ingenua vede l'intelligenza come un insieme di capacità: essenzialmente la capacità di risolvere problemi (intesa come capacità di ragionare utilizzando processi logici, stabilire connessioni, essere flessibili), capacità verbale (saper parlare in maniera chiara, possedere un buon vocabolario) unite a una buona competenza sociale (accettare gli altri, ammettere i propri errori, possedere una buona empatia).
Da questi esempi si deduce che l'intelligenza in sé è vista come un fattore generale che comprende al suo interno fattori specifici. Su questa struttura dell'intelligenza concordano anche molti studiosi.
Secondo Ch. Spearman l'intelligenza è una capacità mentale generale, cioè un fattore di base comune a tutte le attività intellettuali, che egli chiamò fattore g. L.L. Thurstone e Guilford criticarono però la posizione di Spearman sostenendo l'esistenza di molteplici fattori di abilità mentale tra loro indipendenti (7 per Thurstone, non meno di 120 per Guilford). R. Sternberg ha cercato di sintetizzare queste diverse posizioni sostenendo che il numero dei fattori cambia con il crescere dell'età: si passa infatti da un'abilità intellettuale generale a vari gruppi di abilità. Di conseguenza, le teorie che si basano su un numero inferiore di fattori rappresentano meglio l'intelligenza dei bambini, mentre quelle che si basano su molti fattori sono più adeguate per gli adolescenti e per gli adulti. Più recentemente H. Gardner ha elaborato la teoria delle intelligenze multiple, secondo la quale non esisterebbe un'unica forma generale di intelligenza, ma distinti tipi di competenze (linguistica, musicale, spaziale, logico-matematica ecc.) ciascuna competente per l'elaborazione di uno specifico ambito di informazioni.
Misurare l'intelligenza
Nonostante l'importanza che l'intelligenza svolge per lo sviluppo dell'uomo, essa è stata per lungo tempo trascurata dagli psicologi, sia perché difficile da definire e da valutare, sia perché, a partire da Wundt i processi mentali superiori venivano esclusi dalla ricerca psicologica in quanto non valutabili in maniera rigorosa attraverso una ricerca sperimentale. Le prime indagini, effettuate da Thorndike, erano rivolte soprattutto all'intelligenza degli animali e avevano lo scopo di verificare quanto questi potessero apprendere. La Gestalt, proseguendo questa linea di indagine, considerò il comportamento intelligente come una forma di adattamento all'ambiente, diverso però dal comportamento istintivo e da quello per prove ed errori. In un comportamento intelligente, infatti, lo scopo non viene raggiunto per caso, ma dopo aver compreso la globalità della situazione, cioè dopo aver collegato consapevolmente i mezzi e i fini. Agli inizi del Novecento si è incominciato a studiare l'intelligenza in termini psicometrici, cioè elaborando dei test che potessero valutare una serie di capacità: la memoria, l'attenzione, l'orientamento spaziale e temporale ecc.
I francesi A. Binet e J. Simon elaborarono un primo test di intelligenza che avrebbe dovuto predire la prestazione scolastica di un bambino attraverso una serie di prove riguardanti la conoscenza, il pensiero, il ragionamento e il giudizio. Sulla base delle prestazioni dei soggetti veniva loro attribuita un'età mentale che rappresentava il livello di sviluppo della loro intelligenza. Per età mentale si intende quella attribuita ad un bambino sulla base del numero di prove che riesce a superare correttamente confrontato con il numero di prove superato mediamente da bambini coetanei. Un bambino di età cronologica pari a 9 anni, avrà un'età mentale di 9 anni se supera le prove che i bambini di 9 anni in media superano senza errori, di 10 se supera anche quelle che risultano facili per bambini più grandi, di 7 se invece non va oltre quelle proprie dei bambini di 7 anni. L.W. Stern introdusse poi il concetto di quoziente d'intelligenza, o QI, dato dal rapporto tra l'età mentale di un bambino e la sua età cronologica moltiplicato per 100. L'utilità pratica che può avere un punteggio ottenuto in un test di intelligenza dipende soprattutto dalla sua stabilità nel tempo. Attraverso una serie di studi si è visto che il QI rimane relativamente stabile nel corso della vita (pur con qualche piccola oscillazione), iniziando a declinare con l'età solamente dopo gli 80 anni. Nello specifico le abilità che più velocemente declinano sono quelle che chiamano in causa risposte immediate e veloci, mentre più stabili restano abilità cognitive generali quali le capacità verbali/linguistiche.
I test per la misurazione dell'intelligenza sono stati usati negli Stati Uniti a partire dai primi anni del Novecento e si sono notevolmente diffusi. Attualmente sono ancora utilizzati, sia pure rivisti e rielaborati. I più famosi sono il Terman-Merril e le scale di Wechsler per l'infanzia, la fanciullezza, l'adolescenza e l'età adulta. Queste ultime sono caratterizzate (anche rispetto ai test di Binet) non solo per il fatto che considerano un campione più ampio (la Stanford-Binet si fermava ai 16 anni) ma anche perché calcolano un punteggio separato per un QI verbale e un QI di esecuzione.
Intelligenza ed educazione
L'intelligenza è stata considerata per molto tempo una capacità innata, dipendente dal patrimonio genetico ereditato dai genitori. Attualmente, grazie soprattutto agli studi di J. Piaget sullo sviluppo dell'intelligenza nel bambino, si ritiene che a innalzare o ad abbassare il rendimento intellettuale del bambino contribuiscano sia i fattori genetici, sia i fattori ambientali. A questo proposito sono state condotte molte ricerche di confronto tra gemelli, tra fratelli e tra bambini adottivi per cercare di stabilire effettivamente quanto possa influire l'ereditarietà e quanto l'ambiente. Nonostante non si sia raggiunta una risposta unanime, si è verificato che le capacità innate non si trasformano in intelligenza effettiva senza una stimolazione dall'ambiente, e che perciò un ambiente privo di stimoli può inibire la crescita.
 In sintesi
La menteVisione dualistica dell'uomo
–Cartesio
–Posizioni moniste
–Posizioni dualiste
–Coesistenza di monismo e dualismo
–Evadere dalla distinzione

Considerare corpo e mente come costitutivamente uniti
La percezioneLe teorie della percezione:
–Teoria empiristica
–Teoria della Gestalt
–Movimento del New Look
–Teoria ecologica

L'organizzazione percettiva:
–Attenzione
–Principi di unificazione (principi di raggruppamento, articolazione figura-sfondo, costanze percettive)

Percezione della profondità:
–Indizi monoculari (accomodazione, indizi pittorici)
–Indizi binoculari (disparità retinica, convergenza)

Percezione del movimento:

–Distanza assoluta e distanza relativa sulla retina
–Confronto tra movimenti percepiti
–Rapporto stimolo-sfondo
L'ApprendimentoCondizionamento classico:
–Caratterizzato da: stimolo incondizionato, risposta incondizionata, stimolo condizionato, risposta condizionata
–Estinzione
–Recupero spontaneo
–Generalizzazione
–Discriminazione

Condizionamento operante:
–Caratterizzato da: associazione "stimolo-rinforzo-risposta (apprendimento)"
–Rinforzo intermittente (intervallo fisso, intervallo variabile, rapporto fisso, rapporto variabile)
–Rinforzo negativo
–Modellamento

Approccio cognitivo:
–Gestalt: apprendimento per insight (riorganizzazione di elementi cognitivi)
–Piaget: non si può apprendere senza comprendere
–Tolman: apprendimento sulla base di mappe cognitive
–Metacognizione: la riflessione sul processo dell'apprendimento
La MemoriaLa misurazione della memoria:
–Ebbinghaus: riapprendimento e sovrapprendimento
–Bartlett: l'importanza della comprensione; schemi mentali
–Rievocazione, riapprendimento e riconoscimento

La teoria multiprocesso:
–Registro sensoriale
–Memoria a breve termine
–Memoria a lungo termine

La profondità di elaborazione:
–Importanza della qualità e del livello di profondità di elaborazione delle informazioni

L'oblio:
–Tempo
–Attenzione
–Fattori emotivi
–Interferenza di altri ricordi
–Cause organiche

Le mnemotecniche:
–Metodo dei loci
–Parole piolo
–Parole chiave
Il PensieroPensare per immagini:
–Pensiero verbale contrapposto a pensiero visivo
–Wundt e l'introspezione
–Studi sulla memoria
–La natura delle immagini mentali, la soluzione di Kosslyn (rappresentazione autonoma)
–Vantaggi
Il ragionamento
–La logica classica
–La formazione dei concetti
–La deduzione
–Regole di inferenza
–Modello mentale
–La verifica delle ipotesi
La soluzione dei problemi
–Algoritmi ed euristiche
–Impostazioni mentali negative e fissità funzionali
–Creatività
–La stima delle probabilità
L'IntelligenzaTeorie sull'intelligenza:
–Psicologia ingenua: intelligenza come insieme di capacità
–Spearman: il fattore g
–Thurstone e Guilford: i molteplici fattori di abilità mentale
–Sternberg: i fattori cambiano con l'età
–Gardner: teoria delle intelligenze multiple
Misurare l'intelligenza:
–Binet e Simon: età mentale ed età cronologica
–Il QI: rapporto tra età mentale ed età cronologica
–Intelligenza ed educazione: genetica e ambiente

Nessun commento:

Posta un commento

Licenza Creative Commons
Quest'opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale