Molteplici sono i campi di indagine che possono essere ricondotti all'ambito della psicologia cognitiva. In questo capitolo, si partirà da un tentativo di definizione della mente, vista in rapporto-contrapposizione con il corpo, per poi andare ad esplorare la percezione e le regole che ne stanno alla base e ci pemettono di vedere e sentire il mondo in cui viviamo, per passare poi a considerare l'apprendimento, la memoria umana con i suoi limiti e le tecniche per rafforzarla, le regole che governano il pensiero umano e le diverse concezioni dell' intelligenza.
La natura della mente
Dopo il breve viaggio compiuto tra le diverse scuole
psicologiche, se vogliamo definire in termini generali l'oggetto di studio della psicologia, potremmo sentirci
autorizzati a dire che ciò che essa, pur da molteplici prospettive, si propone
di studiare è la mente. Prima di esaminare più nel
dettaglio alcuni degli argomenti specifici delle scienze psicologiche, sarà
quindi opportuno cercare di dare una definizione al termine “mente” e capire
come la psicologia si rapporta con essa, da che punto di vista la studia.
Parlando di mente è difficile trovare attributi o
aggettivi che la descrivano in maniera precisa e univoca, in quanto essa non
possiede proprietà analoghe a quelle degli oggetti o delle entità (quali il
corpo) che si posizionano nello spazio. Essa viene generalmente colta come uno
“spazio interno”, qualcosa che sta dentro di noi, e
che in un certo senso “osserva” quanto avviene intorno a lei. Questa visione della mente come interiorità ha portato a una visione dualistica dell'uomo: a vedere cioè l'essere umano come composto da due entità tra loro differenziate: il corpo e la mente. Questa visione pone senz'altro diversi problemi, primo fa tutti come avvenga l'interazione tra corpo e mente. Fu il filosofo francese Cartesio
(1596-1650) il primo a
postulare in maniera chiara e precisa il dualismo mente-corpo,
considerandole
quali entità del tutto separate, ma che collaborano a formare l'uomo in
quanto
tale (il corpo trasmette alla mente informazioni sensoriali, ed esegue
poi gli
ordini che gli arrivano in risposta dalla mente). La posizione di
Cartesio, che
è vista comunque come atto di nascita della psicologia quale disciplina
che studia il mentale, è stata più volte criticata, rivista, integrata.
Di conseguenza il problema del rapporto mente- corpo (mind-body problem,
in inglese) attraverso il quale
è possibile trovare la strada verso una definizione della mente in
quanto tale,
è stato ampiamente discusso. In proposito possono essere sinteticamente
distinte diverse categorie di posizioni. In primo luogo le posizioni moniste, in cui si ammette soltanto
l'esistenza del corpo o della mente. Abbiamo poi le posizioni dualiste,
in cui si accetta la distinzione tra mente e corpo e se ne cercano
ragioni e giustificazioni. C'è poi chi cerca di trovare un modo per far coesistere monismo e
dualismo, sostenendo che mente e corpo non sono generi diversi di realtà, ma
ammettendo nel contempo che esse hanno proprietà differenti. E infine posizioni
in cui si cerca dievadere dalla distinzione mente-corpo,
prospettando, per esempio, un superamento delle tradizionali
categorie a cui essa fa riferimento o proponendo una concezione secondo
la quale i due termini della distinzione sarebbero aspetti diversi ma
compresenti di una medesima realtà, in sé né mentale né corporea, o sia
mentale che corporea.
Forse il modo migliore per evadere da questo dilemma del collegamento tra le due entità mente-corpo, consiste nel considerarli come già costitutivamente uniti, intrisi l'uno dell'altra pur essendo profondamente differenziati. In quest'ottica il corpo non sarà solo fisicità, non sarà ridotto a una macchina (come voleva Cartesio), ma si arricchisce di valenze psicologiche, e la mente, dall'altro
lato, lungi dall'essere considerata una cosa più o meno astratta, o un insieme di stati che si susseguono sarà ciò che dà un senso al
soggetto che percepisce il mondo.
Tenendo presente il coesistere di visioni differenti
rispetto al mentale, inoltriamoci a vedere come aspetti monotematici del
funzionamento della nostra mente sono stati studiati dalla
psicologia.
La percezione
Già
più volte abbiamo visto quanto siano profondi i legami e i punti di
contatto tra filosofia, e psicologia, e anche la percezione non
costituisce un'eccezione. Infatti furono i filosofi i primi ad occuparsi
della sua analisi. Essa, in senso filosofico generale, viene intesa
come l'atto del prendere coscienza di qualcosa, mentre per la psicologia essa sarà intesa prevalentemente come l'elaborazione di dati sensoriali.
Sfumata e controversa è la distinzione tra sensazione e percezione, tanto che alcuni autori sono giunti a considerarle come parte di un'unica – per quanto complessa – funzione psichica (la senso-percezione).
Ma in genere si parla di sensazione in relazione ad eventi mentali di
tipo atomistico – non ulteriormente scomponibili – suscitati da stimoli
relativamente semplici (lampi luminosi, singole note musicali, ecc.).
Stimoli di questo genere furono molto utilizzati dagli studiosi di
psicofisica di cui abbiamo parlato nel secondo capitolo, in relazione
alla nascita della psicologia.
La percezione, al contrario, viene intesa come più “complessa”, in quanto consiste nella funzione psicologica che interpreta i dati sensoriali al fine di conferire a questi una configurazione dotata di significato.
A livello di senso comune siamo convinti che ciò che noi percepiamo (definito dal termine tecnico di “percetti”)
corrisponda esattamente alla realtà, tendendo quindi a far coincidere
in maniera precisa il mondo fisico con il mondo percepito. In realtà
questa corrispondenza non è mai così precisa. Il mondo così com'è (che
potremmo definire approssimativamente come l'oggetto di studio della
fisica macroscopica) costituisce le stimolazioni distali.
Esse però in quanto inserite in un ambiente determinato (e quindi
percepite in rapporto all'illuminazione, ad altri stimoli, al punto di
vista...) hanno un loro “potenziale informativo” che mettono a
disposizione del sistema visivo, questo potenziale costituisce lo stimolo prossimale. Quanto di questa informazione disponibile viene effettivamente impiegato dai recettori retinici viene definito come stimolazione prossimale. Essa viene poi codificata e rielaborata e va a costituire i percetti – ciò che noi percepiamo effettivamente. L'insieme di questi processi costituisce la cosiddetta catena psicofisica, la quale è alla base del divario, spesso non percepito, ma effettivo, tra l'ambiente geografico (gli stimoli prossimali) e l'ambiente comportamentale
(i percetti). Va da sé che questa distinzione fattuale tra mondo
distale e mondo percepito è in un certo senso fine a se stessa in quanto
una “buona” percezione è quella che permette all'uomo di interagire in
maniera efficace con l'ambiente che lo circonda, e la nostra percezione è
nella maggior parte dei casi ottima.
•Le teorie della percezione
La
percezione si presenta come argomento preferito di indagine soprattutto
per le prime scuole psicologiche, che vedono nell'osservazione e nello
studio dell'immediatamente percepito il campo d'indagine privilegiato
per una disciplina che si propone di studiare la mente degli individui
in modo scientifico. Cosa meglio delle percezioni, che rappresentano il
più evidente legame tra la mente e il mondo esterno poteva essere o
apparire passibile di un'indagine e una misurazione scientifici?
Infatti, per quanto affiancata da altri argomenti di indagine, compare
nelle formulazioni teoriche di molte delle correnti di pensiero
presentate nel secondo capitolo.
Il tedesco Hermann von Helmholtz (1821-1894) nel 1867 propone la teoria empiristica,
per cui quale la percezione del mondo e degli oggetti con cui ci
relazioniamo quotidianamente è resa possibile sulla base dell'esperienza
e dell'apprendimento che derivano dai nostri contatti con questo mondo.
E quindi sulla base dell'esperienza passata che le sensazioni elementari – di per sé stesse sparse e frammentate – che arrivano al nostro cervello dal mondo esterno vengono poi associate tra di loro e integrate sulla base di conoscenze
e a formare la struttura organica con la quale ciascuno di noi
interagisce. Questa organizzazione degli stimoli negli adulti si basa su
meccanismi di inferenza inconscia, che uniscono il mosaico di sensazioni parcellari proveniente dall'esterno al patrimonio di conoscenze dell'individuo.
La scuola della Gestalt, invece, ritiene che il significato degli oggetti percepiti dipenda soprattutto da principi interni di organizzazione del campo percettivo di natura innata,
su cui hanno scarsa incidenza le esperienze passate così come le
credenze e le aspettative degli individui. Anche per i gestaltisti gli
stimoli in sé possono essere intesi come frammentati e composti da più
parti: queste parti però si organizzano in maniera automatica a formare
un campo percettivo sulla base delle dinamiche interne delle forze che li compongono (principio dell'autodistribuzione automatica).
Tali fenomeni di organizzazioni sono basati su alcuni principi
identificati dagli studiosi tedeschi della Gestalt (vedi il paragrafo
seguente, L'organizzazione percettiva) i quali permettono agli
stimoli con cui ci rapportiamo di essere percepiti come delle totalità
coerenti e ben strutturate caratterizzate da proprietà e relazioni
immediatamente evidenziate.
Il movimento del New Look (fondato dagli americani J.S. Bruner, L. Postman ed E. Mc Ginnies) rimarca invece che la percezione nasce dall'incontro tra gli stimoli esterni e le attese, i valori e gli interessi
del soggetto, il quale diventa così un attivo costruttore delle proprie
esperienze percettive. Gli individui, posti davanti a uno stimolo
complesso, compiono una categorizzazione,
identificandolo e categorizzandolo sulla base di dati indizi,
strutturati sulla base delle relazioni e delle proprietà del percepito
arricchite dall'universo motivazionale e “personale” del soggetto.
Le cosiddette teorie della percezione diretta (o ecologiche), ispirate all'opera di J.J. Gibson, sostengono che le informazioni sono già presenti nella stimolazione percepita
dal soggetto e da quest'ultimo possono essere immediatamente colte
senza che debbano intervenire processi di elaborazione. Il soggetto non
si trova dunque né a dover rielaborare in maniera costruttiva il
percepito né a integrarlo in alcun modo: deve solamente cogliere le
informazioni percettive disponibili nell'ambiente. A questa ricchezza
dell'informazione sensoriale, sia dal punto di vista spaziale che
temporale che di ordine intrinseco, Gibson si riferisce utilizzando il
termine affordances (disponibilità, appunto). Un'altra di queste teorie è quella del ciclo percettivo proposta da U. Neisser, la quale prevede l'esistenza nella mente dell'individuo di schemi che dirigono l'attenzione e l'esplorazione dell'ambiente
producendo delle anticipazioni e quindi preparano il soggetto a
ricevere determinati tipi di informazione e a cogliere quelle più
pertinenti per i suoi scopi.
•L'organizzazione percettiva
A
prescindere dalle posizioni teoriche dei singoli studiosi, tutti
concordano nel ritenere che alla base del mondo così come noi lo
percepiamo ci sia una qualche organizzazione effettuata o recepita dalla mente che le permette di organizzare e interagire con il flusso di stimoli che percepisce in maniera unitaria e coerente.
Questa organizzazione è guidata dall'attenzione che permette di selezionare specifici stimoli e dirigere su di essi l'attività mentale:
tale processo d'attenzione può dipendere da caratteristiche dello
stimolo o del contesto e da predisposizioni o attese del soggetto
derivanti da bisogni interni, interessi, motivazioni, risonanze emotive,
esperienze passate. Un contesto in cui è facile sperimentare in prima
persona questa funzione selettiva dell'attenzione si presenta in
contesti particolarmente ricchi di stimoli, come ad esempio una festa.
Tendenzialmente noi ci concentriamo sulla persona o le persone con cui
stiamo dialogando e non prestiamo attenzione (escludiamo, filtriamo) gli
altri stralci di conversazione che comunque percepiamo. Ma se da
qualche parte ci arrivano stralci di una conversazione che troviamo più
interessante (per esempio se sentiamo qualcuno che parla di noi)
probabilmente sposteremo al nostra attenzione dall'ascolto della prima
conversazione alla seconda, che senz'altro ricorderemo anche molto
meglio (effetto cocktail party). Questa possibilità di
selezionare gli stimoli e di passare da uno all'altro presume che la
nostra mente in qualche modo percepisca tutti gli stimoli, ma poi avendo
a disposizione solo una limitata quantità di canali per l'elaborazione
ne elabori in maniera completa solo uno alla volta, rimanendo però
sensibile alle caratteristiche salienti degli altri stimoli. Per
esempio, se siamo intenti in una conversazione importante e teniamo la
radio accesa in sottofondo, pur prestando maggiore attenzione alla
conversazione siamo in grado di cogliere con immediatezza un cambiamento
di speaker o la messa in onda della nostra canzone preferita. A questo
proposito è stata proposta la teoria del filtro per cui
l'attenzione nei casi in cui il soggetto riceve più messaggi
concorrenti (come avviene, per esempio, nell'ascolto dicotico) seleziona
un messaggio e a questo solo permette di passare alle successive fasi
di elaborazione dell'informazione.
Un altro effetto legato alla
percezione può però suggerire una diversa interpretazione di come la
nostra mente elabori le informazioni sensoriali. L'effetto Stroop,
consiste in un ritardo nei tempi di risposta (o, più in generale,
peggioramento della prestazione) che si verifica quando al soggetto è
chiesto di dire il nome del colore con cui è scritta una parola
designante il nome di un altro colore (per esempio la parola “rosso”
scritta in verde). Norman interpretò tale fenomeno postulando che la
selezione attentiva abbia luogo non tanto selezionando gli stimoli in
ingresso, quanto piuttosto elaborando in maniera selettiva le
informazioni già presenti nella nostra memoria (e pertanto familiari)
che il nuovo stimolo viene ad attivare. Nel caso sopra proposto
dell'effetto stroop questi “automatismi” sono coinvolti nel processo
imprescindibile di riconoscimento e processamento dei colori – stimoli
tanto familiari da risultare imprescindibili a livello di processamento
sensoriale.
Altre modalità di organizzazione sensoriale sono i principi di unificazione percettiva individuati e
proposti dalla scuola della Gestalt
, che essendo universali e innati permettono di
strutturare in maniera costante, coerente e logica configurazioni
sensoriali complesse. I gestaltisti ipotizzano che tre siano le
macrocategorie di unificazione percettiva che guidano la nostra visione
del mondo. In primo luogo abbiamo i principi di raggruppamento che sono alla base della tendenza a raggruppare stimoli isolati in insiemi dotati di significato sulla base dei principi di vicinanza (tendenza a raggruppare – a parità di altre condizioni – gli elementi tra loro vicini), somiglianza (tendenza a unificare, sempre a parità delle condizioni di contorno, elementi che ci appaiono simili), chiusura (percepiamo come unità elementi che suggeriscono una tendenza alla chiusura), continuità (tendenza a privilegiare l'organizzazione lineare che prevede percettivamente minori interruzioni) e pregnanza (si preferiscono le configurazioni che presentano il maggior grado di semplicità, regolarità, simmetria).
Importante è poi l'articolazione figura-sfondo,
tendenza che porta a mettere in relazione ogni stimolo che percepiamo
come “figura” a uno sfondo corrispondente: questo ci permette di mettere
automaticamente in risalto la figura (il focus della nostra attenzione)
che è quella che si presenta con una forma precisa (a differenza dello
sfondo), e ha quindi un contorno che la definisce, mettendo in evidenza
il suo “essere oggetto”, in contrapposizione all'indeterminatezza dello
sfondo. La forza di questa organizzazione può essere notata osservando
le cosiddette “figure reversibili” – immagini costruite in modo tale da
risultare instabili con la conseguenza di far percepire al soggetto che
le osserva una periodica inversione tra figura e sfondo.
Un altro fenomeno psicologico che facilita il lavoro di organizzazione percettiva della nostra mente è costituito dalla costanza percettiva
in base alla quale uno stimolo ci appare identico pur variando le
condizioni di stimolazione dei recettori sensoriali. Per esempio, la
percezione che abbiamo di certe caratteristiche di un oggetto (forma,
dimensioni, colore ecc.) non risente del fatto che l'oggetto sia visto
da diversa prospettiva, da diversa distanza, con diversa illuminazione e
così via. Per esempio, un libro con la copertina bianca ci apparirà
bianco sotto un'illuminazione naturale, rosa sotto una forte luce rossa.
Ma noi posti davanti alla domanda “Di che colore è la copertina del
libro?” continueremmo a rispondere “Bianca”, pur percependo la
discrepanza tra la nostra consapevolezza e la percezione in sé.
•La percezione della profondità
Il mondo che percepiamo e con cui ci rapportiamo è chiaramente un mondo in tre dimensioni. Il nostro occhio, invece, lavora sulle informazioni retiniche che hanno carattere bidimensionale.
La cosa apparentemente sembra presentare un forte contrasto. In realtà
però il nostro cervello è in grado di superare brillantemente questa
disomogeneità ricorrendo all'aiuto di informazioni/indizi sensoriali
aggiuntive che l'ambiente fornisce. Questi indizi di profondità sono di
tipo monoculare (si basano cioè su informazioni provenienti da un solo
occhio) e binoculare (basati sulle informazioni raccolte da entrambi gli
occhi e poi confrontate tra di loro). Gli indizi monoculari sono essenzialmente l'accomodazione
(cioè la messa a fuoco di un oggetto da parte del cristallino – messa a
fuoco che varia a seconda della distanza fisica dell'oggetto dal nostro
occhio), e i cosiddetti indizi pittorici (così chiamati perché sono basi teoriche imprescindibili per i pittori) tra cui ricordiamo la sovrapposizione (tra due stimoli che si ostruiscono parzialmente, lo stimolo ostentato sarà necessariamente più vicino di quello ostruito), l'altezza sul piano dell'orizzonte (gli stimoli più lontani appaiono “più in alto”), il chiaroscuro (l'uso delle ombre per indicare profondità: viene utilizzato anche in geometria per disegnare solidi tridimensionali), la prospettiva lineare (valga il noto esempio delle rotaie del treno che tendono ad incontrarsi in prossimità dell'orizzonte) e il gradiente tissurale (tanto più un oggetto è vicino all'osservatore tanto meno quest'ultimo ne percepirà con chiarezza tutti i dettagli).
Il nostro sistema nervoso si avvale anche degli indizi binoculari di profondità che ricava dal confronto tra ciò che ogni singolo occhio percepisce. Questo confronto basato sulla disparità retinica
è utile per oggetti posti a una distanza media dall'osservatore,
tenendo sempre conto che quanto più un oggetto è vicino a chi lo osserva
tanto maggiore sarà la disparità retinica, in quanto il cambiamento di
posizione relativa dello stimolo osservato per ciascun occhio sarà
ovviamente maggiore. Per oggetti che sono invece molto vicini al
soggetto (7/8 metri circa) l'indizio della percezione cui si ricorre è
la convergenza che va ad interpretare le informazioni
provenienti dai muscoli retinici, il cui sforzo cresce in maniera
proporzionale all'avvicinarsi dell'oggetto che si sta osservando.
•La percezione del movimento
Il
mondo con cui dobbiamo interagire, però, non è composto solamente da
stimoli statici, per quanto tridimensionali. È prevalentemente con
stimoli in movimento che noi ci relazioniamo; pertanto la percezione del
movimento risulta tra le capacità più importanti per la sopravvivenza
adattiva delle specie viventi. Come prima cosa è interessante notare
come le immagini alla base della nostra percezione sono essenzialmente
immagini non-statiche (i nostri occhi sono in continuo movimento per
raccogliere le informazioni percettive) a prescindere che
l'effettivamente percepito riguardi poi un'immagine statica o in
movimento. Questa capacità di saper riconoscere gli stimoli in movimento
dipende dalla differenza tra distanza assoluta e distanza relativa
sulla retina: degli stimoli vengono percepiti come stabili quando la
loro distanza relativa resta immutata (ad esempio leggendo un testo la
posizione assoluta delle parole cambia perché si muovono gli occhi, ma
la loro posizione relativa – cioè la distanza tra una parola e l'altra e
la loro disposizione all'interno della pagina – resta costante), mentre
quando il movimento degli occhi e il movimento assoluto degli oggetti
sulla retina differiscono tra loro, si percepisce il movimento.
A
volte, però, il nostro sistema di elaborazione delle informazioni può
essere tratto in inganno, percependo come in movimento un oggetto o uno
stimolo che è in realtà immobile. Un buon esempio è fornito dall'effetto autocinetico,
un fenomeno percettivo di tipo illusivo che si verifica quando,
fissando nel buio un punto luminoso fisso, si ha, dopo qualche secondo,
l'impressione che tale punto si muova. Lo stesso effetto è riscontrabile
nell'illusione del treno (quando trovandosi su un
treno e fissando un treno posto accanto al nostro si trova difficile
distinguere in maniera immediata quale dei due inizia a spostarsi), data
dalla situazione particolarmente povera di indizi percettivi che rende
difficile il confronto tra i movimenti relativi.
Ma generalmente
non ci basiamo solo sul confronto tra movimenti percepiti sulla retina,
ma possiamo avvalerci (come nel caso della percezione della profondità)
di altri indicazioni aggiuntive, quali, ad esempio, il rapporto dello stimolo con lo sfondo,
basato sull'illuminazione e sulla velocità del movimento percepito. È
anche molto importante il movimento relativo di un oggetto riportato a
un oggetto statico di confronto cui si viene sovrapponendo (l'indizio
del movimento relativo è noto anche come parallasse di movimento, ed è rapportabile all'indizio monoculare di profondità della sovrapposizione).
Wertheimer, fondatore della teoria gestaltica, nel 1912 riuscì a spiegare sperimentalmente il fenomeno del movimento apparente o stroboscopico. Si tratta di un effetto percettivo (chiamato anche “fenomeno phi”) che si ha quando una
rapida attivazione intermittente e alternata di due sorgenti luminose adiacenti
produce nel soggetto l'illusione di essere di fronte a un unico oggetto luminoso
in movimento. Il fenomeno nel quale, in sostanza, una successione di stimoli
statici distinti genera l'impressione di un movimento continuo, sta alla base
della tecnica cinematografica, e dipende essenzialmente dal ritmo di
illuminazione delle due sorgenti luminose (che deve essere abbastanza
veloce).
L'apprendimento
Con il termine apprendimento, si intende un processo, attivato dall'esperienza, che produce una modificazione relativamente permanente del comportamento.
La sua funzione è quella di rendere l'individuo maggiormente adattato
all'ambiente in cui vive e può essere presente anche negli organismi più
semplici in forme molto elementari come la sensibilizzazione e
l'assuefazione: in tal caso l'organismo, posto di fronte alla
ripetizione di determinati stimoli, aumenta o diminuisce la propria
reattività ad essi o ad alcune loro caratteristiche. Nelle sue forme più evolute, invece, prende in considerazione anche il ruolo svolto dall'intelligenza e dalla creatività.
Nell'uomo sono riscontrabili le modalità “primitive” di apprendimento,
affiancate però da altre più complesse che permettono non solo di
acquisire conoscenza (sotto varie forme, pratiche e fattuali), ma anche
di tramandarla nel tempo in maniera non genetica ma andando a formare un
sistema culturale.
•Il condizionamento classico
Il condizionamento è il processo attraverso il quale si operano modificazioni del comportamento stabilendo un'associazione tra un determinato stimolo e una determinata risposta.
Il primo a condurre ricerche sul condizionamento fu il fisiologo russo Ivan Pavlov
(1849-1936) attraverso alcuni studi di carattere fisiologico.
L'esperimento più famoso di Pavlov venne condotto sui cani. Egli partì
dalla considerazione che la salivazione dei cani di fronte al cibo era
un riflesso incondizionato, cioè una risposta innata
dell'organismo. Arrivò poi a notare che il cane salivava non solo quando
veniva a diretto contatto con il cibo, ma anche semplicemente udendo un
segnale acustico che lo sperimentatore aveva fatto in modo di associare
costantemente alla consegna del cibo. Questa reazione dell'animale, in
assenza dello stimolo relativo, venne denominata riflesso condizionato.
Il condizionamento classico prevede quindi uno stimolo incondizionato (nell'esperimento, il cibo), una risposta o riflesso incondizionato (la salivazione), uno stimolo condizionato (il suono) e infine una risposta o un riflesso condizionato (la salivazione anche in assenza di cibo, ma con la sola presentazione dello stimolo condizionato - suono).
Per ottenere l'estinzione della risposta condizionata
è sufficiente eliminare l'associazione fra lo stimolo incondizionato e
quello condizionato: l'estinzione tuttavia non sarà totale, è possibile
infatti un recupero spontaneo nel momento in cui si ripresentano le stesse condizioni.
Sempre legato al condizionamento classico sono i concetti di generalizzazione, che consiste nell'estendere la risposta condizionata ad altri stimoli molto simili allo stimolo condizionato originario, e discriminazione,
che – al contrario – mira a far sì che l'animale soggetto al
condizionamento sia in grado di rispondere unicamente allo stimolo
target e non a stimoli ad esso simili.
L'approccio metodologico
di Pavlov si caratterizza per il rigido obiettivismo, che esclude ogni
ricorso alla coscienza e all'intenzione nella spiegazione del
comportamento, e per l'intento di dedurre dal comportamento osservabile
dell'animale la fisiologia neuronale corrispondente. Secondo lo studioso
russo, infatti, il meccanismo del riflesso condizionato è alla base di
tutti i processi di apprendimento sia umano sia animale.
•Il condizionamento operante
Fu principalmente B.F. Skinner a proseguire gli studi sul condizionamento, elaborando il cosiddetto condizionamento strumentale, od operante, il cui fine è quello di produrre comportamenti nuovi attraverso una serie di rinforzi.
L'esperimento più noto di Skinner riguarda un ratto affamato posto in
una gabbia in cui si trova una leva con vicino una vaschetta vuota per
il cibo: è sufficiente premere la leva per innescare il meccanismo di
immissione del cibo nel recipiente. Il ratto compierà quest'azione
inizialmente in modo accidentale, ma poi, essendo rinforzato
costantemente dal cibo prodotto conseguentemente alla pressione della
leva, tornerà a ripetere il comportamento sempre più spesso. In questo
caso è la risposta del soggetto (premere la leva) ad essere strumentale
rispetto alla produzione della ricompensa (rinforzo).
Nel condizionamento operante è fondamentale dunque il concetto di rinforzo:
come è facilmente intuibile l'apprendimento avviene in tempi più rapidi
quanto più i rinforzi sono maggiori, inoltre perché la presentazione
del rinforzo sia efficace deve esserci una forte continuità temporale tra il comportamento e lo stimolo rinforzante
(in caso contrario il soggetto vedrebbe le due componenti come
scollegate tra di loro, e non verificherebbe di conseguenza nessun
apprendimento). Inoltre è stato osservato che le risposte conformi ai
rinforzi sono più frequenti quando i rinforzi non sono costanti (cioè
quando le risposte corrette vengono ricompensate solamente di tanto in
tanto). Da questo punto di vista possiamo parlare di rinforzo intermittente, che può essere a intervallo fisso
(si forniscono rinforzi a intervalli fissi di tempo per un periodo di
tempo prefissato: ad esempio un rinforzo ogni 30 secondi per 7 minuti), a
intervallo variabile (si forniscono rinforzi per un periodo di tempo prefissato ma non si rispettano intervalli fissi tra un rinforzo e l'altro), a rapporto fisso (un rinforzo viene fornito dopo che il soggetto ha fornito un numero prefissato di risposte esatte) e a rapporto variabile
(si fornisce un rinforzo in maniera casuale dopo un certo numero di
risposte esatte). Per gli animali così come per gli esseri umani la
modalità di rinforzo più efficace si è rivelata quella del rinforzo a
rapporto variabile (che è poi quello alla base delle lotterie, dei
“gratta e vinci” e di analoghe forme di gioco d'azzardo).
Esiste anche il rinforzo negativo,
quando a una determinata risposta viene fatta seguire una punizione
(per esempio, nel caso degli animali una scossa elettrica). Il ruolo e
l'utilità delle punizioni sono stati discussi a lungo: il rinforzo
negativo, infatti, non elimina totalmente la risposta, ma solo
temporaneamente; quando la punizione non viene più associata alla
risposta, l'animale infatti ritorna a premere la leva con la stessa
frequenza di prima. La punizione tuttavia ha un effetto generalizzato
rendendo l'animale più pauroso e più inibito e perciò anche meno
disponibile all'apprendimento.
Nel condizionamento operante si parla anche di modellamento: esso consiste nell'addestramento di soggetti all'acquisizione di modi di comportamento nuovi
e particolarmente complessi in maniera progressiva e per
approssimazioni successive. Un esempio è quello di insegnare a un cane a
rotolarsi: prima gli si insegna a sedersi, poi a distendersi, poi a
mettersi su un fianco e infine a rotolarsi. L'arte del modellamento
consiste nell'estendere gradualmente la risposta richiesta partendo da
semplici comportamenti iniziali che, rinforzati, portano alla risposta
complessa finale. Questo metodo è utilizzato anche dagli ammaestratori
per gli animali del circo.
Un'altra forma di condizionamento è quella dell'evitamento
che consiste nella presentazione di uno stimolo (generalmente sotto
forma di segnale acustico o luminoso) poco prima di uno stimolo
disturbante che l'animale può evitare emettendo una determinata risposta
subito dopo lo stimolo di avvertimento.
•L'approccio cognitivo
La
posizione comportamentista relativamente all'apprendimento (basata cioè
su un apprendimento fondato sulle regole messe in luce da studiosi
quali Pavlov e Skinner a proposito del condizionamento) è stata
criticata in quanto sarebbe insufficiente a spiegare le modificazioni
spontanee del comportamento e soprattutto non giustificherebbe la
produzione di risposte insolite o di idee creative.
I gestaltisti (di cui abbiamo già parlato nel secondo capitolo e ancora introducendo la percezione) sostengono una teoria dell'apprendimento per intuizione o insight, in cui non si tratta di aggiungere qualcosa di nuovo a ciò che è già noto, ma di riorganizzare e di ristrutturare gli elementi cognitivi in un tutto significativo
in maniera più complessa e consapevole. In tal modo la soluzione non
viene colta gradualmente secondo un processo per prove ed errori, ma
improvvisamente e con minore probabilità di dimenticare quanto è stato
fatto proprio.
Anche per lo svizzero Jean Piaget
l'apprendimento non può ridursi a una risposta automatica
dell'individuo all'azione dell'ambiente, né può essere solo un processo
di riorganizzazione. Il soggetto infatti, nel momento in cui apprende,
reinventa le conoscenze: non si può apprendere senza comprendere.
L'apprendimento quindi viene visto in un'ottica sempre più complessa in
cui si sottolinea l'importanza dei processi cognitivi.
Lo statunitense Edward C. Tolman sostiene che l'apprendere è dovuto a una rappresentazione schematica mentale o mappa cognitiva della situazione e ritiene inoltre che tale processo sia presente anche negli animali. Si parla a questo proposito di apprendimento latente,
non espresso cioè, ma in qualche modo influenzato da fattori cognitivi
già elaborati precedentemente e che vengono utilizzati, sollecitati da
un rinforzo, solo al momento opportuno. È presente anche un processo metacognitivo
(di riflessione cioè sopra il processo stesso dell'apprendere) che
permette di organizzare la conoscenza scegliendo le strategie più adatte
e controllando che vengano utilizzate adeguatamente: pianificando il
ragionamento, verificando i risultati, riproponendo nuove strategie. In
questo modo non solo apprendiamo qualcosa di nuovo, ma impariamo a imparare.
La memoria
Generalmente parlando con il termine “sistema di memoria” si può intendere qualsiasi tipo di sistema o struttura in grado di garantire la conservazione e il recupero di informazioni nel tempo.
Un'agenda, un computer, una lavagna su cui appuntare dei memoranda
possono essere considerati – ciascuno a suo modo – dei sistemi di
memoria. Anche dal punto di vista della psicologia, la memoria è ciò che
ci consente, attraverso una serie di processi, di trattenere
un'informazione nel tempo.
Memorizzare un'informazione è
un'operazione complessa che può essere scomposta in diversi fattori. Il
primo fattore fondamentale della memoria è la codifica o
registrazione di un evento sotto forma di schema, immagine o concetto:
esso riguarda quindi la modalità con cui un'informazione è immagazzinata
o rappresentata in un sistema di memoria. Il secondo fattore è la ritenzione, che si riferisce al trattenimento o immagazzinamento dell'informazione nel tempo. Il terzo fattore, infine, è il recupero, o rievocazione, che corrisponde alla capacità di riconoscere e ricordare un'informazione in un secondo tempo.
In
fase di codifica l'informazione potrà essere riorganizzata,
ricostruita, reintegrata sulla base di conoscenze pregresse del sistema
(o di ipotesi dello stesso in caso di informazioni mancanti), per
favorire la ritenzione e il successivo recupero.
Quando un
qualsiasi fattore (tecnico/meccanico ad esempio sistemi di memoria
fisici, disturbi attentivi, cause organiche o altro nel caso della
memoria umana) influisce con le fasi di codifica o di ritenzione o
recupero può verificarsi una perdita di informazione,
la cui entità potrà variare nel tempo – essendo la perdita temporanea o
permanente – e nell'estensione, a seconda cioè della quantità di dati
coinvolti.
•La misurazione della memoria
Nella seconda metà del secolo XIX lo psicologo tedesco H. Ebbinghaus
diede inizio a una serie di studi sulla misurazione della memoria
umana. Egli si proponeva lo scopo di studiare la memoria pura, cioè come
funzione a sé stante, priva di qualsiasi interferenza culturale o
soggettiva. Lo studioso progettò i suoi esperimenti in maniera che in
nessun modo il ricordo potesse basarsi sul significato delle parole
impiegate, ed utilizzò quindi delle sillabe senza senso (chiamate logotomi),
composte da diverse combinazioni di consonate-vocale-consonate, che
andavano memorizzate dai soggetti (ma per lo più Ebbinghaus utilizzava
sé stesso come soggetto delle proprie ricerche) nel minor tempo
possibile.
In base ai suoi esperimenti Ebbinghaus elaborò tre teorie. Nella teoria del riapprendimento
notò che una determinata lista di sillabe, precedentemente appresa e
poi dimenticata, può esser riappresa in un tempo minore a quello
necessario per memorizzarla la prima volta; questa riduzione del tempo
di apprendimento, o risparmio, sta a significare che qualcosa nella
mente dei soggetti rimane. Secondo la teoria del sovrapprendimento,
dopo aver verificato che vi è un risparmio di tempo nel riapprendere
una lista di sillabe già memorizzata, si può anche constatare che oltre a
un certo limite non è più possibile ridurre il tempo e il numero delle
ripetizioni, poiché si arriva a una soglia di saturazione oltre la quale
non è possibile andare. In base alla teoria dell'effetto di posizione seriale,
memorizzando le parole serialmente (una dopo l'altra), vi è una
maggiore possibilità di ricordare soprattutto le parole che sono
all'inizio (effetto primacy) e quelle che sono alla fine della lista (effetto recency).
Nella prima metà del Novecento F. Bartlett
criticò gli esperimenti di Ebbinghaus in quanto riteneva che per
studiare la memoria umana fosse più utile e proficuo adoperare termini
significativi piuttosto che sillabe senza senso. Questo sulla base della
constatazione che in genere la memoria umana è sempre e comunque utilizzata in un contesto dotato di significato,
e non su materiale del tutto decontestualizzato (quali erano i logotomi
di Ebbinghaus), e non è dunque utile studiarla in condizioni tanto
diverse da quelle delle sue effettive applicazioni. Bartlett condusse
dunque i suoi esperimenti facendo memorizzare ai soggetti brani dotati
di senso e (specialmente lavorando su storie che apparivano strane e
bizzarre alle persone coinvolte, magari perché lontane dal loro universo
di riferimento culturale era lontano o diverso da quello presentato nel
brano da memorizzare) notò come le persone tendevano a riorganizzare
gli elementi presentati loro in modo da renderli più famigliari. Questo
portò a postulare l'esistenza di schemi mentali volti a
organizzare in maniera efficace ricordi e conoscenze e volti a
facilitare e guidare la rievocazione del materiale memorizzato.
In
genere gli esperimenti riguardanti la memoria umana sono stati condotti
sulle rievocazioni, sul riconoscimento e sul riapprendimento.
La rievocazione,
cioè la richiesta a un soggetto da parte dello sperimentatore di
ripetere il materiale (generalmente una lista di parole) memorizzato,
può essere libera (“Ripeti le parole così come ti vengono in mente”), seriale (“Ripeti le parole nell'ordine esatto in cui ti sono state presentate”) o guidata
(lo sperimentatore fornisce al soggetto indizi utili per aiutarlo nella
rievocazione “tra le parole che hai memorizzato erano presenti nomi di
frutti?”). Naturalmente la rievocazione seriale, che è quella che pone
maggiori vincoli al soggetto, è anche la più difficoltosa.
A sua volta la rievocazione in sé presenta maggiori difficoltà del riconoscimento,
della richiesta, cioè, di riconoscere all'interno di una lista di
stimoli quelli che appartenevano a una lista precedente, quella che il
soggetto era stato istruito a memorizzare. Questa è probabilmente una
delle ragioni per cui tanti studenti ritengono le prove a domande aperte
più complesse di quelle con domande a scelta multipla: nel primo caso
viene richiesta una rievocazione libera, nel secondo caso un
riconoscimento.
Il riapprendimento riguarda
quanto già citato parlando degli studi di Ebbinghaus: riapprendere del
materiale precedente memorizzato (e che sembra essere stato dimenticato)
porta sempre e comunque a un risparmio nel tempo di apprendimento
complessivo.
•La teoria multiprocesso
Tra i vari studiosi che si sono occupati di ipotizzare una possibile struttura del sistema memoria dell'uomo, spiccano Atkinson e Schiffrin,
secondo i quali la memoria umana non è un sistema unico, ma è
caratterizzata da molteplici processi, ognuno con le proprie
caratteristiche. Essi distinguono dunque tre tipi di memoria: la memoria
sensoriale (o registro sensoriale), la memoria a breve termine e la
memoria a lungo termine.
Il registro sensoriale è
quello che ci permette di mantenere un'informazione “sensoriale”
(visiva, uditiva, olfattiva, tattile) per un breve periodo (uno o due
secondi). Il registro sensoriale è suddiviso al suo interno in una parte
di memoria iconica, che si riferisce alla capacità di ritenere per periodi molto brevi informazioni codificate in maniera visiva, e una di memoria ecoica,
che si riferisce a stimolazioni uditive. Entrambi questi sottosistemi
hanno un'elevata capacità (con un “colpo d'occhio” ad esempio, possiamo
cogliere molti particolari) ma anche un rapidissimo decadimento.
La memoria a breve termine (MBT),
invece, permette di trattenere l'informazione per un periodo breve (30
secondi circa) ma prolungabile grazie a un processo di reiterazione, o reharsal (ripetizione silente di ciò che interessa mantenere). La reiterazione
è anche la condizione fondamentale che permette il trasferimento
dell'informazione dalla memoria a breve termine a quella a lungo
termine. Un buon esempio del funzionamento della MBT può essere dato
dalla memorizzazione dei numeri telefonici: se ci limitiamo a leggere il
numero sull'agenda e comporlo sulla tastiera del telefono esso resterà
nella nostra memoria solamente per pochi secondi. Se invece, dopo averlo
letto, ci troviamo nella necessità di conservarlo in memoria per un
maggior lasso di tempo (ad esempio perché il telefono su cui comporlo si
trova in un'altra stanza) una maniera efficace per impedire lo svanire
dell'informazione è proprio quella di ripetere silenziosamente le cifre
che compongono il numero. Secondo G. Miller (Il magico numero sette più o meno due,
1956) la MBT è limitata in quanto può trattenere al suo interno solo
sette cifre o meglio unità (dove ogni unità va intesa come insieme
complesso: 1-2-3-4-5-6-7 sono sette unità, ma anche 12-34-56-78-90-11-12
sono sette unità: il numero dei numeri è raddoppiato ma il numero di
“raggruppamenti” è rimasto costante).
La memoria a lungo termine (MLT)
è invece quella parte del sistema che ci permette di immagazzinare più
informazioni e di trattenerle più a lungo, in alcuni casi per sempre. La
MLT a differenza delle altre parti del sistema che abbiamo appena
descritto più che alla forma con cui l'informazione in ingresso è stata
codificata, presta attenzione al significato dell'informazione
stessa. Sulla base di questo principio le informazioni contenute in
questa parte del sistema memoria possono essere divise in conoscenze
proposizionali (o dichiarative) e procedurali. La conoscenza proposizionale riguarda la conoscenza fattuale e tutti i suoi contenuti
sono sotto forma di proposizioni (da cui proposizionale) che
stabiliscono relazioni tra più concetti utilizzando criteri logici di
verità. Essa è a sua volta suddivisibile in episodica (riguarda episodi, eventi della vita personale, ed è strettamente collegata al contesto di codifica delle informazioni) e semantica
(ha un'impronta più “culturale” in quanto riguarda il patrimonio di
conoscenze, indipendentemente dal contesto in cui si sono apprese o sono
state applicate). La conoscenza procedurale, si riferisce al modo in cui apprendiamo abilità percettive e motorie. Questo tipo di conoscenza può essere ben rappresentata con la forma di script,
cioè sotto forma di schemi mentali a carattere generale che descrivono
suddividendole in “fasi” le componenti principali di azioni o insiemi di
azioni (ad esempio “mangiare al ristorante” è un buon esempio di
script, in quanto tutti si aspettano una serie precisa di componenti:
entrare nel locale, sedersi a un tavolo, ordinare, mangiare, pagare il
conto...).
•La profondità di elaborazione
Craick e Lockard
hanno proposto un'alternativa a questa teoria dei processi multipli,
sostenendo che la durata del tempo per cui un'informazione, è ricordata
non dipende tanto dal processo di reiterazione, che permette il
passaggio dalla memoria a breve termine a quella a lungo termine, quanto
dalla profondità di elaborazione dell'informazione stessa. Essi
sostengono cioè che la qualità e il livello di profondità dell'elaborazione cui viene sottoposta un'informazione in entrata nel “sistema memoria” determinerà il suo essere ricordata o meno.
•L'oblio
Introducendo
il concetto di sistema di memoria abbiamo accennato al fatto che tali
sistemi possono essere oggetto di una perdita delle informazioni in essi
contenuti, per cause diverse.
Nella memoria umana questa perdita
dell'informazione può avvenire in uno qualsiasi dei diversi processi di
memorizzazione: codifica, ritenzione e recupero, e diversi sono i
fattori che possono causare l'oblio, primo fra questi il trascorrere del
tempo. Secondo Ebbinghaus la ritenzione cala molto
rapidamente all'inizio per poi stabilizzarsi nelle ore successive in
maniera costante. Molto importante è anche il ruolo dell'attenzione:
se infatti non prestiamo sufficiente attenzione nel momento di codifica
dell'informazione, sarà più difficile in seguito recuperarla. Anche i fattori emotivi
possono interferire con la memoria; è stato provato, per esempio, come
l'ansia determini una stimolazione distraente che indebolisce la
capacità di ricordare. Sono significative inoltre le interferenze di altri ricordi. L'interferenza può essere proattiva, se ciò che dobbiamo memorizzare viene ostacolato da ricordi o eventi simili precedenti; retroattiva, se l'informazione nuova ostacola la ritenzione di ciò che era già stato memorizzato. L'oblio può avere anche cause organiche
come traumi cranici o danni cerebrali; la malattia più nota che riduce
la capacità di memoria, soprattutto nelle persone anziane, è il morbo di
Alzheimer.
•Le mnemotecniche
Con il termine mnemotecniche ci si riferisce a teorie e pratiche di potenziamento della memoria naturale.
Esse sono note fin dall'antichità, in quanto le prime di cui ci sia
giunta notizia venivano utilizzate al fine di ricordare i lunghi e
complessi discorsi degli oratori pubblici: tra i famosi oratori che ne
facevano uso di certo possiamo ricordare Simonide di Ceo tra i Greci e
Cicerone e Quintilliano tra i latini. Nell'antichità classica, la teoria
consigliava gli espedienti utili a ritenere qualsiasi tipo di nozione
difficilmente memorizzabile (termini tecnici, liste cronologiche, cause
giudiziarie ecc.). L'espediente fondamentale consisteva nell'attribuire alle nozioni da ricordare la medesima disposizione degli elementi di un ambiente ben noto e familiare. Un'altra tecnica suggeriva di mettere in versi ciò che si voleva ricordare, sfruttando le facilitazioni fornite dalle assonanze metriche.
Le
mnemotecniche sono poi divenute oggetto di ricerche psicologiche. Alla
base di tutte queste tecniche per il potenziamento della memoria ci sono
due processi fondamentali: l'elaborazione e la riorganizzazione dell'informazione.
Una caratteristica comune delle mnemotecniche è l'uso di suggerimenti
più facili da ricordare di quanto non lo sia l'informazione che in
seguito si dovrà recuperare.
Una delle tecniche più antiche è il cosiddetto metodo dei loci
in cui si abbina ciò che si vuole ricordare a una serie ordinata di
luoghi noti utilizzando, per esempio, l'ordine espresso dal colonnato di
un tempio, posizionando in punti noti gli oggetti o termini da
ricordare e poi immaginando di percorrere mentalmente questo percorso, “incontrando” uno dopo l'altro gli elementi inseriti. Un'altra metodologia simile alla precedente è quella delle parole piolo in cui si abbinano i numeri da 1 a 10 a una lista di parole. Un altro metodo è quello della parola chiave
in cui si associa una parola nuova a una di suono simile e facilmente
rappresentabile per mezzo di una figura: per ricordare la parola nuova
bisognerà pensare prima alla parola chiave, poi all'immagine o alle
azioni ad essa collegate.
Un ulteriore sistema per migliorare la
propria memoria, anche se non può considerarsi esattamente una
mnemotecnica può essere il diventare maggiormente consapevoli del suo
funzionamento. Questa riflessione è nota con il termine di metamemoria,
la quale si riferisce appunto alla conoscenza che il soggetto ha del
funzionamento della propria memoria, delle strategie e dei meccanismi
che vengono messi in atto nei compiti mnestici. I primi studi, condotti
dallo statunitense Flavell negli anni Settanta, hanno messo in luce
l'importanza della consapevolezza che il soggetto ha dei propri processi
mentali quando esegue determinati compiti (memorizzare, risolvere un
problema, compiere una scelta ecc.). Varie indagini hanno dimostrato
che, in genere, quando una persona migliora la propria competenza
metacognitiva (cioè è maggiormente cosciente di ciò che fa la mente
mentre ricorda, ragiona ecc. ed è maggiormente informata circa il modo
in cui la mente lavora), migliora conseguentemente anche le proprie
prestazioni.
Il pensiero e i processi cognitivi
Abbiamo appena visto come le informazioni vengano raccolte, codificate e immagazzinate dal nostro sistema di memoria. Ma la mente umana non si limita ad accumulare informazioni, è anche in grado di cogliere o formare relazioni tra esse. Questa è una capacità collegata allo svolgersi di operazioni cognitive che portano alla costruzione di rappresentazioni mentali
che a loro volta costituiscono i contenuti del nostro pensiero. Questi
contenuti non devono essere immaginati come entità puramente astratte,
ma sono strettamente collegati alle azioni o alle operazioni che da loro
conseguono. Inoltre sono sensibili (e lo dimostrano in qualche modo
anche gli studi sul condizionamento) alle risposte e agli stimoli
dell'ambiente. È anche importante sottolineare come molte operazioni pur
se collegate a processi mentali vengano eseguite automaticamente,
mentre altre sono prettamente conscie e controllate.
Quando pensiamo possiamo farlo per parole o per immagini.
•Pensare per parole e immagini
Quando
pensiamo per parole è un po' come se mentre pensiamo conducessimo un
discorso con noi stessi, traducendo in qualche modo i pensieri in
parole, strutturandole in un discorso. L'esistenza di
questo tipo di pensiero (utilizzato molto dai bambini, soprattutto
quando devono compiere scelte o prendere decisioni) è verificabile e
misurabile empiricamente, in quanto quando utilizziamo il pensiero
verbale contemporaneamente tendiamo a parlare silenziosamente dentro di
noi e alcuni muscoli specifici si contraggono, come se noi stessimo
effettivamente pronunciando il nostro “discorso interiore”. Ovviamente
questi movimenti muscolari, per quanto siano di minima entità, possono
essere registrati e studiati. Questa modalità strutturata del discorso
porta con sé una forma di pensiero tendenzialmente logico-sequenziale, data dalla forma stessa della verbalità che richiede una strutturazione nel tempo e il rispetto di regole logico-formali.
Ma,
anche intuitivamente, possiamo renderci facilmente conto di come ci
siano alcune forme di pensiero che non procedono sequenzialmente, che
prendono in considerazione contemporaneamente più elementi. Provate, ad
esempio, a pensare alle ultime vacanze: si sarà formata nella vostra
mente un'immagine chiara del luogo dove avete trascorso le vacanze,
oppure di qualche momento particolarmente pregnante che avete vissuto.
Questa immagine che percepiamo con “l'occhio della nostra mente” è una
modalità di pensiero molto diversa da quello verbale logico-sequenziale.
Assomiglia maggiormente a una rappresentazione pittorica o fotografica,
ed è quindi associabile alla percezione di un oggetto reale. A
differenza però delle immagini “reali”, le immagini mentali possono
essere facilmente manipolate, scomposte, ristrutturate. Fin
dall'antichità le immagini mentali, proprio per il loro essere così facilmente sperimentabili, erano considerate le abitanti per eccellenza della mente;
Aristotele riteneva addirittura che non esistesse memoria o pensiero
senza immagini. La visualizzazione è stata poi fortemente ripresa con la
nascita della psicologia, in particolare da Wundt che
le trovava oggetto privilegiato delle sue analisi introspezioniste della
mente umana. Con le critiche avanzate alla metodologia introspezionista
e con l'avvento della scuola comportamentista (che
vede la mente e tutti i suoi contenuti come qualcosa al di fuori della
portata di analisi dello psicologo scientifico) anche le immagini
mentali sono state allontanate dal campo della ricerca, ma non per
questo sono scomparse dal pensiero e dalla consapevolezza delle persone.
Ed è proprio grazie a questa loro “immediatezza” che sono state riprese
e ristudiate, inizialmente come associate agli studi sulla memoria e sulle
mnemotecniche, poi come oggetto di ricerca a sé stante. Una
volta riguadagnata una loro posizione come oggetto di indagine della
psicologia scientifica, le immagini mentali sono state oggetto di una
forte disputa che vedeva contrapposti da una parte coloro che
sostenevano che esse fossero una rappresentazione fotografica degli stimoli,
fossero quindi un codice di pensiero non ulteriormente riducibile.
Dall'altro lato c'era chi riteneva invece che le immagini mentali
fossero una specie di interfaccia utilizzata dal cervello per “ritrascrivere” determinati tipi di stimoli
(per lo più visuo-spaziali) in modo da facilitarne e renderne più
immediata l'elaborazione: per i fautori di questa posizione il pensiero
sarebbe dunque solamente verbale e le immagini sarebbero il
corrispettivo delle interfacce user-friendly dei moderni
computer (noi lavoriamo con interfacce come Windows, ma il computer
elabora i dati che noi immettiamo in codice binario, codice che sarebbe
difficilmente interpretabile in maniera immediata dall'utente medio). Kosslyn propose una soluzione “intermedia” avanzando l'ipotesi che le immagini siano una rappresentazione non riconducibile a un codice di tipo verbale, ma che così come noi le sperimentiamo nella nostra mente siano il risultato di un'elaborazione primaria di un formato più primitivo,
che agirebbe più o meno come il programma di un computer. Kosslyn e i
suoi collaboratori tentarono anche, sulla base di queste ipotesi, di
riprodurre il processo che darebbe origine al pensiero visivo costruendo
un apposito software.
I vantaggi del pensare per immagini sono
molteplici e collegati alla natura delle immagini. Come si ricordava
sopra, infatti, le immagini sono facilmente manipolabili,
e permettono quindi di modificare concretamente oggetti, situazioni e
anche di cambiare il proprio punto di vista relativamente a uno stimolo,
osservandolo anche da più prospettive contemporaneamente. Consentono
altresì di confrontare in maniera rapida più stimoli, stabilire analogie anche tra ambiti concettualmente diversi tra di loro e immaginare cambiamenti e spostamenti nello spazio e nel tempo.
Inoltre non essendo sottoposte ai vincoli logici che condizionano il
pensiero verbale le immagini mentali risultano senza dubbio più immediate e condivisibili,
e permettono di affrontare – quanto meno come punto di partenza –
stimoli/argomenti nuovi o che presentano difficoltà in maniera più
confidente e creativa.
•Il ragionamento
Anche
il modo con cui gli esseri umani ragionano, utilizzando cioè il
pensiero per trarre deduzioni dalle informazioni di cui sono a
conoscenza, è stato oggetto di interesse ben prima dei filosofi che
degli psicologi . E a lungo si è ritenuto che le regole della logica classica
fossero un buon modello del ragionamento umano. In particolare si può
partire dalla distinzione tra ragionamento induttivo e deduttivo. L'induzione è un procedimento di formazione della conoscenza che dall'esame dei particolari conduce all'universale.
Fu Aristotele a stabilire la differenza tra l'induzione, che partendo
da fatti e da proposizioni particolari passa a principi generali e la
deduzione, un procedimento che dall'universale porta ai particolari.
Aristotele poi attribuì solo al sillogismo deduttivo la capacità di
costituire la scienza dimostrativa, in grado di addurre la ragione di
una conclusione, mentre l'induzione avrebbe avuto una validità limitata
all'ambito dialettico e retorico. Il ragionamento induttivo è molto
utilizzato nella vita quotidiana, perché parte da dati empirici (il
particolare) per ricavarne regole generali: un buon esempio di
applicazione concreta del ragionamento induttivo è la formazione di concetti.
La deduzione invece, nella filosofia di Aristotele, è il legame che unisce nel sillogismo le premesse alla loro conclusione. Come è noto un sillogismo è una struttura argomentativa in cui date due proposizioni chiamate premesse, una terza proposizione, chiamata conclusione
segue necessariamente da esse: se dunque si accettano come veritiere le
premesse non si può che accettare come vera anche la conclusione che da
esse deriva. Le proposizioni che compongono un sillogismo possono
essere di diversi tipi: universali affermative (tutte le mucche sono erbivore), universali negative (nessun uomo è una mucca), particolari affermative (qualche uomo mangia carne di mucca) e particolari negative
(qualche mucca non è pezzata). Le diverse premesse si possono combinare
in sedici modi diversi. Un esempio di buon sillogismo potrebbe essere: “Tutte le mucche sono erbivori. Tutti gli erbivori hanno una buona digestione. Tutte le mucche hanno una buona digestione.”
“Erbivori” è chiamato termine medio in quanto è presente in entrambe le premesse, collegandole tra di loro, ma non è presente nella conclusione.
Se la logica formale si è soffermata a studiare sillogismi, ma ha anche distinto tra sillogismi validi e non validi, gli psicologi, invece, hanno preferito concentrarsi sui processi cognitivi sottesi al ragionamento di tipo deduttivo.
Come prevedibile è stato riscontrato che le persone trovano più facile
applicare i sillogismi (e ne seguono più facilmente la logica) quando i
concetti coinvolti non sono astratti o scientifici ma concreti e legati
al loro vissuto esperienziale. Inoltre il grado di accordo o disaccordo
degli individui rispetto alle conclusioni così come la piacevolezza-
spiacevolezza intrinseca delle conclusioni cui porta il sillogismo,
influiranno sul giudizio rispetto alla validità del sillogismo stesso. I
sillogismi sono comunque considerati in genere una modalità di
ragionamento piuttosto oscura e artificiosa.
Per risolvere problemi di tipo logico generalmente si utilizzano ragionamenti basati su regole di inferenza,
regole cioè che stabiliscono che una certa asserzione è vera se si
verificano o se sono vere determinate condizioni di contorno. Ad
esempio: Amilcare suona o il flauto o il banjo. Amilcare non suona il
banjo, perciò Amilcare suona il flauto (p o q; non p, perciò q).
Oppure: Amilcare suona il flauto. Se qualcuno suona il flauto i vicini
si lamentano per il rumore. Allora i vicini di Amilcare si lamentano per
il rumore (p; se p allora q, perciò q).
Ma questi tipi di ragionamenti, strettamente legati alle regole della
logica formale, rimandano in maniera forte ad un ragionamento su basi
astratte. Le persone che non sono pratiche dell'applicazione di queste
regole preferiscono, come già si diceva a proposito dei sillogismi,
rifarsi a termini più concreti.
Ph. N. Johnson-Laird
per spiegare il processo che gli individui utilizzano nella vita di
tutti i giorni per risolvere problemi che implicano una modalità di
ragionamento di tipo deduttivo ha introdotto il concetto di modello mentale: gli individui si costruiscono rappresentazioni delle situazioni che rispecchiano il modo in cui loro le hanno comprese.
Le
modalità di ragionamento appena presentate sono caratterizzate dalla
peculiarità di portare gli individui a trarre delle conclusioni da date
premesse. Spesso risulta opportuno, ovviamente, controllare la validità
delle conclusioni cui si è giunti: il processo cognitivo con il quale
compiamo questa operazione altro non è se non la verifica delle ipotesi.
È
possibile verificare le ipotesi mediante le regole di inferenza sopra
esposte, oppure mediante i modelli mentali, ma anche attraverso schemi pragmatici di ragionamento.
Uno schema pragmatico di ragionamento può essere visto come una
generalizzazione di esperienze quotidiane, dalle quali estraiamo una
serie di “regole per l'agire” che poi applichiamo a casi simili che ci
capita di incontrare.
•Soluzione dei problemi
Quando ci si trova davanti ad una situazione nuova, che non si sa con certezza come affrontare, questa situazione viene percepita come un problema.
Problema può dunque essere una situazione difficile a scuola o sul
lavoro, il trovare un modo per eludere una regola troppo rigida, per
ovviare a un inconveniente dell'ultimo minuto che ha scombinato i nostri
piani, ma anche l'escogitare una mossa migliore per sconfiggere il
nostro avversario in una partita di scacchi.
Alla soluzione per
tali situazioni in genere non si perviene attraverso la deduzione o
l'induzione, ma attraverso l'ideazione di una soluzione originale che
non deriva dell'applicazione di principi astratti né dalla sola
esperienza passata.
In linea di principio due sono le tipologie
principali di ragionamento utilizzate nella risoluzione di problemi:
algoritmi ed euristiche. Un algoritmo è un procedimento di
calcolo che si basa sull'applicazione di un numero finito di regole che
determinano in modo meccanico tutti i singoli passi del procedimento
stesso. Nel Medioevo con il termine algoritmo si indicava ogni
procedimento mediante il quale si eseguivano le operazioni tra i numeri
naturali (ad esempio addizione, sottrazione, moltiplicazione e
divisione) attraverso la loro rappresentazione decimale con le cifre
arabe. In seguito il termine è stato esteso a indicare ogni procedimento che consente di risolvere un qualsiasi problema, relativo anche a enti non numerici, in modo meccanico, mediante l'applicazione di un sistema esplicito di regole effettive.
Per avere un'idea dei campi di maggior impiego di strategie basate
sull'impiego di algoritmi basti pensare che l'individuazione di
algoritmi ha accompagnato la storia di tutti i settori della matematica,
in quanto la dimostrazione di esistenza delle soluzioni per un
qualunque problema è sempre stata accompagnata dalla ricerca di regole
per “calcolare effettivamente” tale soluzione. Ma la ricerca di
algoritmi ha assunto particolare rilevanza con l'affermarsi
dell'informatica in quanto i computer sono essenzialmente esecutori di
algoritmi. Di conseguenza gli algoritmi – ideali per il funzionamento di
una macchina come il computer con enormi capacità a livello di gestione
di sistemi di memoria – spesso risultano inattuabili per gli esseri
umani in quanto richiederebbero di prendere in considerazione un numero
talmente elevato di possibilità da risultare, quand'anche attuabili, del
tutto antieconomiche dal punto di vista del tempo e dell'economia
cognitiva.
In questi casi si può ricorrere alle euristiche, strategie di soluzione dei problemi basate sull'analisi di un numero limitato di alternative, selezionate in quanto ritenute le più promettenti,
così da ridurre il tempo di ricerca rispetto all'esame completo e
sistematico di tutte le possibili risposte. Un esempio di euristica è l'analisi mezzi-fini, consistente nella progressiva riduzione della distanza tra la condizione di partenza e l'obiettivo da raggiungere.
Tale riduzione si opera scegliendo, tra le alternative che si
presentano in ciascun passaggio del processo di soluzione del problema,
quella che avvicina maggiormente alla meta finale. È come se,
percorrendo una strada, a ogni incrocio si scegliesse la via che conduce
più vicino al posto in cui si vuole giungere. Le euristiche sono di conseguenza una procedura molto semplificata rispetto agli algoritmi,
non indicando con precisione ogni azione che il soggetto impegnato
nella soluzione del problema deve o dovrebbe intraprendere, e non
garantiscono, inoltre, il raggiungimento della soluzione del problema di
partenza. In compenso sono particolarmente flessibili ed “economiche” e
perciò vengono spesso utilizzate in maniera spontanea nella vita di
tutti i giorni, anche con buoni risultati. Esse vengono utilizzate sia
per la risoluzione di problemi di cui conosciamo dati certi su cui
lavorare sia per stimare situazioni dove più ampio spazio è lasciato
alla probabilità, e si tratta quindi di stimare la probabilità di eventi
che ci sono presentati, sulla cui base procedere poi alla soluzione o a
una valutazione della situazione stessa.
Nella risoluzione di problemi applicare un'euristica vuol dire innanzitutto suddividere il problema in più fasi. La prima fase è il realizzare l'esistenza di un problema (se non mi rendo conto di dover “fare” qualcosa difficilmente cercherò di attuare una qualsiasi strategia solutoria) e comprenderne la natura
(Che informazioni possiedo? Di quali informazioni necessito?). Sulla
base della rappresentazione del problema che ci si costruisce a partire
da questa prima panoramica si passerà a cercare di impostare un piano per la soluzione
del problema (quali strategie impiegare, come impiegarle, che obiettivi
intermedi proporsi, anticipare i possibili ostacoli o difficoltà e
ipotizzare possibili strade alternative per evitarli...), si tratterà
poi di mettere in atto il piano ideato e infine di valutarne gli esiti.
Tra tutte le fasi elencate la più importante per la buona riuscita del
processo solutorio è la prima: fondamentale è infatti il modo in cui ci
si rappresenta il problema, gli obiettivi da raggiungere e le risorse a
disposizione. Questo perché costruendoci un nostro modello mentale del
problema in un certo senso ritrascriviamo le informazioni che abbiamo a disposizione, integrandole con le nostre credenze e la nostra visione del compito.
Questo a volte può portare fuori strada rispetto alla soluzione del
problema, in quanto può capitare che ricodificando i dati si passi a una
formulazione più complicata degli stessi, oppure che si aggiungano
vincoli o limiti che in realtà non sono presenti nel problema in sé.
La
tendenza ad applicare una strategia solutoria già sperimentata ma
inadatta alla situazione contingente, o a considerare un'unica strategia
escludendo a priori strategie alternative è nota come impostazione mentale negativa,
che porta a considerare come apprendimenti precedenti possano, se non
interiorizzati con giusta prospettiva, andare ad influire in maniera
controproducente con nuovi apprendimenti in campi similari ma che
richiedono processi o strategie differenti. Una particolare forma di
rigidità nella soluzione di problemi è la fissità funzionale,
un meccanismo mentale consistente nella tendenza a prendere in
considerazione gli elementi di un problema secondo il loro uso comune o
tradizionale, mentre la soluzione richiede che tali elementi vengano
impiegati in un ruolo insolito.
Gli apprendimenti passati possono
anche essere benefici per la risoluzione di problemi, se utilizzati in
maniera creativa come spunto per produrre analogie produttive tra
situazioni diverse. In psicologia infatti la creatività è intesa come la capacità di produrre molte e diversificate idee, di compiere collegamenti tra idee usualmente considerate non aventi elementi in comune (le quali tuttavia possono essere messe in rapporto attraverso una serie di passaggi associativi), di ristrutturare le situazioni.
Questi elementi consentono una ristrutturazione più ampia del problema,
consentono anche di superare eventuali fissità mentali e generalmente
garantiscono una produzione più diversificata di strategie solutorie e
una maggiore facilità nel rapportarsi a situazioni nuove.
Accennavamo
poco sopra che le euristiche vengono impiegate anche per situazioni in
cui ci sia una dose di incertezza nelle informazioni che possediamo, e
dove sia pertanto necessario prendere decisioni sulla base di una stima delle probabilità
che un fatto si verifichi o meno oppure che sia o non sia vero. Diverse
dalle euristiche che vengono abitualmente utilizzate per compiti di
questo genere possono condurre facilmente le persone che le impiegano a
cadere in errore. Le più diffuse sono l'euristica dell'accessibilità (valutare la probabilità di un evento sulla base della facilità con cui ci vengono in mente esempi pertinenti) e l'euristica della rappresentatività
(quando, dovendo formulare un giudizio riguardo quale categoria o
classe meglio rappresenta un evento, una persona o un oggetto, si
procede confrontando non i dati in nostro possesso conformemente a
regole di logica formale, ma le due classi da paragonare). Questa
euristica della rappresentatività porta anche a comprendere il falso ragionamento del giocatore d'azzardo, il quale generalmente è propenso a
ritenere che sia lo stereotipo dell'irregolarità a guidare i risultati del
gioco. Per cui se giocando a “testa o croce” sarà uscito per più volte di
seguito “testa” si è propensi a scommettere che il lancio successivo darà come
risultato croce ragionando sull'assunto che la faccia “testa” è già uscita molte
volte di seguito. In realtà secondo la legge della probabilità le due facce
hanno sempre la medesima probabilità di uscire, cioè 1 su 2.
L'intelligenza
Con il termine intelligenza, in senso psicologico generale, si intende quel processo
mentale che permette di acquisire nuove idee e capacità che consentono
di elaborare concetti e i dati dell'esperienza per risolvere in modo
efficace diversi tipi di problemi. Tuttavia, il concetto è
molto ampio, sicché non esiste una definizione univoca e accettata
universalmente; ogni spiegazione risente sempre dell'orientamento di
pensiero di chi la formula.
•Teorie sull'intelligenza
La psicologia ingenua vede l'intelligenza come un insieme di capacità: essenzialmente la capacità di risolvere problemi (intesa come capacità di ragionare utilizzando processi logici, stabilire connessioni, essere flessibili), capacità verbale (saper parlare in maniera chiara, possedere un buon vocabolario) unite a una buona competenza sociale (accettare gli altri, ammettere i propri errori, possedere una buona empatia).
Da
questi esempi si deduce che l'intelligenza in sé è vista come un
fattore generale che comprende al suo interno fattori specifici. Su
questa struttura dell'intelligenza concordano anche molti studiosi.
Secondo Ch. Spearman
l'intelligenza è una capacità mentale generale, cioè un fattore di base
comune a tutte le attività intellettuali, che egli chiamò fattore g. L.L. Thurstone e Guilford criticarono però la posizione di Spearman sostenendo l'esistenza di molteplici fattori di abilità mentale tra loro indipendenti (7 per Thurstone, non meno di 120 per Guilford). R. Sternberg ha cercato di sintetizzare queste diverse posizioni sostenendo che il numero dei fattori cambia con il crescere dell'età:
si passa infatti da un'abilità intellettuale generale a vari gruppi di
abilità. Di conseguenza, le teorie che si basano su un numero inferiore
di fattori rappresentano meglio l'intelligenza dei bambini, mentre
quelle che si basano su molti fattori sono più adeguate per gli
adolescenti e per gli adulti. Più recentemente H. Gardner ha elaborato la teoria delle intelligenze multiple,
secondo la quale non esisterebbe un'unica forma generale di
intelligenza, ma distinti tipi di competenze (linguistica, musicale,
spaziale, logico-matematica ecc.) ciascuna competente per l'elaborazione
di uno specifico ambito di informazioni.
•Misurare l'intelligenza
Nonostante
l'importanza che l'intelligenza svolge per lo sviluppo dell'uomo, essa è
stata per lungo tempo trascurata dagli psicologi, sia perché difficile da definire e da valutare,
sia perché, a partire da Wundt i processi mentali superiori venivano
esclusi dalla ricerca psicologica in quanto non valutabili in maniera
rigorosa attraverso una ricerca sperimentale. Le prime indagini,
effettuate da Thorndike, erano rivolte soprattutto
all'intelligenza degli animali e avevano lo scopo di verificare quanto
questi potessero apprendere. La Gestalt, proseguendo
questa linea di indagine, considerò il comportamento intelligente come
una forma di adattamento all'ambiente, diverso però dal comportamento
istintivo e da quello per prove ed errori. In un comportamento
intelligente, infatti, lo scopo non viene raggiunto per caso, ma dopo
aver compreso la globalità della situazione, cioè dopo aver collegato
consapevolmente i mezzi e i fini. Agli inizi del Novecento si è
incominciato a studiare l'intelligenza in termini psicometrici, cioè
elaborando dei test che potessero valutare una serie di capacità: la
memoria, l'attenzione, l'orientamento spaziale e temporale ecc.
I francesi A. Binet e J. Simon elaborarono un primo test di intelligenza che avrebbe dovuto predire la prestazione scolastica di un bambino
attraverso una serie di prove riguardanti la conoscenza, il pensiero,
il ragionamento e il giudizio. Sulla base delle prestazioni dei soggetti
veniva loro attribuita un'età mentale che rappresentava il livello di
sviluppo della loro intelligenza. Per età mentale si
intende quella attribuita ad un bambino sulla base del numero di prove
che riesce a superare correttamente confrontato con il numero di prove
superato mediamente da bambini coetanei. Un bambino di età cronologica
pari a 9 anni, avrà un'età mentale di 9 anni se supera le prove che i
bambini di 9 anni in media superano senza errori, di 10 se supera anche
quelle che risultano facili per bambini più grandi, di 7 se invece non
va oltre quelle proprie dei bambini di 7 anni. L.W. Stern introdusse poi il concetto di quoziente d'intelligenza, o QI,
dato dal rapporto tra l'età mentale di un bambino e la sua età
cronologica moltiplicato per 100. L'utilità pratica che può avere un
punteggio ottenuto in un test di intelligenza dipende soprattutto dalla
sua stabilità nel tempo. Attraverso una serie di studi si è visto che il
QI rimane relativamente stabile nel corso della vita (pur con qualche
piccola oscillazione), iniziando a declinare con l'età solamente dopo
gli 80 anni. Nello specifico le abilità che più velocemente declinano
sono quelle che chiamano in causa risposte immediate e veloci, mentre
più stabili restano abilità cognitive generali quali le capacità
verbali/linguistiche.
I test per la misurazione dell'intelligenza
sono stati usati negli Stati Uniti a partire dai primi anni del
Novecento e si sono notevolmente diffusi. Attualmente sono ancora
utilizzati, sia pure rivisti e rielaborati. I più famosi sono il Terman-Merril e le scale di Wechsler
per l'infanzia, la fanciullezza, l'adolescenza e l'età adulta. Queste
ultime sono caratterizzate (anche rispetto ai test di Binet) non solo
per il fatto che considerano un campione più ampio (la Stanford-Binet si
fermava ai 16 anni) ma anche perché calcolano un punteggio separato per
un QI verbale e un QI di esecuzione.
•Intelligenza ed educazione
L'intelligenza
è stata considerata per molto tempo una capacità innata, dipendente dal
patrimonio genetico ereditato dai genitori. Attualmente, grazie
soprattutto agli studi di J. Piaget sullo sviluppo dell'intelligenza nel
bambino, si ritiene che a innalzare o ad abbassare il rendimento intellettuale del bambino contribuiscano sia i fattori genetici, sia i fattori ambientali.
A questo proposito sono state condotte molte ricerche di confronto tra
gemelli, tra fratelli e tra bambini adottivi per cercare di stabilire
effettivamente quanto possa influire l'ereditarietà e quanto l'ambiente.
Nonostante non si sia raggiunta una risposta unanime, si è verificato
che le capacità innate non si trasformano in intelligenza effettiva
senza una stimolazione dall'ambiente, e che perciò un ambiente privo di
stimoli può inibire la crescita.
In sintesiLa mente | Visione dualistica dell'uomo –Cartesio –Posizioni moniste –Posizioni dualiste –Coesistenza di monismo e dualismo –Evadere dalla distinzione Considerare corpo e mente come costitutivamente uniti |
La percezione | Le teorie della percezione: –Teoria empiristica –Teoria della Gestalt –Movimento del New Look –Teoria ecologica L'organizzazione percettiva: –Attenzione –Principi di unificazione (principi di raggruppamento, articolazione figura-sfondo, costanze percettive) Percezione della profondità: –Indizi monoculari (accomodazione, indizi pittorici) –Indizi binoculari (disparità retinica, convergenza) Percezione del movimento: –Distanza assoluta e distanza relativa sulla retina –Confronto tra movimenti percepiti –Rapporto stimolo-sfondo |
L'Apprendimento | Condizionamento classico: –Caratterizzato da: stimolo incondizionato, risposta incondizionata, stimolo condizionato, risposta condizionata –Estinzione –Recupero spontaneo –Generalizzazione –Discriminazione Condizionamento operante: –Caratterizzato da: associazione "stimolo-rinforzo-risposta (apprendimento)" –Rinforzo intermittente (intervallo fisso, intervallo variabile, rapporto fisso, rapporto variabile) –Rinforzo negativo –Modellamento Approccio cognitivo: –Gestalt: apprendimento per insight (riorganizzazione di elementi cognitivi) –Piaget: non si può apprendere senza comprendere –Tolman: apprendimento sulla base di mappe cognitive –Metacognizione: la riflessione sul processo dell'apprendimento |
La Memoria | La misurazione della memoria: –Ebbinghaus: riapprendimento e sovrapprendimento –Bartlett: l'importanza della comprensione; schemi mentali –Rievocazione, riapprendimento e riconoscimento La teoria multiprocesso: –Registro sensoriale –Memoria a breve termine –Memoria a lungo termine La profondità di elaborazione: –Importanza della qualità e del livello di profondità di elaborazione delle informazioni L'oblio: –Tempo –Attenzione –Fattori emotivi –Interferenza di altri ricordi –Cause organiche Le mnemotecniche: –Metodo dei loci –Parole piolo –Parole chiave |
Il Pensiero | Pensare per immagini: –Pensiero verbale contrapposto a pensiero visivo –Wundt e l'introspezione –Studi sulla memoria –La natura delle immagini mentali, la soluzione di Kosslyn (rappresentazione autonoma) –Vantaggi Il ragionamento –La logica classica –La formazione dei concetti –La deduzione –Regole di inferenza –Modello mentale –La verifica delle ipotesi La soluzione dei problemi –Algoritmi ed euristiche –Impostazioni mentali negative e fissità funzionali –Creatività –La stima delle probabilità |
L'Intelligenza | Teorie sull'intelligenza: –Psicologia ingenua: intelligenza come insieme di capacità –Spearman: il fattore g –Thurstone e Guilford: i molteplici fattori di abilità mentale –Sternberg: i fattori cambiano con l'età –Gardner: teoria delle intelligenze multiple Misurare l'intelligenza: –Binet e Simon: età mentale ed età cronologica –Il QI: rapporto tra età mentale ed età cronologica –Intelligenza ed educazione: genetica e ambiente |
Nessun commento:
Posta un commento