Scrigroup - Documente si articole

     

HomeDocumenteUploadResurseAlte limbi doc
BulgaraCeha slovacaCroataEnglezaEstonaFinlandezaFranceza
GermanaItalianaLetonaLituanianaMaghiaraOlandezaPoloneza
SarbaSlovenaSpaniolaSuedezaTurcaUcraineana

BiografiaBiologiaBotanicaChimicaComputerComunicazioneCostruzioneDiritto
EducazioneElettronicaFisicaGeografiaGiochiGrammaticaIngegneriaLetteratura
LibriMarketingMatematicaMedicinaMusicaNutrizionePsicologiaRicette
SociologiaStoriaVarie

Psicologia Cognitiva

psicologia



+ Font mai mare | - Font mai mic



DOCUMENTE SIMILARE

Psicologia Cognitiva

Il Comportamentismo



Il “Comportamentismo” nasce nel 1913 negli Stati Uniti grazie all’opera di J.B. Watson; termini che sembrerebbero naturali in una scienza come la Psicologia, quali “mente”, “coscienza”, pensiero”, sono stati banditi dal linguaggio psicologico da parte dei comportamentismi, i quali hanno sostenuto che occorre utilizzare esclusivamente termini riferiti a fatti di osservazione. La Psicologia si riduce, in questo modo,unicamente allo studio del comportamento osservabile e le sue ipotesi consistono nel descrivere le possibili associazioni tra stimoli e risposte. Ne consegue che il ruolo mediatore dell’organismo e le cosiddette variabili che ne descrivono lo stato “interno” non possono essere assolutamente presi in considerazione, dato che riguardano entità non direttamente osservabili. Per quanto concerne il problema della conoscenza la posizione comportamentista si può riassumere dicendo che, secondo questa corrente, non si può in alcun modo parlarne, dal momento che la conoscenza non è un dato osservabile. In realtà tutto quello che si può fare è parlare egli effetti prodotti dalla conoscenza. L’insufficienza del paradigma stimolo-risposta viene ben presto evidenziata, sia sul piano della Psicologia, che su quello della Filosofia della Scienza, già fin dagli anni Trenta. Nell’ambito della prima ricercatori come Tolman e Hull mettono in luce che il comportamentismo, anche a livello animale, può essere descritto solo ricorrendo a concetti che implicano qualche tipo di rappresentazione interna della conoscenza dell’organismo (le mappe cognitive introdotte da Tolman). Tolman ammette la possibilità che il comportamento sia guidato da finalità e predisposizioni, senza le quali non sarebbe possibili neanche la descrizione dei fenomeni più semplici, quali nel caso dei ratti la ricerca del cibo o le reazioni di evitamento.

Esistono numerose teorie associazionistiche dell’apprendimento proposte dai Behavioristi, che si differenziano tra loro per diversi aspetti: livello di analisi, natura delle associazione.

Per quanto riguarda il livello di analisi si distingue tra teorie:

> Macroscopiche: prendono in considerazione situazioni-stimolo e situazioni di risposta in modo globale;

> Microscopiche: suppongono che ogni situazione osservata sia a sua volta composta da elementi microscopici, di per se non facilmente osservabili, che costituiscono, però, i veri oggetti di cui si deve occupare la teoria.

Per quanto riguarda la natura delle associazioni, bisogna distinguere:

> Associazioni dirette: ogni stimolo è associato a una o più risposte;

> Associazioni indirette: ogni stimolo è associato a uno o più costrutti intermedi, che a loro volta sono associati alle risposte.

La teoria di Thorndike

Questa teoria è anche nota con il nome di connessionismo, si tratta di una teoria macroscopica, di tipo diretto e basata sul rinforzo; Thorndike parla di una forza della connessione tra un dato stimolo e una data risposta, intesa come probabilità che, al presentarsi di questo stimolo, segua quella risposta. Secondo lui questa forza aumenta in presenza di un rinforzo provocato dall’effetto positivo della risposta emessa e diminuisce nel caso di un rinforzo negativo (legge dell’effetto).

La teoria di Guthrie

È una teoria microscopica, di tipo diretto e basata sulla contiguità temporale; secondo Guthrie esistono solo due possibili casi di associazione tra un microstimolo e una microrisposta: o l’associazione è presente o è assente (legge del tutto o nulla).

La teoria di Tolman

Si tratta di una teoria macroscopica, di tipo indiretto basata sull’aspettativa; quest’ultima è intesa come associazione tra segni presenti nell’ambiente e significati che essi assumono per l’organismo. L’associazione segni-significati viene a dipendere dall’esperienza fatta dal soggetto; naturalmente l’introduzione del concetto di aspettativa (mappa cognitiva, si riferisce alla struttura dell’associazioni segni-significati relativi all’organizzazione spaziale di un particolare ambiente).

La teoria di Estes della campionatura dello stimolo (SST)

La SST costituisce una formulazione matematica della teoria i Guthrie, ottenuta utilizzando i metodi del calcolo delle Probabilità, ma a differenza della teoria di Guthrie, la SST è in grado di prevedere la forma generale della curva di apprendimento.

In particolare W. Estes ha cercato di costruire un modello che cercasse di spiegare come mai in certe circostanze l’apprendimento avviene bruscamente, con modalità del tipo “tutto o nulla”,, mentre in altre richiede un gran numero di ripetizioni o di esperienze precedenti.

Nell’ambito della Filosofia della Scienza ci si rende conto ben presto che la pretesa di utilizzare termini del linguaggio teorico corrispondenti a fatti osservazione è una pura illusione. Infatti non è possibile aver una corrispondenza biunivoca tra termini teorici e dati di osservazione.

Così il “Neo-comportamentismo” è costretto a introdurre dei costrutti ipotetici per spiegare l’esistenza di variabili intervenenti che modulano l’associazione tra stimoli e risposte. Così facendo il comportamentismo mette in evidenza i motivi stessi che ne hanno prodotto la crisi, sfociata negli anni ’60 con il Cognitivismo.

In conclusione il comportamentismo non riesce a descrivere o a costruire modelli coerenti dei principali processi in cui interviene la conoscenza. Va inoltre ricordato che uno schema di associazioni stimolo-risposta non è in grado di spiegare sequenze comportamentali, sia pure di minima complessità.

La Teoria dell’Informazione e Cibernetica

La Teoria dell’Informazione nasce nel 1949 fondata da Shannon e Weaver, in seguito alla nascita della Cibernetica del 1944 ad opera di Norbert Wiener. La comparsa di queste nuove discipline è concomitante allo sviluppo del calcolatore elettronico digitale, inventato e realizzato nel 1944 da J. Von Neumann.

Per quanto riguarda la Cibernetica, essa si presenta inizialmente come una teoria generale dei processi di retroazione, o di feedback, ovvero di quei processi in cui lo stato di uscita del sistema viene riportato in ingresso al sistema stesso per controllarne la performance. Un esempio è quello di un sistema guida automatico di un missile, che agisce sui motori in base alla differenza tra la direzione effettiva di volo e quella voluta. La Cibernetica, secondo Wiener, ha dunque una duplice valenza: lo studio dei suoi concetti fondamentali, da un lato, permette di comprendere il comportamento degli esseri viventi e dall’altro può essere alla base della progettazione di nuovi dispositivi artificiali “intelligenti”.

Per quanto riguarda la Teoria dell’Informazione essa prende in esame la situazione standard in cui si verifica un processo di comunicazione, dove intervengono un emettitore di segnali, un canale di comunicazione e un ricevitore.

Il processo di emissione è un processo fisico, in cui viene liberata dell’energia, così come sono processi fisici la trasmissione del segnale lungo il canale, in cui si ha il passaggio dell’energia e la sua ricezione, in cui l’energia viene assorbita. Eppure secondo la Teoria dell’Informazione questa descrizione fisica non è sufficiente per descrivere ciò che effettivamente accade in un processo di comunicazione. È necessario introdurre un qualcosa, che si può denominare L’”aspettativa” del ricevitore relativamente ai possibili segnali che gli possono arrivare. Questa aspettativa viene rappresentata in modo formalizzato tramite uno schema di probabilità, tipico di ogni ricevitore, che gli consente di assegnare ad ognuno dei possibili messaggi una probabilità a priori che esso si presenti all’ingresso.

Ad es. nel caso in cui i messaggi siano di due tipi, come la cifra 0 o la cifra 1, entrambi con uguali probabilità a priori, date dal 50%, l’informazione ricevuta quando si presenta effettivamente uno dei due messaggi vale esattamente 1. Nel linguaggio della Teoria dell’informazione si dice che in questo caso è stato ricevuto 1 bit di informazione.

Come si vede in questo modo si viene ad introdurre, oltre ad una quantità di natura non fisica, come l’informazione anche un elemento soggettivo, quale il sistema di probabilità a priori del particolare ricevitore. Senza questo elemento soggettivo non si potrebbe addirittura parlare di informazione.

Questa perdita di oggettività viene arginata ipotizzando che un gran numero di ricevitori possieda schemi di probabilità a priori identici almeno per certe classi di messaggi, si tende così ad identificare queste probabilità con la frequenza relativa con cui messaggi stessi compaiono. Due sono però i pericoli:

  1. l’identificazione della frequenza con la probabilità è matematicamente corretta solo se si verificano infiniti casi (circostanza impossibile);
  2. trascurare il significato,nella teoria di Shannon, il significato non viene preso in considerazione, in quanto l’interesse è incentrato su come minimizzare gli effetti di distorsione del segnale provocati dal rumore durante il processo di trasmissione;

Il fatto di eliminare il significato dalla descrizione dei processi di comunicazione toglie alla Teoria dell’Informazione molto della capacità di descrivere processi effettivi in cui interviene la conoscenza, riducendola ad uno schema teorico utile, tutt’al più, per trattare processi di trasmissione di dati lungo una linea telefonica. Così Facendo, la teoria dell’informazione ha introdotto l’idea che sistemi naturali e sistemi artificiali possono essere studiati in modo unitario, utilizzando lo stesso linguaggio e per questo motivo ha dato un forte impulso allo sviluppo di programmi per il computer volti a simulare comportamenti umani o animali.

Psicologia Cognitiva e intelligenza artificiale: il ceno-comportamentismo:

Il termine ceno-comportamentismo è stato coniato nel 1968 da Berlyne per indicare quella fase del comportamentismo nella quale gli psicologi hanno rivolto la loro attenzione al ruolo dei processi interni dell’individuo, nell’intento apparente di chiarire il ruolo del sistema nervoso centrale in rapporto al comportamentismo.

La Teoria di Hebb (“Assembramenti cellulari”)

Hebb ha proposto una teoria detta degli “Assembramenti cellulari”, fondata su ipotesi di carattere neofisiologico, rivolta a spiegare i processi i mediazione, cioè quei processi nei quali l’individuo non risponde immediatamente allo stimolo, ma si comporta come se avesse a disposizione timoli e risposte “interni”, derivanti da strutture esistenti nel suo sistema nervoso.Processi di questo genere si hanno nei fenomeni attentivi e percettivi.

Secondo Hebb nel sistema nervoso esisterebbero gruppi di neuroni interconnessi, i cosiddetti assembramenti cellulari” nei quali si verifica l’eccitazione simultanea di tutti i neuroni appartenenti ad un dato gruppo in seguito all’eccitazione anche di uno solo dei suoi membri. Quando l’eccitazione di un neurone è seguita dall’eccitazione di un secondo neurone ad esso interconnesso, Hebb postula che l’efficacia sinaptica del collegamento trai due neuroni aumenti (Legge di Hebb).

Secondo la teoria di Hebb non vi è distinzione concettuale tra memorizzazione e percezione. Quando arriva una stimolazione esterna essa attiva un particolare assembramento cellulare, che fornisce con il suo stato di attivazione, la rappresentazione interna dello stimolo stesso ed è disponibile per ulteriori elaborazioni. Il fatto che questi assembramenti possono eccitarsi reciprocamente anche in assenza di stimolazioni esterne consente ad Hebb di spiegare i vari processi di utilizzo e trasformazione della conoscenza, nonché il pensiero e le emozioni. In particolare la conoscenza viene identificata direttamente con la struttura delle connessioni sinaptiche tra i neuroni. Mentre l’acquisizione della conoscenza deriva dalla interazione tra le stimolazioni interne e la struttura interna delle connessioni. La cessione e l’utilizzo della conoscenza si verificano quando la struttura delle connessioni determina i pattern effettivi di attivazione dei vari assembramenti cellulari, in grado di dare origine a risposte sia esterne che interne.

L’intelligenza artificiale:

Questa disciplina ha origine dai tentativi di simulazione del comportamento umano tramite programmi per il computer. L’intelligenza Artificiale è definita come la scienza che si occupa della progettazione di macchine in grado di esibire comportamenti intelligenti.

Il test di Turing

il test di turino è stato elaborato da A.M. Turing per valutare le capacità di pensiero intelligente di un dispositivo artificiale, come un calcolatore. Secondo Turing si può considerare una macchina intelligente quando un essere umano, che osservi le risposte delle macchina stessa di fronte a domande che lui pone senza conoscere la natura della fonte di queste risposte, non è più in grado di decidere correttamente se le risposte medesime sono fornite da un uomo o da una macchina. Si tratta di una impostazione di carattere comportamentista.

Due diverse impostazioni: intelligenza artificiale “dura” e intelligenza artificiale “soft”

La prima sostiene che la capacità di pensiero intelligente sia definibile interamente in termini algoritmici, ovvero di procedimenti di calcolo, e che quindi possa essere implementata, in linea di principio su una macchina con procedure molto diverse da quelle usate dagli esseri umani.

La seconda sostiene che il pensiero intelligente è una capacità tipica degli esseri umani, in particolare ciò che conta non è ottenere comportamenti intelligenti con qualunque mezzo, ma cercare di riprodurre per quanto possibile, le caratteristiche effettive dei processi di pensiero umano compresi errori e mancato raggiungimento degli obbiettivi nella speranza di migliorare le prestazioni dei calcolatori esistenti.

Il prodotto più interessante dell’intelligenza artificiale è costituito dai c.d. “Sistemi Aperti” in grado di emettere conclusioni, valutazioni e diagnosi a partire da una base di conoscenza immessa precedentemente. Essi si comportano come un esperto umano nel particola dominio cui si riferisce la conoscenza che essi hanno inserito.

L’unità T.O.T.E.

Si tentò da parte di Miller, Galanter e Pribram di fondare direttamente la Psicologia con i concetti della Cibernetica: la c.d. unità T.O.T.E. (test-operate-test-exit) anziché una associazione stimolo-risposta, è una rappresentazione generale di un anello feedback nel quale, il risultato di un’azione effettuata da un soggetto viene confrontato, con gli obbiettivi che esso intende raggiungere e l’eventuale discrepanza tra i sue registrata nel confronto viene utilizzata come segnale di ingresso per determinare la nuova azione da eseguire per ridurre la discrepanza stessa.

Il “Cognitivismo”

Negli anni ’60 tutte queste teoria hanno delineato la nascita di una nuova corrente della Psicologia, che si contrappone al comportamentismo: il Cognitivismo:

Le principali caratteristiche sono:

a) La psicologia deve focalizzare la sua attenzione sulle peculiarità dei processi di mediazione che l’organismo introduce tra stimolo e risposta;

b) La conoscenza, ovvero l’informazione, può essere misurata in bit ed i processi di acquisizione, richiamo e utilizzo della conoscenza sono da considerarsi strutturalmente equivalenti ai metodi del computer.

c) La conoscenza è rappresentata solo esclusivamente sotto forma di sequenze di simboli ed i processi di elaborazione cognitiva altro non sono se non programmi di calcolo, basati su opportuni algoritmi, che consentono di elaborare simboli, proprio come avviene nei programmi per computer.

Psicologia cognitiva e Intelligenza artificiale debole tendono a coincidere in un’unica disciplina, fatto che ha notevoli risvolti sia sul piano concettuale che su quello applicativo.

Ma una vera elaborazione dell’informazione presuppone un ricevitore in grado di cogliere il significato dei messaggi che riceve e questo è proprio quello che un computer,da solo, non è in grado di fare. L’analogia uomo-computer appare dunque rischiosa e fuorviante.

L’approccio Connessionista

Fin dagli anni ’70, si è messo in luce che esistono altre forme di rappresentazione della conoscenza, differenti da quella simbolica. Vi è da considerare che l’utilizzo di processi di elaborazione simbolica può anche presentare svantaggi. Infatti essi, generalmente richiedono una assoluta precisione nei dati da elaborare e nelle operazioni da eseguire. Modelli di elaborazione della conoscenza basati su processi di calcolo agenti su strutture simboliche darebbero inevitabilmente luogo alla previsione di errori catastrofici o di tempi di elaborazione eccessivamente lunghi rispetto a quelli realmente osservati.

Il Connessionismo non si discosta di molto dal Cognitivismo tradizionale, da cui differisce unicamente per la forma di rappresentazione adottata per descrivere gli stati mentali: pattern di attività di reti neurali anziché sequenze simboliche.

Da qui la necessità di una nuova impostazione nell’ambito della Psicologia dei processi Cognitivi, il “connessionismo”:

L’impostazione connessionista descrive l’azione mediatrice dell’organismo come equivalente a quella esercitata da una opportuna rete i unità in grado di attivarsi, tra loro interconnesse tramite collegamenti che consentono lo scambio reciproco di segnali. Queste reti sono chiamate

“Reti Neurali” (la cui nascita ufficiale risale al 1943 ad opera di W.J.McCulloch e W.Pitts)

Si tratta i un punto di vista che privilegia un’impostazione procedurale della conoscenza e dei processi in cui essa è implementata.

Il grosso vantaggio delle reti neurali è quello di costituire dei sistemi la cui evoluzione è in certa misura indipendente dagli errori o dalle incompletezze dei pattern di ingresso. In secondo luogo, esse eliminano il problema della localizzazione dell’informazione dato che essa è contenuta nella struttura stessa delle interconnessioni tra le unità di una rete.

Il connessionismo identifica la conoscenza con la strutture delle interconnessioni di una rete e la misura tramite i valori numerici attribuiti alla forza di ciascuna di esse. L’acquisizione della conoscenza va identificata con i processi di modifica di queste forze, chiamati anche processi di apprendimento. L’utilizzo della conoscenza coincide con i processi che danno origine a pattern di uscita in seguito alla presentazione di pattern di ingresso, e questo coincide con l’esecuzione effettiva di procedure.

Le reti neurali si sono dimostrate di notevole utilità nel fornire modelli di processi di riconoscimento e categorizzazione di stimoli, nonché di fornire modelli di memorie associative, cioè memorie il cui contenuto può essere richiamato in base alla somiglianza con un opportuno pattern si richiamo.

Il Perceptrone (Reti Neurali)

Il perceptrone è stato progettato Rosenblatt nel 1958. Esso è costituito da due strati di unità, uno di ingresso e l’altro di uscita, collegati da opportune connessioni che vanno solo nella direzione dall’ingresso verso l’uscita. Nella fase di addestramento vengono presentati alla rete opportuni pattern che attivano dapprima le unità di ingresso e questa attività attivazione si propaga poi, attraverso le connessioni, alle unità di uscita, in modo che ogni pattern provoca una particolare risposta da parte della rete. Quest’ultima viene confrontata con la risposta corretta che la rete avrebbe dovuto fornire in seguito alla presentazione di quel pattern e la differenza tra le due innesca un processo di modifica dei pesi delle connessioni. Viene poi presentato in ingresso un nuovo pattern e la procedura si ripete, L’apprendimento ha termine quando, su ognuno dei pattern di addestramento, la differenza tra uscita effettiva e uscita desiderata scende al di sotto di un valore prefissato dallo sperimentatore.

Questa rete non è in grado di apprendere tutti i tipi di classificazione.

Il Perceptrone Multistrato

Molto più potenti sono le reti multistrato, in cui viene inserito, tra ingresso e uscita, almeno uno strato di unità intermedie, le cosiddette unità nascoste.

Nel 1985 Rumelhart, Hinton e William, hanno trovato un algoritmo di modifica dei pesi per queste reti che consente di risolvere ogni problema di classificazione. Esso è noto come algoritmo “Error Back-Propagation” e oggi ne esistono numerose varianti, costruite allo scopo di rendere più efficiente e rapido il processo di apprendimento.

L’ingresso della conoscenza: la percezione

Con questo termine si indica una serie di processi che intervengono sui pattern di stimolazione e producono come risultato qualche forma di cambiamento della stato “interno” del sistema percepente. La percezione non è una copia della realtà ma una sua ricostruzione; la percezione è un atto di ricostruzione operato dal soggetto.

Ci sono diverse teorie a proposito, che si possono suddividere a seconda di due diverse caratteristiche:

1)       Il ruolo che esse attribuiscono alle caratteristiche dello stimolo fornito da un ambiente esterno;

2)       La scomponibilità dei processi percettivi in stadi separati;

Riguardo alla prima caratteristica dello stimolo, distingueremo tra:

Teorie basate sullo stimolo (che ipotizzano che il risultato del processo percettivo dipenda unicamente dalle caratteristiche dello stimolo esterno;

Teorie basate sui fattori interni o costruttiviste, introdotte da Rock, che assegnano ai fattori interni il ruolo fondamentale nel determinare il risultato della costruzione percettiva;

Riguardo la seconda caratteristica a stadi, distingueremo tra:

Teorie a stadi, nelle quali l’elaborazione percettiva è suddivisa in più stadi, ognuno successivo all’altro;

Teorie olistiche, in cui la percezione, per così dire, avviene in un unico atto.

Teorie basate sullo stimolo

Teorie basate sui fattori esterni

Teorie a Stadi

Teoria di Marr e Poggio

Pandemonium

Teoria di Rock

Teoria dell’informazione strutturale

Modelli connessionistici

Teorie olistiche

Teoria di Gibson

Teoria del confronto di Sagoma

Teoria della Gestalt

I registri sensoriali

Il ruolo di e registri sensoriali è stato evidenziato per prima volto da G. Sperling (con l’esperimento della matrice) nel 1960. In questo contesto il registro sensoriale viene chiamato memoria iconica, nel caso di percezione visive, e memoria ecoica quando ci si occupa di percezione acustica.

Le caratteristiche dei registri sensoriali sono:

a) Breve ritenzione dell’informazione;

b) Natura preattentiva e automatica;

c) Specificità nei confronti del tipo di analizzatore sensoriale.

Nel 1980 Coltheart ha ipotizzato che la memoria iconica sia formata da due componenti principali:

La persistenza visiva: riguarda ciò che effettivamente continua ad essere visto anche dopo che lo stimolo è scomparso;

La persistenza informazionale: richiede un più alto livello di elaborazione e, pur non riguardando qualcosa che effettivamente viene visto, conserva l’informazione relativa alla posizione spaziale ed alla struttura degli elementi del pattern di stimolazione.

Successivamente altri ricercatori, in particolare Irwin e Yeomans nel 1986, hanno introdotto una ulteriore suddivisione della persistenza informazionale in due componenti:

Una rappresentazione analogica visiva: contiene le informazioni di tipo spaziale relative agli elementi dello stimolo;

Un codice di identità non visivo: codifica la categoria cui appartengono gli elementi stessi.

Infatti la persistenza visiva diminuisce all’aumentare della durata dello stimolo che della sua intensità; al contrario, la durata della rappresentazione analogica visiva non sembra influenzata dalla durata e dall’intensità dello stimolo.

      La visione tridimensionale

Il problema di come avviene la visione tridimensionale è fondamentale per la comprensione della vera natura dei processi percettivi. Da un punto di vista strettamente fisico la percezione della tridimensionalità non può derivare altro che da una costruzione effettuata dal soggetto, dal momento che le immagini formate sulla retina, in seguito alle stimolazioni luminose ricevute, sono tutte bidimensionali.

Teoria di Marr e Poggio (teoria basta su principi di carattere locale)

Una delle teorie più interessanti a proposito è quella formulata da Marr e Poggio verso la fine degli anni ’70, che ammette l’esistenza di due rappresentazioni primitive del contenuto dell’immagine retinica, una per ciascun occhio, derivanti da un’analisi preliminare nella quale vengono individuati i contorni dei pattern e i posti in cui hanno termine linee e spigoli.

Su queste due rappresentazioni, che Marr e Poggio chiamano primal sketchs   agisce un opportuno modulo, che si occupa delle possibili reciproche corrispondenze, in modo da ottenere, informazioni adatte a fornire indici di profondità

Questo modulo chiamato da Marr e Poggio sketchs 2½-dimensionale opera in modo da soddisfare a due vincoli ben precisi, consistenti nel richiedere che ogni elemento di ciascuno dei due primal sketchs corrisponda ad un singolo elemento del pattern tridimensionale che si intende costruire e che i contorni non possano presentare forte discontinuità nel senso della profondità.

La Psicologia della Gestalt

Per quanto riguarda le teorie basate su principi di carattere globale, la Psicologia della Gestalt ha suggerito un certo numero di principi di carattere generale potenzialmente in grado di spiegare la fenomenologia relativa alla percezione tridimensionale. Essi come fa notare Koffka si riducono tutti a postulare che noi percepiamo un particolare tipo di rappresentazione dei pattern di stimolazione in quanto essa è la più semplice tra le interpretazioni possibili.

Tale affermazione nota come Principio di semplicità o principio del minimo acquista un reale potere esplicativo e predittivo solo se si precisa adeguatamente che cosa si intende per “semplicità” di una interpretazione. Nel 1953 Hochberg e McAlister hanno tentato di definire la semplicità in termine di numero di segmenti e di angoli differenti richiesti da una particolare interpretazione.

Così supponendo di avere un pattern come questo raffigurato, la sua interpretazione in termini tridimensionali verrebbe preferita a quella bidimensionale in quanto più semplice in termini di numero totale di segmenti e di angoli differenti tra loro.

Le teorie basate su principi di minimo globale, hanno incontrato gravi difficoltà nello spiegare gli effetti che si verificano nella percezione delle cosiddette “Figure Impossibili”, ovvero quelle figure la cui interpretazione tridimensionale è in contrasto con le leggi di fisica e della geometria.

Per questo motivo ricercatori come Simon, nel 1967 e Attneave nel 1982 hanno proposto di utilizzare il principio di minimo locale che consentono di interpretare ogni particolare regione del pattern di stimolazione nel modo più semplice in relazione alle interpretazioni date dalle regioni che con essa confinano.

  Riconoscimento di configurazioni e di oggetti

Le teorie relative al riconoscimento hanno una grande importanza non solo nella Psicologia, ma anche nell’ambito dell’Intelligenza Artificiale, dove costituiscono la base per la progettazione di dispositivi di riconoscimento automatico, utilizzabili in un gran numero di situazioni.

Si possono classificare in due tipi di teorie:

a)       Teorie a Stadi: nelle quali il processo di riconoscimento è visto come una sequenza di fasi successive di analisi e sintesi del materiale di stimolazione;

b)      Teorie di campo: che vedono il processo di riconoscimento come costituito da una singola fase, nella quale l’oggetto e l’ambiente in cui appare immerso vengono considerati come un’unica entità globale (Teoria della Gestalt);

Il Pandemonium (Selfridge e Neisser)

Esso può essere rappresentato tramite una rete multistrato come una struttura gerarchica e connessioni tra vari strati unicamente di tipo feedforward cioè dirette dall’ingresso verso l’uscita.

Ogni strato contiene un certo numero di unità, convenzionalmente chiamati demoni, ciascuna delle quali è deputata alla rilevazione di particolari caratteristiche degli ingressi che essa riceve.

Stimolo esterno demoni dello stimolo demoni dei tratti demoni cognitivi demoni della decisione USCITA ovvero DECISIONE

>       Demoni dello stimolo: sono semplicemente rilevatori di stimolazione che si limitano a trattenere per breve tempo un registrazione del segnale eventualmente ricevuto dall’esterno;

>       Demoni dei tratti: sono specializzati ognuno nella rilevazione della presenza di una particolare caratteristica nel pattern di stimolazione trasmesso dai demoni dello stimolo. La rilevazione da parte di un demone di una caratteristica provoca l’attivazione del demone stesso, che nel linguaggio di Naisser “grida” la rilevazione della caratteristica;

>       Demoni cognitivi: sono progettati in modo che ognuno di essi è deputato a rilevare la presenza di una particolare configurazione di caratteristiche è quando è presente la “grida”;

>       Demone decisionale: ascolta le grida dei demoni cognitivi e in base alla loro intensità decide come catalogare il pattern di stimolazione presente in ingresso;

L’esempio che Neisser e Selfridge preferiscono per illustrare il funzionamento del Pandemonium è quello del riconoscimento delle lettere dell’alfabeto.

Sul piano neurofisiologico, le ricerche di Hubel e Wiesel (1952, 1968), hanno mostrato che esiste un gran numero di cellule celebrale (neuroni) ognuna delle quali risponde a caratteristiche differenti dello stimolo. Esistono in particolare:

>       Cellule semplici: in grado di rilevare contorni su scala locale, altre configurazioni di cellule semplici sono in grado di rilevare fessure o linee;

>       Cellule complesse: in grado di riconoscere linee di un dato orientamento ed una data larghezza indipendentemente dalla posizione che esse occupano nel campo visivo;

>       Cellule ipercomplesse: che rispondono solo a configurazioni di tipo particolare, caratterizzate dalla presenza contemporanea di più caratteristiche;

Tale organizzazione sembra far supporre che esistano nella corteccia cerebrale altre cellule paragonabili direttamente ai demoni cognitivi. Disgraziatamente, questa ipotesi si è rivelata infondata: gli studi sperimentali hanno mostrato che non ci sono cellule disposte gerarchicamente a livello superiore rispetto a quelle ipercomplesse.

La teoria del confronto di sagoma

Tra le teorie a stadi la più semplice formulata in proposito è quella del confronto di sagoma (template matching). Esso si ispira alle idee dei Gestaltisti e presuppone che nel cervello esistano delle sagome precostituite (corrispondenti, per esempio, all’attivazione di particolari gruppi di neuroni), con le quale viene confrontato il pattern di ingresso. Se questo confronto da esito positivo, allora il pattern di ingresso viene riconosciuto come identico alla sagoma e, di conseguenza, collocato in una certa classe.

La teoria del confronto di sagoma venne presto abbandonato, in quanto non realistica: il numero di sagome corrispondenti alle differenti prestazioni, orientazioni, vedute anche di un singolo oggetto è talmente grande che nessuna memoria potrebbe contenere tutte le sagome necessarie per riconoscere le immagini che si incontrano continuamente nella vita quotidiana. Inoltre, i tempi di riconoscimento con questo metodo, sarebbero talmente lunghi che nessun essere vivente sarebbe in grado di utilizzarlo per interagire efficacemente con l’ambiente circostante.

La teoria del riconoscimento basato sulle componenti: (Biederman)

Secondo Biederman il riconoscimento degli oggetti e delle scene visive è basato su schemi percettivi costituiti da combinazioni di un numero relativamente piccolo di costituenti elementari, chiamati geoni (Biederman ne identifica 36). Ogni geone è costituito da una forma tridimensionale, che generalizza i coni ed è caratterizzata dal fatto che i suoi spigoli siano diritti oppure curvi, dal fatto che si espanda o resti costante, dal fatto che sia simmetrica oppure no, dal fatto che possiede un asse curvo oppure diritto e così via.

I geoni costituiscono una specie di “vocabolario” fondamentale per scomporre e ricostruire qualsiasi pattern visivo.

Secondo Biederman, quindi, il processo di riconoscimento degli oggetti è basato su una sequenza di stadi di elaborazione, che può essere sintetizzata così:

1.       estrazione dei contorni degli oggetti osservati;

2.       identificazione delle principali caratteristiche strutturali di questi contorni;

3.       attivazione degli schemi basati sui geoni e individuazione delle loro relazioni reciproche;

4.       attivazione dei modelli degli oggetti osservati;

5.       identificazione degli oggetti medesimi.

La teoria di biederman postula essenzialmente processi di elaborazione del tipo bottom-up.

La teoria di Gibson della percezione

Al contrario delle precedenti teoria a stadi, Gibson è un sostenitore della teoria diretta della percezione. Nella Teoria della Percezione di Gibson, l’osservatore e l’ambiente esterno vengono visti come costituenti un unico sistema e la percezione non è un affare privato del soggetto ma un aspetto di un processo di interazione che coinvolge sia l’organismo che il mondo circostante.

Il punto chiave dell’impostazione di Gibson sta nel negare che la percezione sia un processo mentale e nel vederla come un prodotto dell’interazione organismo-ambiente, anzi una attività che deriva dalla cooperazione di entrambe queste entità, ma che non è riconducibile né ad un processo puramente fisico né a un processo puramente mentale; è, come dice Gibson, un’attività “psicosomatica” di un essere vivente immerso nell’ambiente.

A questo proposito Gibson distingue tra la percezione della persistenza, che consiste nel fatto di percepire che un dato oggetto continua ad esistere, ad essere presente nell’ambiente esterno, e la persistenza del percetto, che è dato dalla circostanza per cui si continua a percepire un oggetto anche dopo che è cessato l’arrivo di energia luminosa proveniente da esso.

Il legame tra percezione e movimento, tra percezione e azione è enfatizzato da Gibson tramite il concetto di “affordance”. Questo termine indica ciò che gli oggetti presenti offrono ai fini di un’azione, ovvero l’utilità funzionale di un oggetto per un essere vivente dotato di certe capacità di agire.

L’affordance di un oggetto è il significato stesso dell’oggetto per un particolare osservatore appartenente ad una particolare specie vivente.

Gran parte delle ricerche di Gibson è stata dedicata all’applicazione di questi concetti al problema della percezione dell’aspetto tridimensionale di oggetti e scene. A questo scopo, Gibson fu il primo ad introdurre il concetto di “tessitura” di una superficie e ha identificato nel gradiente di tessitura, cioè nella variazione spaziale degli elementi che compongono una tessitura e delle loro distanze reciproche, il fattore principale responsabile della nostra percezione della tridimensionalità. Secondo Gibson, tutta l’informazione di cui abbiamo bisogno per percepire l’aspetto tridimensionale del mondo è già contenuto nell’immagine retinica. Il sistema percettivo, dunque, analizza una scena visiva unicamente in termini di superficie e di oggetti, anziché in termini di unità elementari, come pixel, contorni, geoni….etc.

A proposito della percezione delle tessiture è da ricordare la teoria dei textons di Julesz secondo la quale la discriminazione tra tessiture differenti è basata su misure effettuate sull’insieme dei textons. In particolare egli ha proposto il modello di elaborazione basato sulla densità, secondo il quale i meccanismi preattentivi conterebbero il numero dei textons di un certo tipo in opportune aree campione delle varie tessiture e ricaverebbero così il valore della densità di textons. Ma secondo una critica di Taylor e Badcock che hanno osservato molte situazioni sperimentali i soggetti non appaiono tanto misurare le differenze di densità dei textons, ma rilevano semplicemente la presenza o l’assenza di textons di un certo tipo.

La Psicologia della Gestalt

Il lavoro degli psicologi della Gestalt ha condotto a importanti risultati nell’ambito dell’individuazione delle leggi che presiedono alla percezione delle forme dei pattern visivi e che costituiscono vincoli imprescindibili per qualunque teoria del campo percettivo.

Tra le più importanti, proposte da Wertheimer si riportano:

1)       La legge della vicinanza: maggiore è la vicinanza tra i singoli elementi che compaiono in un campo percettivo, tanto più vengono percepiti come configurazione globale forma;

2)       Legge della Somiglianza: maggiore è la somiglianza tra gli elementi, tanto più vengono percepiti come un’unica forma;

3)       Legge della continuità della direzione: due elementi di cui il secondo costituisce la normale continuazione del primo lungo una data direzione vengono percepiti come un’unica forma;

4)       Legge della chiusura: contorni non completamente chiusi tendo ad essere visti come chiusi;

5)       Legge della Pregnanza: questa legge coincide con il “principio del minimo”;

6)       Legge dell’Esperienza Passata: elementi che nella nostra esperienza passata sono stati abitualmente associati tra loro tendono ad essere percepiti come un’unica forma;

Secondo i Gestaltisti questi principi agiscono spesso in competizione reciproca e la percezione risultante deriva dagli effetti di questa competizione.

Dopo la nascita della Cibernetica e della Teoria dell’informazione, si è assistito ad una serie di tentativi per caratterizzare i concetti Gestaltisti in modo più conforme alle procedure delle cosiddette Scienze Esatte.

È così che nasce La teoria dell’informazione strutturale di Leeuwenberg, essa è stata applicata ai problemi della distinzione figura-sfondo, dello studio dei margini quasi-percettivi e della percezione di pattern complessi. Inoltre in questa teoria l’informazione strutturale viene definita essenzialmente tramite il numero di segmenti e di angoli presenti nell’oggetto percepito.

Un aspetto importante è che gli elementi costitutivi di un pattern vengono rappresentati tramite un opportuno codice simbolico, che descrive il percorso idealmente compiuto da un osservatore per ricostruire i contorni del pattern in questione.

La teoria dell’informazione strutturata da Leeuwenberg, può essere considerata la versione moderna della psicologia della Gestalt. Essa, per altro, incontra grossi problemi nella spiegazione di fenomeni che avvengono nella percezione delle “figure ambigue” e delle cosiddette “figure impossibili” di M.Escher, che presentano proprietà contraddittorie tra loro sul piano dell’interpretazione fisica.

Lo studio dei Processi Attentivi

In questo ambito, i modelli proposti sono sempre stati strettamente legati a particolari paradigmi sperimentali, che si distinguono in:

a.       Paradigma dell’attenzione selettiva, si riferisce a situazioni in cui si misura la capacità del soggetto di elaborare alcuni tipi di informazioni, mentre simultaneamente ne deve ignorare altre;

b.       Paradigma dell’attenzione divisa, si riferisce genericamente a situazioni in cui il soggetto deve elaborare contemporaneamente diversi tipi di informazioni, come nei così detti dual-task ,in cui egli deve eseguire due diversi compiti simultaneamente.

Gli esperimenti possono essere a loro volta suddivisi in varie categorie:

>       Esperimenti di selezione: richiedono al soggetto di individuare un opportuno stimolo-bersaglio (target) all’interno di un certo pattern di stimolazione.

>       Esperimenti di filtraggio: si basano sulla presentazione continua di un insieme di stimoli, tra i quali, a ogni istante il soggetto deve selezionare quello rilevante, in base ad opportuni criteri stabiliti dallo sperimentatore. L’esempio più celebre è l’ascolto dicotico , in cui alle due orecchie del soggetto arrivano contemporaneamente due messaggi diversi e il suo compito è quello di prestare attenzione solo a uno dei due messaggi, ignorando l’altro. (ciò può essere attuato attraverso la tecnica dello shadowing che consiste nel chiedere al soggetto di ripetere a voce alta il messaggio cui deve prestare attenzione man mano che esso arriva).

La storia degli esperimenti condotti sull’attenzione è dominata da varie metafore, che sono:

>       Filtro;

>       Fascio di luce;

>       Serbatoio.

L’attenzione come filtro:

L’attenzione non è altro che un filtro che serve a selezionare i segnali provenienti dall’ambiente esterno, in modo da evitare, da un lato, un sovraccarico di elaborazione da parte del sistema cognitivo, e dall’altro, far pervenire alla memoria soltanto le informazioni più rilevati.

La teoria del filtro proposta da D.E. Broadbent utilizzando metodi di ascolto dicotico, postula che entrambi i messaggi pervengano ai registri sensoriali e che quindi vengono ritrasmessi in direzione della memoria a breve termine. Questa trasmissione, però, è ostacolata dal fatto che esiste un unico canale di comunicazione con questo tipo di memoria b.t. , canale che, ha una limitata capacità di trasmissione. Lungo questo canale, quindi si trova un filtro che lascia passare solo le informazioni che hanno certe caratteristiche.

Prove sperimentali contro questa teoria sono state apportate dagli esperimenti condotti da Moray in cui si mostra come i soggetti siano in grado di accorgersi se, nel messaggio cui NON devono prestare attenzione, compare il loro stesso nome di battesimo.

Quindi una nuova teoria fu proposta dalla Treisman nel 1960, chiamata teoria del filtro attenuato che postula l’esistenza di più canali di trasmissione dell’informazione dai registri sensoriali alla memoria a breve termine. Inoltre ogni canale (ad es. percettivo, lessicale, semantico etc…) è associato a una opportuna enfasi che , momentaneamente il soggetto attribuisce ad esso. Questa enfasi è la causa di una certa attivazione trasportata dal segnale che percorre quel canale. Al termine dei vari canali vi è una soglia comune. La superano,giungendo alla memoria a breve termine, soltanto i segnali provenienti dai canali con una attivazione sufficientemente elevata. Quindi i segnali non sono affatto filtrati, come nella teoria del filtro, ma riescono tutti ad entrare nel sistema. L’effetto delle varie enfasi è solo quello di attenuarne alcuni a favore di altri.

Il problema di questa teoria è che non esiste un meccanismo preciso che spieghi come e perché l’enfasi attribuita ai singoli canali possa variare nel tempo.

Secondo invece un’altra visione proposta da Deutsch e Deutsch e quella di Norman nel 1968, il filtro non avrebbe affatto il compito di selezionare l’informazione che deve essere trasmessa al sistema cognitivo, ma servirebbe solo a selezionare, dopo che le informazioni sono tutte giunte alla memoria a breve termine, quali di queste informazioni debbono andare alla memoria a lungo termine.

L’impossibilità di scegliere una teoria univoca sul filtro ha fatto si che questa metafora fosse abbandonata dagli psicologi (1960-1970)

L’attenzione come serbatoio

La metafora del serbatoio va fatta risalire a Kahneman e consiste sostanzialmente nel vedere l’attenzione come una sorta di serbatoio contenente un opportuno numero di risorse, le cosiddette risorse attentivi. Siccome le dimensioni del serbatoio, e quindi le risorse attentivi sono limitate, questa circostanza può creare dei problemi quando il soggetto deve eseguire più compiti contemporaneamente. A questo proposito si può notare che esistono alcuni tipi di compiti, quelli svolti automaticamente che richiedono molto meno risorse attentive di quelli svolti sotto un diretto controllo cosciente da parte del soggetto.

L’Effetto Stroop, è un esempio dell’esistenza di questa distinzione tra compiti automatici e compiti controllati; Esso consiste nel presentare al soggetto delle parole, ciascuna delle quali rappresenta il nome di un particolare colore. Il compito del soggetto è quello di riferire il nome del colore dell’inchiostro usato usato per scrivere la ciascuna parola;

L’effetto consiste nel fatto che i soggetti fanno molta più fatica a riferire il nome del colore quando quest’ultimo è differente dal nome del colore rappresentato dalla parola.

La Teoria delle risorse multiple proposta da Wickens fin dal 1984, sostiene che i compiti da eseguire richiedano l’impiego di risorse mentali, che si distinguono tra loro a seconda delle caratteristiche:

>       Tipo di canale sensoriale richiesto (visivo o uditivo);

>       Tipo di elaborazione richiesta (tipo di risposta motoria o verbale);

>       Livello di elaborazione (centrale o periferico).

L’assunto fondamentale di questa teoria è che l’interferenza tra due compiti è minima quando essi richiedono risorse mentali completamente differenti tra loro.

L’anali si della teoria/metafora del serbatoio è stata abbandonata per il suo carattere troppo generico.

L’attenzione come fascio di luce

L’origine della metafora del fascio di luce si possono fare risalire allo studio di Yarbus nel 1967 sui movimenti oculari effettuati durante la percezione di una scena visiva complessa.

In questo studio si evidenziava come tali movimenti consistessero in sequenze complicate di fissazioni, in cui l’occhio era pressoché fermo, e di saccadi, in cui l’occhio si muoveva velocemente passando da una zona di fissazione a una nuova zona di fissazione.

Come fa il sistema visivo a decidere quali zone della scena fissare?

La risposta consiste nell’ipotizzare che il funzionamento del sistema visivo richieda l’intervento di due processi di elaborazione distinti e successivi: uno pre-attentivo, che scandaglia in parallelo l’intero campo visivo, al fine di evidenziare le zone che presentano un qualche interesse, seguito da uno attentivo, di natura seriale, che decide in base all’output del processo precedente quali zone del campo visivo prendere in considerazione.

Eriksen e Yeh nel 1985 hanno ipotizzato la metafora del fascio di luce: l’attenzione sarebbe come un fascio di luce in grado di scandagliare solo ciò che è presente nella zona illuminata dal fascio, ma la decisione di dove puntare il fascio è presa a livelli più elevati e non dipende dalla natura degli stimoli illuminati.

L’interrogativo rimasto aperto di questa metafora è se l’output dei processi pre-attentivi dipenda unicamente dalla natura degli stimoli stessi (processi preattentivi controllati con modalità bottom-up, che consiste nello scegliere o meno di ricevere tali stimoli) o se dipenda da controlli del tipo top-down (che consiste nel ricevere appunto gli stimoli).

Il paradigma della ricerca visiva

In generale, nei compiti della ricerca visiva il soggetto dei trovare uno o più stimoli bersaglio (target) all’interno di un certo pattern di stimolazione. Esistono numerose varianti di questo paradigma generale: in alcune il soggetto deve necessariamente fissare un particolare punto nello schermo, mentre in altre può compiere movimenti oculari per trovare target. Per quanto riguarda questi ultimi, in certi tipi di esperimenti vi è un solo target da cercare, mentre in altri vi sono più target, a volte corrispondenti a caratteristiche differenti da un target all’altro. Nel primo caso, i compiti di ricerca visiva ricadono nei paradigmi di attenzione selettiva, mentre nel secondo caso si possono considerare come appartenenti ai paradigmi di attenzione divisa.

Conviene illustrare brevemente i due casi particolari del paradigma della ricerca visiva più frequentemente adoperati dai ricercatori: Il paradigma dei tempi di reazione e il paradigma dell’accuratezza:

>       Il paradigma dei tempi di reazione:

In questo paradigma ogni pattern i stimolazione può contenere al massimo un solo target. Il compito del soggetto è quello di decidere se il target è presente o non è presente nel pattern di stimolazione che gli viene presentato. La variabile dipendente è costituita dal tempo di reazione del soggetto. La variabile   indipendente è invece costituita dalla dimensione del pattern di stimolazione, ovvero dal numero complessivo di item differenti in esso contenuti.

>       Il paradigma dell’accuratezza:

In questo paradigma ogni pattern di stimolazione può contenere anche molti target. A differenza del paradigma precedente, però, il tempo di presentazione del pattern è prefissato ed è generalmente abbastanza breve, in modo da essere più corto di quello richiesto per compiere movimenti oculari. Al termine della presentazione dello stimolo viene fatto seguire uno stimolo di mascheramento che funge da indicatore per il soggetto che il processo di ricerca dei target è terminato e che egli deve indicare quanti ne conteneva il pattern appena presentato. Il tempo intercorrente tra la scansione del pattern di stimolazione e l’inizio della presentazione dello stimolo di mascheramento chiamato SOA costituisce in questo paradigma la variabile indipendente. Mentre la variabile dipendente è costituita invece dalla correttezza della risposta del soggetto, spesso misurata, su più prove e più soggetti dalla percentuale di risposte corrette.

Negli anni ’70 e ’80 questi risultati sono stati interpretati come indicanti l’esistenza di due tipi di ricerca attentiva:

>       Seriale: significa che i rilevatori devono scandagliare gli item per individuare il target con un maggiore dispendio di tempo.

>       Parallela: significa che l’elaborazione avviene individuando tutti gli item contemporaneamente.

Una ricerca attentiva di tipo parallelo si verificherebbe tutti i casi in cui i target sono definiti da un’unica caratteristica elementare (come quando ad esempio, occorre ricercare un target rosso in una popolazione di distrattori verdi.), mentre in tutti gli altri casi (come quando, ad esempio, il target è definito dalle congiunzioni di più caratteristiche) si verificherebbe una ricerca attentiva di tipo seriale. [Treisman in Feature Integration Theory].

La Memoria, l’immagazzinamento ed il richiamo della conoscenza

Lo studio dei processi di memorizzazione e di richiamo delle informazioni ha costituito uno de principali filoni di ricerca della Psicologia Cognitiva. Per studiare questi processi bisogna distinguere tra due filoni, quelli di natura:

>       Episodica: in cui il materiale di stimolazione dipende fortemente dal contesto sperimentale;

>       Semantica: in cui tale materiale è parzialmente indipendente dal contesto.

Vi è inoltre una ulteriore distinzione per ciò che riguarda la natura della risposta che il soggetto deve fornire:

>       Risposte di richiamo: il soggetto deve riferire esplicitamente uno o più elementi di un pattern di stimolazione presentato in precedenza;

>       Risposte di confronto: il soggetto deve solo fornire un giudizio relativo al confronto tra i pattern presentatogli in quel momento e un pattern presentato in precedenza.

·         Decadimento esponenziale: La prestazione nei compiti di richiamo diminuisce all’aumentare del tempo di latenza (cioè l’intervallo di tempo intercorrente tra la presentazione dello stimolo e la risposta del soggetto) secondo una legge di tipo esponenziale.

  Saturazione: la prestazione nei compiti di richiamo non raggiunge mai il 100 per cento, anche quando il tempo di latenza è nullo, se il numero di item da ricordare è superiore a un certo valore critico, che si può stimare intorno a 7±2, quando il compito di richiamo è di tipo seriale, cioè richiede di riferire gli item appresi esattamente nello stesso ordine in cui sono stati presentati al soggetto.

·         Effetto di recenza: la presentazione nei compiti di richiamo dipende dall’ordine in cui gli item da memorizzare sono stati presentati al soggetto: gli item meglio ricordati sono gli ultimi, oppure talvolta i primi. Normalmente gli item presentati in posizione intermedia vengono ricordati peggio degli altri.

·         Interferenza: più precisamente si parla di interferenza retroattiva, quando l’apprendimento di nuovi item produce un peggioramento delle prestazioni sugli item appresi in precedenza; in altri casi l’interferenza è proattiva, cioè la prestazione sul nuovo materiale è peggiore di quella relativa al vecchio.

Principio di specificità della codifica: nei compiti di tipo episodico in cui il richiamo è basato sulla presentazione di un particolare indizio, si vede che la prestazione migliora se gli indizi usati sono identici a quelli a quelli che erano presenti al momento della memorizzazione.

·         Memoria Semantica: I tempi di reazione dei soggetti in compiti di valutazione di verità o falsità di una frase contenente una connessione tra due concetti sono parzialmente indipendenti dalle relazioni di natura logica esistenti tra i concetti stessi, nonché dal fatto che la frase in questione sia effettivamente vera o falsa.

Il modello di Atkinson – Shiffrin:

Esso presuppone l’esistenza di tre sottoinsiemi di memoria:

Il registro sensoriale è caratterizzato da una durata limitatissima, e da una capacità illimitata. Invece la memoria a breve termine è caratterizzata da una capacità limitata e da un accesso immediato. Infine, la memoria a lungo termine ha una capacità e una durata entrambe illimitata, anche se l’accesso alle informazioni che essa contiene può essere talvolta difficile o addirittura impossibile.

­        Il modello di Tulving:

Si tratta di un modelli della memoria a lungo termine, che postula una suddivisione in tre differenti sottoinsiemi:

a.       La memoria episodica: che elabora il contenuto delle nostre esperienze passate;

b.       La memoria semantica: che contiene i concetti e le relazioni tra i concetti;

c.       La memoria procedurale: che contiene schemi o sequenze ordinate di azioni dirette ad uno scopo.

Questi sottoinsiemi hanno relazioni reciproche e generalmente cooperano in modo tale che la memoria funziona come un sistema integrato.

Il modello è di tipo gerarchico, poiché in esso la memoria procedurale è considerata il primo e il più basilare tra tutti i sottoinsiemi di memoria. La memoria semantica si svilupperebbe poi come una parte specializzata della memoria procedurale, mentre, a sua volta, la memoria episodica andrebbe vista come derivante da una ulteriore specializzazione della memoria semantica.

La Strutturazione della Conoscenza (come la conoscenza viene codificata nella memoria)

La teoria del doppio codice:

La questione della forma sotto la quale la conoscenza è effettivamente codificata in memoria è stata, però, trascurata.

Il modello più celebre formulato in proposito è la cosiddetta Teoria del doppio codice, proposta da Paivio fin dal 1971. In essa si postula l’esistenza di due distinte forme di codifica della conoscenza: verbale e non-verbale. Nella prima le informazioni sono descritte tramite parole, mentre nella seconda sono rappresentate sotto forma di immagini mentali. Paivio ipotizza che le parole che fanno riferimento a oggetti, luoghi, persone concrete tendano più facilmente ad essere codificate anche sotto forma di immagini mentali. Ciò invece non avverrebbe per le parole che si riferiscono a concetti astratti. Così le parole concrete potrebbero essere codificate in entrambe le forme, verbale e non verbale, mentre le parole astratte tenderebbero ad essere codificate solo sotto la forma verbale. Il numero di differenti tipi di codifica, secondo Paivio, sarebbe collegato alla facilità di richiamo della memoria. In questo modo le parole concrete verrebbero ricordate meglio di quelle astratte.

Anderson (1993), invece di parlare di codifica verbale e non verbale, parla di ordinamenti lineari e di immagini. I primi sono forme di rappresentazione che dispongono gli elementi di informazione secondo un ordine sequenziale, eventualmente derivante dall’ordine temporale con cui le informazioni stesse sono state presentate al soggetto, mentre le seconde rappresentano le informazioni sotto l’aspetto della disposizione spaziale. La codifica verbale sarebbe riconducibile ad un ordinamento lineare, in quanto le parole vengono memorizzate in successione.

Nel 1986 Paivio ha esteso la sua teoria, proponendo che la codifica verbale e quella non verbale siano elaborate da due distinti sottoinsieme di rappresentazione, reciprocamente interconnessi. Il sistema di codifica verbale sarebbe composto di una unità di base, che egli chiama “logogeni” ognuna delle quali contiene l’informazione che è associata all’uso di una singola parola. Queste unità vengono attivate sequenzialmente, il che spiega la preferenza per gli ordinamenti lineari.

Invece le unità di base del sistema di codifica non-verbale sarebbero gli “imageni”, corrispondenti a singoli oggetti, parti di oggetti o raggruppamenti naturali di oggetti. Esse si attiverebbero con modalità parallela, con la possibilità di analisi simultanea delle parti da cui queste unità possono essere a loro volta composte.

Anderson ha proposto l’esistenza, oltre le due precedenti, di un terzo tipo di codifica: quella preposizionale astratta. Essa rappresenta quello che costituisce il significato di una proposizione concreta, composta da una ben precisa sequenza di parole.

Le Immagini Mentali:

Le immagini mentali sono rappresentazioni interne della strutturazione spaziale degli eventi che fanno parte della nostra esperienza fenomenica. Riguardo alla natura delle immagini mentali, gli studiosi si suddividono in due categorie:

>       Gli Immaginisti: (M. Kosslyn)i quali sostengono che esse sono immagazzinate sotto forma di figure geometriche, non necessariamente connesse a informazioni di tipo simbolico, le immagini mentali sono codificate inte4rnamente sotto forma di immagini vere e proprie. Anche se gli immaginasti non sono assertori di un perfetto isomorfismo tra immagini mentali e oggetti reali (in quanto presuppongono l’esistenza di deformazioni delle immagini rispetto alla realtà), tuttavia sono convinti dell’esistenza di una parziale corrispondenza tra proprietà delle immagini e proprietà degli oggetti; Va comunque osservato che una prova a favore della validità del punto di vista degli Immaginisti è costituita dal fatto che la capacità di ricordare le informazioni visive è molto maggiore di quella relativa alle informazioni verbali.

>       I Proposizionalisti: (Z. W. Pyltshyn)che considerano le immagini connesse a rappresentazioni descrittive, di tipo simbolico, consistenti essenzialmente in proposizioni, ovvero in asserzioni relative alle relazioni spaziali tra le componenti delle singole immagini.

Gli esperimenti condotti dagli Immaginisti, iniziati da R. Shepard, per trovare sostegno alla loro posizione si possono suddividere nelle seguenti categorie:

1.       Effetti di distanza: l’eventuale esistenza di isomorfismi tra la struttura spaziale del pattern di stimolazione (espressa tramite le relazioni di distanza tra gli elementi che lo compongono) e struttura spaziale del pattern di stimolazione. Gli esperimenti condotti da Kosslyn hanno portato al risultato che evidenziava che i tempi di reazione dei soggetti erano direttamente proporzionali alle distanze fisiche esistenti nella cartina sottoposta ai soggetti tra le coppie di elementi nominati in successione.

2.       Effetti di grandezza: cioè se il tempo necessario a rilevare la presenza, in un immagine mentale, di una data caratteristica, aumenta o no al diminuire delle dimensioni della caratteristica stessa, come avverrebbe nel caso in cui si dovesse ispezionare un oggetto reale. Gli esperimenti condotti da Kosslyn dimostrano che il tempo necessario a rilevare una data caratteristica in una immagine mentale, aumenti al diminuire delle dimensioni della caratteristica stessa, proprio come avverrebbe se dovessimo esplorare visivamente un’immagine reale, in cui la presenza di un dettaglio piccolo è più difficile da rilevare di quella di una caratteristica su grande scala.

3.       Effetti di trasformazione mentale: cioè l’eventuale capacità dei soggetti di sottoporre le immagini mentali a trasformazioni geometriche, quali rotazioni e traslazioni, identiche a quelle cui possono essere sottoposti i corrispondenti oggetti reali; in particolare sono state studiate le rotazioni mentali. In particolare si è cercato di mostrare che le immagini mentali possono essere ruotate, nel piano e nello spazio, o ribaltate in modo speculare in modi del tutto analoghi a quelli che riguardano i pattern fisici di stimolazione (Shepard, Cooper). Secondo quest’ultimi autori, il tempo di reazione dei soggetti è direttamente proporzionale all’angolo di cui era necessario ruotare il primo pattern per sovrapporlo al pattern di base (in modo da poterlo confrontare).

Le Mappe Cognitive:

Le mappe cognitive costituiscono un altro dei modi con cui viene rappresentata internamente la conoscenza. Esse si riferiscono specificamente all’organizzazione delle informazioni necessarie per pianificare gli spostamenti che si intendono compiere in un ambiente strutturato in modo complesso e accessibile solo su piccola scala alla percezione visiva immediata. Un ambiente del genere può essere costituito, ad es., dall’interno di un edificio, da un parco, da una città, da una regione. Le mappe cognitive sono state introdotte per prime da Tolman nel 1932, per spiegare l’improvviso aumento della performance nel compito di trovare il punto meta in un labirinto da parte di ratti precedentemente non rinforzati, una volta che avevano ricevuto un primo rinforzo.

Ad occuparsi sistematicamente dopo Tolman di mappe cognitive fu Lynch, che nel 1960 si è interessato al modo con cui le persone si formano uno schema di orientamento per muoversi all’interno di una città. Lynch ha enunciato così 5 elementi base per le mappe cognitive di orientamento in una città: le vie, i bordi, i distretti, i punti nodali, i punti di riferimento.

L’apprendimento dei Concetti

La più importante delle rappresentazione interne della conoscenza è quella basata sui concetti. In questo contesto il termine concetto verrà utilizzato come sinonimo di “categoria”, ovvero modo per raggruppare insieme più oggetti o eventi.

L’utilizzo dei concetti è fondamentale per l’attività cognitiva in quanto, da un lato, consente di considerare come equivalenti entità diverse e, dall’altro, elimina la necessità di manipolare le entità concrete, limitando i processi cognitivi alla elaborazione di entità più astratte quali sono, per l’appunto, i concetti.

Per quanto riguarda le teorie sui concetti possiamo distinguer tra:

Teorie Olistiche: che considerano ogni concetto alla stregua di un tutto non ulteriormente analizzabile, che deriva in parte da una base innata (Fodor).

§         Teorie basate sulle caratteristiche o tratti: impiegate dagli psicologi per lo studio dei processi che riguardano la struttura concettuale, si distinguono in tre classi:

a.       Teorie classiche: che postulano che ogni concetto sia definito da un insieme finito di caratteristiche, ciascuna delle quali è necessario che sia posseduta dagli esemplari del concetto stesso. È questo il modo con cui sono definiti i concetti in Matematica e nella Logica formale. Si tratta di una rappresentazione assai vantaggiosa sul piano sperimentale, in quanto consente di studiare i processi di acquisizione e di utilizzo dei concetti in modi facilmente manipolabili dallo sperimentatore. Uno dei problemi più importanti affrontati dalle teorie classiche è quello dell’individuazione delle regole che vengono più spesso usate nel selezionare le proprietà che definiscono i concetti. A questo proposito sono state condotte ricerche prevalentemente sull’impiego di alcuni tipi particolari di regole: affermativa, congiuntiva, disgiuntiva, condizionale e bicondizionale. Una serie di importanti esperimenti condotti da Hunt e Neisser, ha mostrato che , nei compiti di apprendimento, queste regole vengono apprese con difficoltà crescente, nel senso che i concetti più facili sono quelli basati sulla regola affermativa; poi seguono, in ordine, quella congiuntiva, quella disgiuntiva, quella condizionale, e quella bicondizionale. Inoltre vari esperimenti di Bourne nel 1970, hanno mostrato come la difficoltà di apprendimento di queste regole decresca con la pratica, cioè con l’aumento del numero di volte in cui la regola viene utilizzata dallo stesso soggetto.

I risultati ottenuti in queste ricerche hanno senso solo nell’ambito di una teoria classica dei concetti, che riesce a descrivere unicamente esperimenti di laboratorio in cui si manipolano concetti semplici come quelli mostrati. Ben diversamente vanno le cose se ci riferiamo ad altri tipi di concetti, come quelli che utilizziamo normalmente e di cui si occupano le ricerche di memoria semantica

b.      Teorie basate sui tratti differenziali: Smith, Shoben e Rips, hanno proposto una teoria nella quale le proprietà che definiscono un concetto vengono ripartite in due insiemi: quello delle proprietà che definiscono la categoria in quanto tale e quello della proprietà che sono possedute dagli esemplari della categoria la maggior parte delle volte, ma non sono definitorie di per se nei riguardi della categoria.

Questa teoria va incontro alla grossa difficoltà dell’individuazione delle caratteristiche definitorie che in molti casi sembra essere del tutto assente.

c.       Teorie basate sui Prototipi (Rosch): esse postulano che ogni concetto venga rappresentato direttamente tramite un particolare esemplare, considerato come il “prototipo” del concetto stesso, e che l’appartenenza degli altri esemplari al concetto venga giudicata in base alla maggiore o minore somiglianza col prototipo. Un aspetto critico della teoria del prototipo è quello relativo al modo con cui il prototipo di un concetto viene identificato. Secondo la Rosch esso è quell’esemplare che massimizza la correlazione tra i vari attributi posseduti dai diversi appartenenti alla categoria. La sua identificazione è dunque nuovamente basata sull’esame di opportune proprietà.

La Teoria del Contesto di Medin e Smith, secondo la quale la formazione di un concetto procede attraverso un confronto tra i nuovi esemplari che vengono a far parte dell’esperienza del soggetto e quelli precedentemente immagazzinati in memoria, sulla base dell’esperienza precedente.

In questo modo la prototipicità non deriverebbe dal confronto di proprietà, ma semplicemente dalle esperienze avute dal soggetto. Nella loro teoria Medin e Smith postulano che l’esemplare venga memorizzato sotto duplice forma: in quanto tale e in quanto caratterizzato da alcune proprietà generali, che gli rimangono associate tutte le volte che viene utilizzato per dei confronti.

La soluzione dei Problemi

A questo proposito bisogna prendere in considerazione i modi in cui la conoscenza viene impiegata per risolvere dei problemi.

Le teorie si suddividono in due categorie:

       I.      Le teorie cognitive: le prime attribuiscono un ruolo fondamentale, nel processo di soluzione di un problema, alle strutture cognitive del soggetto, ovvero al modo con cui egli si rappresenta il problema;

     II.      Le teorie stimolo-risposte: focalizzano la loro attenzione esclusivamente sui comportamenti che conducono alla soluzione e sul modo con cui essi sono influenzati dagli stimoli ricevuti.

La teoria cognitiva per eccellenza è costituita dalla Psicologia della Gestalt e i concetti che essa ha formulato derivano inizialmente dalle osservazioni effettuate, dal gestaltista W. Kohler sul comportamento delle scimmie antropoidi.

Il concetto fondamentale introdotto da Kohler è quello di “Insight” che indica un processo di rapido conseguimento della soluzione, consistente nella percezione delle corrette relazioni tra gli elementi del problema. Secondo Kohler un problema è un “Gestalt”, cioè una forma, ne più ne meno che come le Forme che osserviamo nel campo visivo. Esso consiste in un certo numero di elementi, connessi tra di loro da certe relazioni. Il problema consiste nel fatto che questa struttura inizialmente non costituisce una Forma “buona”, ma una Forma “disturbante”, in cui certe relazioni sono incongruenti. Questa rapida ristrutturazione, che spesso consiste in un vero e proprio processo percettivo (una nuova visione della situazione) è l’insight e la nuova forma è la soluzione del problema.

Il punto di vista di Kohler, rappresentava all’epoca una grossa novità, in quanto si opponeva decisamente a quanto sostenevano le teorie stimolo-risposta, che vedevano il processo di soluzione di un problema come basato su una successione di prove ed errori, in cui il ruolo fondamentale era giocato dall’esperienza passata.

Alla Formazione graduale delle corrette associazioni tra situazione stimolo e comportamenti di soluzione, in seguito ai successivi rinforzi ottenuti (come inizialmente sostenuto da Thorndike), Kohler opponeva le sue osservazioni di scimmie che, dopo aver condotto per lungo tempo esperienze con gli elementi della situazione problemica senza ottenere alcun progresso verso la soluzione, improvvisamente “comprendevano” la corretta relazione tra questi elementi e, di colpo, risolvevano il problema senza alcun sforzo.

Nell’ambito delle teorie cognitive, l’opera di Wertheimer riprende il concetto di “ristrutturazione” della situazione problemica, introducendo la distinzione tra:

a.       pensiero produttivo: nel quale tale ristrutturazione ha luogo, è un pensiero che ci porta ad acquisire nuove conoscenze, pur non essendoci nuovi elementi di conoscenza nella situazione problemica (ad esempio sotto forma di Insight);

b.      pensiero riproduttivo: si manifesta come la riproduzione o la replica pura e semplice di un’azione o di una procedura di soluzione a un problema precedentemente appresa o emessa.

Wertheimer ebbe il merito di applicare la teoria, che originariamente Kohler aveva proposto solo per le scimmie antropoidi, a tutti i processi di pensiero umani, non solo a quelli connessi alla soluzione dei problemi ma anche a quelli che entrano in gioco nella creazione di nuove teorie scientifiche.

Uno dei grossi problemi lasciati insoluti dalle teorie cognitive è quello del motivo per cui i processi di ristrutturazione molte volte non si verificano, nonostante la presupposta tendenza spontanea verso una “buona Forma”.

Una possibile soluzione è stata proposta da K. Dunker che si è reso conto che il concetto di Insight così come formulato da Kohler e Wertheimer, era assolutamente inadatto a descrivere i processi di soluzione di problemi complessi. Secondo Dunker tali problemi vanno visti come una sequenza di fasi, ciascuna delle quali rappresenta un passo in avanti nei confronti della soluzione.

Quali sono gli ostacoli che si oppongono alla ristrutturazione? Essi sono di 3 tipi:

1.       la fissità funzionale: essa è la tendenza ad attribuire a un elemento sempre una particolare funzione, quella connessa al suo uso più frequente (es. il martello e la corda utilizzati come pendolo da Maier);

2.       Le abitudini: danno origine alla tendenza ad applicare a un problema nuovo un metodo che si è già rivelato utile nella soluzione di un problema apparentemente simile;

3.       la complessità dei problemi: in questi casi la soluzione si ottiene attraverso una serie di fasi, ciascuna delle quali ha carattere di soluzione per quella che la precede e carattere di soluzione per quella che la segue; volendo, all’interno di una singola fase si può anche parlare di insight, ma si tratta di insights parziali;

Le soluzioni che favoriscono il superamento di questi ostacoli:

1.       la capacità di generare soluzioni alternative;

2.       un uso opportuno di regole euristiche, cioè di appropriate strategie di ricerca della soluzione;

3.       la capacità di recuperare informazioni dalla memoria.

         Teoria comportamentista della soluzione dei problemi di Hull

Hull ha introdotto la distinzione tra due meccanismi di associazione stimolo-risposta:

I meccanismi divergenti: essi sono caratterizzati dal fatto che uno stesso stimolo è connesso, con forze diverse, a più risposte.

I meccanismi convergenti: più stimoli sono connessi, con forze diverse, alla stessa risposta.

Combinando questi due elementi si ottengono gerarchie di sequenze stimolo-risposta.

Nella terminologia di Hull, una singola associazione tra un particolare stimolo e una particolare risposta viene denominata abitudine. Di conseguenza, con l’espressione famiglia di abitudini indica una sequenza comportamentale complessa, costituita da più associazioni stimolo-risposta.

·         Soluzione dei problemi nell’Intelligenza Artificiale

La situazione del problema viene descritta ricorrendo ai cosiddetti “stati problemici”, che descrivono ad ogni momento del processo di soluzione, gli elementi noti del problema e le loro relazioni.La formulazione iniziale del problema corrisponde ad uno stato problemico iniziale, mentre la sua soluzione allo stato problemico desiderato, ovvero allo stato-meta (goal).

Uno dei compiti dell’intelligenza artificiale è quello di costruire programmi per il computer in grado di evidenziare cammini ottimali fra stato iniziale e stato meta, usufruendo di opportune informazioni, codificate sia sotto forma di dati che, soprattutto, sotto forma di regole per l’elaborazione della conoscenza.

Tra le realizzazioni più interessanti in questo ambito va citato il “General Problem Solver (GPS)” di Newell, Shaw, e Simon, un programma costruito con l’ambizione di fornire uno strumento in grado di risolvere qualunque tipo di problema, indipendentemente dal suo contesto.

·         La teoria di Kieras – Polson (l’analisi cognitiva delle interfacce)

L’interfaccia: si può definire l’interfaccia come il dominio dell’interazione uomo programma.

La teoria di Kieras e Polson, si propone esclusivamente un metodo di valutazione di interfacce già progettate e non come uno strumento di progettazione di nuove interfacce. Inoltre formula predizioni di tipo quantitativo relativamente a due parametri d’uso:

il tempo di apprendimento dell’uso corretto dell’interfaccia esaminata: gli autori suppongono che esso sia direttamente proporzionale al numero di nuove regole che occorre apprendere per eseguire correttamente il compito per cui l’interfaccia è stata progettata.

2.       La produttività: considerata equivalente al tempo medio impiegato dall’utente, una volta che l’apprendimento sia avvenuto, per conseguire, tramite l’interfaccia, gli scopi per cui quest’ultima è stata progettata.

Nella teoria di Kieras Polson, le previsioni quantitative vengono ottenute mediante simulazioni sul computer del processo di esecuzione di un compito tramite l’interfaccia che si intende valutare.

Per quanto riguarda il contenuto della conoscenza posseduta dall’utente, Kieras e polson suppongono che essa possa essere suddivisa in tre distinte categorie:

1.       quella relativa a quali compiti possono essere svolti impiegando il sistema studiato (situazione del compito)

2.       come attuare le procedure man mano richieste per svolgere particolari compiti (come si fa), quindi come realizzare un obiettivo;

3.       ciò che l’utente è riuscito a comprendere sul modo in cui il sistema risponde agli stimoli in ingresso (come funziona), quindi, come funziona un dato sistema.

L’utilizzo delle conoscenze su come realizzare un obiettivo sono state particolarmente studiate dal cosiddetto modello GOMS, costruito da Card, Moran e Newell, nel 1983. Goms è un acrostico, e le sue iniziali costituiscono le componenti di queste conoscenze: G sta per “goals” obiettivi, O sta per “operations” rappresentazioni di azioni fisiche o cognitive, M sta per “methods” sequenze di operazioni per conseguire un sotto-obiettivo, S sta per “Selection rules” regole.

Nella teoria di Kieras Polson, la struttura degli scopi, delle operazioni, dei metodi e delle regole di selezione viene rappresentata facendo uso di un sistema di produzioni.

Più precisamente indichiamo un sistema di produzioni con un complesso di tre entità:

1.       un insieme di regole: ogni regola è costituita da una coppia condizione azione del tipo: SE (condizione) ALLORA (azione).

2.       una memoria di lavoro: contiene informazioni riguardanti gli scopi immediati da conseguire, le attività in corso e le condizioni dell’ambiente esterno.

3.       un interprete: opera secondo cicli di attività, ciascuno delle quali è suddiviso in due modalità:

·         riconoscimento: l’interprete verifica la corrispondenza tra il contenuto della memoria di lavoro e le condizioni che compaiono nelle singole regole e, in base all’esito di questo confronto, decide qual regola debba essere attivata.

·         azione: la regola attivata provoca l’esecuzione dell’azione, che essa prevede.



Politica de confidentialitate | Termeni si conditii de utilizare



DISTRIBUIE DOCUMENTUL

Comentarii


Vizualizari: 2194
Importanta: rank

Comenteaza documentul:

Te rugam sa te autentifici sau sa iti faci cont pentru a putea comenta

Creaza cont nou

Termeni si conditii de utilizare | Contact
© SCRIGROUP 2024 . All rights reserved