Il Progresso Scientifico Dell'informatica

Scarica in formato pdf
Scarica in formato pdf
Sei sulla pagina 1di 24

Il progresso scientifico dell’informatica

in prospettiva laudaniana

Marco S. N.
matr. ...
1 ottobre 2010

Indice
1 Cos’è l’informatica 2

2 L’informatica teorica 5

3 Il connessionismo 9

4 L’intelligenza artificiale 13

5 L’interazione uomo-macchina 16

A Alcune definizioni dei termini di Laudan 20


A.1 Tipi di problemi . . . . . . . . . . . . . . . . . . . . . . . . . . 20
A.1.1 Problemi empirici . . . . . . . . . . . . . . . . . . . . . 20
A.1.2 Problemi concettuali . . . . . . . . . . . . . . . . . . . 21

1
2

1 Cos’è l’informatica
Computer Science is no more about
computers than astronomy is about
telescopes
Edsger Wybe Dijkstra

Il termine informatica è relativamente nuovo nella storia dell’umanità.


Il vocabolo, che deriva da informatique, ha origini francesi: si tratta di un
acronimo che fonde le parole information e automatique coniato dal fisico
Philippe Dreyfuss nel 1962 [1]. Già a prima vista si intuisce quale fossero le
mire di questa disciplina nascente: lo studio dei fondamenti teorici dell’in-
formazione e della sua elaborazione automatizzata, sull’onda dell’entusiasmo
scaturito dalla nascita dei calcolatori nella seconda metà del XX secolo.

Dopo gli studi teorici di Turing e Gödel negli anni ’30 sulla realizzabilità
di macchine elementari in grado di effettuare calcoli e sui limiti delle loro
capacità, si crearono aree di ricerca incardinate sulle proprietà del calcolo
automatico, sull’analisi degli algoritmi [2], lo studio dei linguaggi di pro-
grammazione [3] [4] [5], e cosı̀ via. Ecco quindi emergere una nuova gamma
di problemi da risolvere, per usare la terminologia laudaniana, inizialmente
tutti di natura logico-matematica: la computer science (il nome in inglese è
più sincero sulla natura più intima della disciplina) plasmata da Turing, per
via del suo formalismo, ha fornito un solido punto di partenza incardinato
su rigore e determinismo: l’informatica teorica.

L’informatica naturalmente è evoluta dai primordi ed è fiorita la ricerca


in altri campi, dall’ottimizzazione dell’hardware ai sistemi operativi, dalla
gestione di processi alle attività parallele. Un punto di svolta, interessante
da analizzare, fu la diffusione di sistemi informatici al di fuori dei centri di
ricerca: nel momento in cui il computer doveva essere utilizzato anche da non
addetti ai lavori, l’informatica si scoprı̀ primitiva nella capacità di far com-
prendere il sistema all’utente e viceversa. Si apriva il fronte si è aperto con
la cosidetta human-computer interaction (HCI), che investiga sui pro-
blemi concernenti l’usabilità dei sistemi, come ci si approccia ad essi, come li
percepiamo e quali reazioni ci suscitano. In definitiva, l’informatico non de-
ve più “solo” produrre un software che svolga un qualche compito ma anche
tenere in considerazione chi e come lo utilizzerà [6]. Per la prima volta l’infor-
matica sconfinò dal puro formalismo per invadere dominii tradizionalmente
appannaggio delle scienze umane, introducendo novità epistemologiche: non
si tratta più di creare modelli e formalizzazioni in grado di dimostrare mate-
3

maticamente un’ipotesi, bensı̀ di formulare teorie al limite della scientificità


intesa in termini popperiani, poiché l’introduzione di una solida teoria falsi-
ficabile di stampo socio-cognitivista, sull’interpretazione che diamo dei vari
elementi che compongono un’interfaccia, può essere un compito arduo se non
impossibile.

Se lo scopo di uno studio di usabilità è - ad esempio - la riduzione degli


errori dell’utente1 , non esisterà mai una formula da minimizzare con stra-
tegie di ricerca operativa, ma richiederà piuttosto considerazioni di natura
psicologica e cognitiva. Potremmo facilmente trovare una giustificazione al
fatto che un elemento di testo con un colore fortemente contrastato rispetto
allo sfondo risulti più facile da percepire, perché si riduce il rischio di in-
convenienti da daltonismo e discromia. Questa teoria trova buoni riscontri
a livello fisiologico perché compatibile con l’attuale modello di fuzionamen-
to del nostro apparato visivo, un modello basato sulla risposta sensoriale
alle stimolazioni cromatiche, sul quale possiamo costruire misure (spazi co-
lore) e verificare correlazioni tra colori e leggibilità. Viceversa, è assai meno
immediata l’accettazione di un concetto come l’affordance, la capacità che
un elemento di interfaccia ha di “spiegarsi” all’utilizzatore; è praticamente
impossibile stabilire un metro quantitativo per questo tipo di aspetti, la va-
lutazione è qualitativa, fortemente soggettiva e pressapochista - per usare la
terminologia di Koyré. La sua arbitrarietà può lasciare interdetti ma, per
Laudan, il progresso della scienza procede grazie alla risoluzione di quelli che
chiama problemi empirici, ovvero quesiti che l’uomo si pone di fronte a certe
esperienze di cui vuole ricavare la spiegazione; comprendere perché alcune
forme risultino maggiormente intuitive di altre ricade sicuramente in questa
classe di problemi e dunque è giusto ritenerla un’area di ricerca2 portatrice
di progresso scientifico.

Altri campi storicamente forieri di problemi, empirici ma anche di natura


metafisica (ovvero di livello superiore, delle cause prime per usare le paro-
le di Aristotele), sono la cibernetica [7] e la sua evoluzione: l’intelligenza
artificiale [8]. La cybernetics nasce come una scienza legata alla teoria del con-
1
Intesi come utilizzo errato del software - per un errore di esecuzione o una cattiva
valutazione del risultato - derivante da un fraintendimento dell’interfaccia. Verrà spiegato
meglio nel paragrafo relativo alla HCI.
2
Laudan pone l’accento sul fatto che “i problemi sorgono all’interno di un certo con-
testo di ricerca”, in questo caso l’informatica. L’usabilità in genere è una prerogativa dei
designers, prima che degli informatici. Tuttavia, è difficile che un designer sappia esatta-
mente di cosa è capace un computer e sopratutto cosa non può fare, ed è per questo che
si preferisce una figura a metà strada.
4

trollo, alla realizzazione di sistemi di autogovernarsi, correggersi e reagire agli


stimoli. Il nome stesso, coniato da Wiener nel 1947, deriva da κυβερνητ ης
(pilota) [9]. La tradizione di ricerca più tenace nella storia di questa discipli-
na è l’emulazione del sistema nervoso umano con mezzi elettronici: ricreando
artificialmente neuroni e sensori si intende replicare la capacità di autore-
golazione che gli esseri viventi possiedono (come il cacciatore che anticipa
le traiettorie e percorsi della preda) al fine di realizzare mezzi di trasporto
intelligenti, sistemi dinamici autoregolanti, armi e sistemi di difesa più effi-
caci. L’approccio ha portato (sopratutto in passato) ad una convergenza di
ricercatori in fisica, logica e matematica, ma anche medicina e neurofisiolo-
gia, nonchè filosofia. Si cerca di realizzare reti neurali artificiali per meglio
comprendere il funzionamento delle reti biologiche, ma nel contempo si spera
di sfruttare questa conoscenza per realizzare macchine “intelligenti”. Il co-
sidetto paradigma connessionista saccheggia a piene mani le neuroscienze, e
l’informatica fornisce il supporto ideale per realizzare un’architettura artifi-
ciale simile al sistema nervoso.

Naturalmente furono mosse critiche importanti a questa visione “funzio-


nale” del cervello, per via delle implicazioni filosofiche e religiose che porta
con sè. La diffidenza si concretizzò in una totale opposizione quando il no-
tevole risultato del Percettrone di Rosenblatt - una rete neurale in grado di
imparare - fu messo in ginocchio dalla dimostrazione di Minsky e Papert del-
la sua inadeguatezza a gestire una particolare gamma di problemi. Fu quello
il momento della transizione, sempre favorita dalle ricerche di Minsky, dalla
cibernetica all’intelligenza artificiale: non si cerca più di simulare il fun-
zionamento del cervello bensı̀ i meccanismi più ad alto livello della mente;
non ci si aspetta più che l’intelligenza emerga dalla complessità neuronale
ma si pensa a come organizzare la conoscenza per elaborarla meccanicamen-
te attraverso l’uso di logiche, algoritmi di manipolazione simbolica o metodi
statistici, simulando i meccanismi del pensiero umano ripartendo, alla stre-
gua di Aristotele, dall’analisi del linguaggio. Anche l’intelligenza artificiale
sottointende una quantità enorme di quesiti filosofici irrisolti, non ultima la
definizione stessa di intelligenza.

Nello spazio che segue non effettuerò una disamina della disciplina in-
formatica in sè, ma cercherò di entrare più nello specifico delle criticità
epistemologiche e filosofiche delle quattro aree appena introdotte.
5

2 L’informatica teorica
The idea behind digital computers
may be explained by saying that
these machines are intended to
carry out any operations which
could be done by a human
computer
Alan Turing

Il più astratto e radicale tra i campi di ricerca dell’informatica è l’infor-


matica teorica. Nato per studiare i limiti e i confini della computazione, sia in
termini di risorse impiegate che di tempi di calcolo, fa dell’estremo formali-
smo la sua base. Questo rigore assoluto, peculiare delle scienze matematiche,
la rende la più “pura” dal punto di vista epistemologico poiché procede per
dimostrazioni di “consistenza” all’interno del framework concettuale in cui
vanno a incastonarsi.

Tuttavia, anche in questo contesto non mancano degli aspetti controversi.


La cosidetta tesi di Church-Turing [10] ad esempio asserisce che ¿un qualun-
que calcolo automatizzabile può essere svolto da una macchina di TuringÀ,
ovvero da un automa in grado di manipolare un nastro, organizzato in cel-
le. La nozione di “calcolo automatizzabile”, nella visione di Turing, significa
che i calcoli non proseguono all’infinito, sono sempre corretti, non richiedo-
no intuzione o deduzione (se non formalizzata a sua volta) dal calcolatore e
procedono per piccoli passi, come li farebbe un essere umano dotato di sole
carta e penna.

Una possibile interpretazione di questa teoria è che “se un problema è cal-


colabile da una persona, allora deve esistere un sistema di calcolo automatico
in grado di svolgere il compito”. Se un uomo è in grado di calcolare un’in-
tegrale e “sa spiegare” come ciò avviene, allora si può realizzare un sistema
meccanico che replichi tale risultato. Questa tesi di stampo leibniziano[11],
che può suonare perfettamente ragionevole o eccessivamente positivista, non
è mai stata dimostrata.

In maniera molto naı̂ve si potrebbe ragionare induttivamente: poiché non


si è ancora visto un “cigno nero”, sembra proprio che le macchine Turing-
equivalenti siano in grado di realizzare qualunque calcolo un uomo sia in gra-
do di svolgere. Certamente Popper non gradirebbe questa argomentazione,
pur approvando la congettura in quanto tale. La falsificazione della conget-
6

tura significherebbe l’esistenza di una classe di problemi risolvibili a mano


da un uomo che la macchina non è in grado di processare, e ancora non se
ne ha l’evidenza.

Secondo Laudan una teoria è scientifica se va ad inserirsi in una tradi-


zione di ricerca per risolvere dei problemi aperti: in questo senso la tesi di
Church-Turing non si inseriva in un discorso informatico (anche perché tale
scienza era lungi dal venire), ma faceva parte di un più ampio discorso lega-
to all’Entscheidungsproblem, ossia il problema “di decisione” dell’aritmetica
avanzato da Hilbert [12] nei primi del ’900. La risposta a quel quesito (¿dato
un gruppo di assiomi, è possibile determinare se una proposizione è consi-
stente con essi?À) venne fornita da Gödel e il suo teorema di incompletezza
(¿si può sempre costruire una proposizione che non può essere provata, nè
confutata, dagli assiomiÀ), ma fu determinante il contributo di Turing e del-
le sue macchine per chiudere la questione e dimostrare che non può esistere
un calcolo automatizzabile, nel senso definito prima, in grado di stabilire la
verità di una proposizione.

Le macchine di Turing nell’accezione Laudaniana sono dunque portatrici


di progresso. Ne è una prova il fatto che da questo punto di partenza, oltre a
srotolarsi l’intera teoria informatica, fu ricavato un secondo notevole risulta-
to: la scoperta del “problema dell’arresto”: non può esistere un algoritmo in
grado di determinare se un... altro algoritmo si fermerà o proseguirà all’infi-
nito il proprio calcolo.

Algoritmi che analizzano altri algoritmi; quando entra in gioco l’autore-


fenzialità l’informatica tende a gettare la spugna, e in modo particolare in
questo frangente, in cui si tratterebbe dell’equivalente della pietra filosofale:
fossimo in grado di determinare se un calcolo si arresta o meno in un tempo
finito, infatti, avremmo accesso alla mente di Dio per come se la figurava
Leibniz. Per sapere se un numero è primo, ad esempio, basterebbe scrivere
un algoritmo (anche dai tempi lunghissimi) che si ferma se il numero è primo
e prosegue in eterno se non lo è; valutando l’arresto di tale algoritmo otter-
remmo immediatamente la risposta. Con metodi simili a quelli goedeliani, e
sfruttando il formalismo della sua macchina ideale, Turing ha risposto an-
che a questo dilemma con tutte le ricadute filosofiche del caso. Ad esempio,
potremmo domandarci: l’impalcatura teorica da per assodato che le MdT
siano equivalenti, come capacità di calcolo, agli esseri umani, e che quindi i
problemi di decisione e di arresto valgano in senso assoluto anche per noi. Ma
è proprio vero che è il “limite superiore” della capacità di calcolo artificiale?
come si dimostra che non esiste un formalismo più potente, non soggetto alle
7

limitazioni descritte? Se una macchina di Turing effettua le medesime opera-


zioni della mente umana, perché non accadono regressi all’infinito anche per
chi si trovi a ragionare su proposizioni contraddittorie (vedi il paradosso di
Russell [13])?

La macchina di Turing è alla base anche della cosidetta teoria della com-
plessità che rappresenta la tradizione imperante nell’analisi delle performan-
ce. Per dirla “a là Kuhn”, siamo in una fase di scienza normale per quanto
concerne l’evoluzione dell’analisi degli algoritmi: i programmi vengono intesi
sequenziali, deterministici, e si sfrutta il formalismo della MdT per valutare
con precisione i costi asintotici in funzione della dimensione dell’input.

All’interno della tradizione di ricerca esistono diverse teorie che propon-


gono strategie alternative per la risoluzione di problemi. Una di queste è la
parallelizzazione nella quale i compiti vengono suddivisi tra più processori e
ricombinati al termine del calcolo. Il problema della condivisione delle risorse
tra processori e la loro necessità di armonizzazione ha introdotto nuovi forma-
lismi, tra i quali spiccano le Reti di Petri [14] e il pipelining; mentre le prime
sono nate per indagare il dinamismo dei sistemi paralleli, facendone emerge-
re le criticità, la seconda strategia punta a risolvere la questione affidando
il medesimo compito ad una moltitudine di unità indipendenti; non tutti gli
algoritmi si prestano a questo tipo di scomposizione, dunque è raro trovare
compiti da distribuire su più pipelines: attualmente le killer-applications so-
no la grafica in tempo reale (dove si lavora su decine di migliaia di singole
primitive geometriche) e il calcolo scientifico, specialmente vettoriale.

Assai più gettonata risulta la strada delle Reti di Petri e, in generale, la


“concorrenza”. Tuttavia questo approccio, come detto, richiede una certa ac-
cortezza nel gestire quelle che sono le cosidette “corse critiche” e tutte quelle
situazioni di stallo o starvation in cui più processi si bloccano/danneggiano a
vicenda. Un classico esempio di questo problema sono i filosofi a cena di Di-
jkstra [15]: Aristotele, Popper, Khun, Lakatos e Laudan si ritrovano a tavola.
I filosofi, si sa, mangiano con due posate e sulla tavola ce ne sono cinque:
non potranno mangiare tutti contemporaneamente e andranno alternate fasi
di meditazione ad altre di nutrizione. La criticità emerge nel momento in
cui tutti cercano di mangiare nello stesso momento e iniziano afferrando la
forchetta alla loro sinistra: la situazione è bloccata in maniera inestricabile.
L’unica via d’uscita è che almeno due filosofi rilascino la posata, ma come
persuadere un processo a fare una cosa del genere, nell’economia di un siste-
ma operativo? Diciamo subito: dotare i processi di una personalità è fuori
discussione. L’alternativa è istruire i processi affinché verifichino al dispo-
8

nibilità della risorsa che stanno andando a richiedere: il filosofo controllerà


che ci siano due forchette libere, e a quel punto le afferrerà. Anche se può
sembrare una buona strategia, in campo informatico si traduce nel verificare
il contenuto di un’area di memoria condivisa e, nel caso risulti libera, alte-
rarla; ma nei sistemi a divisione di tempo (come i computer tradizionali) non
è scontato che la lettura della memoria e la sua alterazione siano istruzioni
consecutive: può avvenire altro nel frattempo, ad esempio un’alterazione da
parte di un altro processo.

Questo è stato per lungo tempo quello che Laudan definisce problema
insoluto, ovvero non risolto da alcuna teoria o modello ipotetico, all’interno
della tradizione di ricerca sui sistemi operativi. Gli scienziati si sono dun-
que concentrati sulla sua risoluzione pratica, conclusasi con l’introduzione
di primitive come i mutex, che han richiesto un’interessante regressione del
problema fino ad un livello “atomico”: è necessario che l’hardware collabori,
consentendo a un solo processo l’accesso ad una regione critica ed, eventual-
mente, la sua alterazione. La strategia funziona, ma ci si può domandare cosa
succeda se il filosofo mangione non rilascia la sua forchetta. Come garantire
che l’accesso sia fair, ovvero che a turno tutti i filosofi riescano a desinare?
Ancora una volta, dotare i processi di buona educazione è escluso. Attual-
mente ci si aspetta il verificarsi di due condizioni: il programmatore fa un
uso corretto delle primitive per la concorrenza e il sistema operativo tiene
a mente i pasti dei filosofi, cercando di servire tutti in maniera equa. Ov-
viamente, i due aspetti sono ortogonali tra loro e possono anche entrare in
conflitto. Esistono poi teorie completamente diverse (come la presenza di un
processo-arbitro che sorvegli situazioni di blocco, il dialogo tra i filosofi per
accordarsi tra loro eccetera), ma ognuna ha punti di forza e debolezze: sono
i problemi che Laudan definisce anomali, ovvero non risolti in maniera defi-
nitiva da una teoria, su cui c’è ancora margine di lavoro e che non spingono
all’abbandono dei diversi modelli.

La tradizione di ricerca di Turing ha proposto un ulteriore modello astrat-


to, assolutamente teorico ma foriero di affascinanti nuovi punti di vista; tale
modello, detto Macchina di Turing Non-deterministica (NDTM), propone di
estendere le sue capacità di parallelismo: la transizione di stato non avviene
tramite una funzione ma una applicazione, e quindi possono essere sondate
infinite possibilità. Tale differenza comporta una cascata di considerazioni e
speculazioni teoriche, non ultimo il fatto che esiste una classe di problemi di
calcolo assai complessi su macchine deterministiche ma trattabili (e in tempo
polinomiale) su quelle indeterministiche. Quest’ultima classe è comunemente
detta NP (non-deterministic polynomial ) ed è ancora oggi accesissimo [16] il
9

dibattito sul fatto che sia o meno equivalente a quella dei problemi polino-
miali (P).

L’importanza di una eventuale scoperta che queste due classi sono, in


realtà, la medesima, renderebbe improvvisamente aggredibili una vasta gam-
ma di problemi che sono ritenuti ingestibili, come la crittoanalisi: poter ridur-
re un problema cosı̀ complesso ad un altro molto più semplice renderebbe i
sistemi di sicurezza improvvisamente inefficaci. Anche l’intelligenza artificia-
le è fortemente limitata dal fatto che gli algoritmi di inferenza - al massimo
delle loro potenzialità - richiedono tempi enormi per giungere allo scopo, fi-
no agli eccessi delle logiche descrittive che effettuerebbero i loro calcoli in
tempi esponenziali perfino sulle NDTM. Scoprire che è possibile ridurre que-
sti problemi, attualmente non approcciabili, a classi di complessità inferiore,
spalancherebbe una porta ben serrata.

3 Il connessionismo
The brain is a computing machine
connected with a spirit
Kurt Gödel

Un neurone è una cellula particolare che trascorre la sua esistenza riceven-


do stimoli elettrici e, quando superano un certo limite, ne emette uno a sua
volta lungo una diramazione che lo collega ad altri simili chiamata assone. I
segnali elettrici in questione compongono l’attività del sistema nervoso; quel-
li scambiati all’interno del cranio definiscono la nostra attività cerebrale. E’
opinione comune - ma non una verità comprovata - che questa attività elettri-
ca nel cervello sia strettamente correlata a quella mentale e ai nostri pensieri.

Che il cervello fosse la sede del pensiero lo sospettava già Platone, e il


dualismo cartesiano suggeriva di separare l’attività mentale dalla fisicità cor-
porea. Searle riassume la diatriba cosı̀: i cervelli causano le menti [17]? Gli
esseri umani pensano (e sviluppano linguaggi) per via della struttura cere-
brale, o c’è dell’altro? Come impariamo? Cos’è la fantasia? Si può simulare
la coscienza di sè? E’ evidente che una vasta gamma di problemi filosofici (ed
epistemologici, nonché teologici) si spalanca con questo tipo di questioni.

Alcune delle risposte cui si è giunti sollevano quelli che Laudan defini-
sce problemi concettuali esterni al mondo scientifico, in particolare del tipo
riconducibile alla nostra visione del mondo. Se ammettiamo che il pensiero
10

è frutto di attività cerebrale di tipo deterministico, allora il libero arbitrio


diventa una illusione e si contrappone ad un punto fermo della tradizione cri-
stiana, che va ad impattare sui dibattiti etici e filosofici. I problemi di natura
esterna sono molteplici, e molti si sovrappongono al dibattito sull’intelligenza
artificiale o simulata, quindi rimando il discorso alla sezione successiva.

Tornando allo scopo della ricerca connessionista, essa come detto voleva
indagare i meccanismi neurologici; considerata l’oggettiva difficoltà di effet-
tuare studi non invasivi sui cervelli di esseri umani, agli scienziati è parsa
ghiottissima l’opportunità, con la nascita dell’elettronica prima e dell’infor-
matica poi, di riprodurli artificialmente e studiarne i meccanismi [18]. Il pri-
mo modello fu proposto dai ricercatori McCullogh e Pitts nel 1943 [19] ed
era fondamentalmente un combinatore lineare: i segnali elettrici dagli al-
tri neuroni sono rappresentati da valori numerici reali e il neurone “spara”
un numero a sua volta se la somma di tali valori supera una certa soglia.
Nonostante l’estrema semplificazione rispetto la realtà biologica, tale unità
logico-matematica si dimostrò comunque in grado di svolgere semplici com-
piti, tra cui l’emulazione di porte logiche. Dunque, se un singolo neurone di
McCullogh-Pitts era in grado di svolgere compiti basilari, un neurone umano
probabilmente può fare altrettanto.

Un altro notevole risultato fu il perceptron di Rosenblatt (1958) [20], una


rete neurale artificiale feed-forward (ovvero in cui i neuroni non rimandano
indietro i segnali, ma solo a quelli dello strato successivo) in grado di appren-
dere dagli stimoli ai sensori. Il mondo della cibernetica esultò per il risultato,
ma fu un entusiasmo momentaneo perché due ricercatori (Papert e Minsky)
dimostrarono che esiste un’intera gamma di funzioni che il percettrone non
è in grado di riconoscere (si tratta di quelle non linearmente separabili3 , ad
esempio lo XOR). Questa anomalia, ritenuta troppo grossa dall’ambiente,
causò un brusco rallentamento del ritmo di progresso della cibernetica - e
in particolare della teoria connessionista. Quando poi si realizzarono la diffi-
coltà di modellare delle reti a retro-propagazione e la necessità di fornire una
quantità notevole di esempi perché l’apprendimento abbia luogo (la cosidetta
dimensione di Vapnik-Chervonenkis [21]) si ebbe il freno definitivo, a tutto
vantaggio dell’emergente ambito dell’intelligenza artificiale.

3
Ovvero in cui una retta separa nettamente gli elementi di un insieme sul piano delle
possibilità.
11

In seguito, nei primi anni ’80, la cibernetica viene riscoperta; il problema


delle funzioni non linearmente separabili vien superato con le reti multistra-
to; il problema della velocità di apprendimento porta allo studio di tecniche
speciali, come le support vector machines [22] utilizzate in molti ambiti del
cosidetto machine-learning.

Nascono poi nuove concezioni di rete neurale, come le reti ricorrenti (ov-
vero con connessioni ad anello) [23] e le macchine di Boltzmann [24]; queste
ultime si basano su una analogia con la termodinamica: la rete viene lasciata
evolvere fino a dei punti di equilibrio partendo da una configurazione caotica
dei pesi. Il raggiungimento della stabilità avviene simulando il “raffredda-
mento” della rete, con la tecnica detta della simulated annealing (tempratura
simulata).

La potenza di questo nuovo tipo di reti è che riescono a trattare infor-


mazione incompleta o parzialmente erronea, ad effettuare deduzioni con vari
livelli di confidenza nel risultato, a creare prototipi sulla base delle caratte-
ristiche degli individui, perfino di poter avanzare ipotesi sui dati mancanti
e di ricavare nuova conoscenza su basi induttive. Un esempio di Frixione:
¿supponiamo di non disporre di un’informazione su un individuo; sappiamo

che nella rete ce ne sono altri con cui condivide un certo tipo di caratteristi-
che. Quando attiviamo i neuroni delle proprietà del nostro individuo, questi
andranno a contribuire all’attivazione delle unità nascoste che a loro volta
attiveranno i neuroni relativi alle informazioni mancanti e dedotte su base
induttivaÀ.

La parte interessante di questi modelli è che sembrano presentare carat-


teristiche dell’intelligenza umana (astrazione, deduzione, induzione, gestione
dell’incertezza) senza una spiegazione esplicita di cosa essa sia: dalla sempli-
cità dei neuroni e della complessità della topologia emergono dalle proprietà
computazionali della rete stessa. Non c’è programmazione, non c’è codice e
non ci sono dati. Anzi, per meglio dire, ci sono solo dati distribuiti all’in-
terno della rete, che non corrispondono più al singolo soggetto (paradigma
sub-simbolico).

Tutti questi risultati sono ottimi e avvincenti, ma l’antico desiderio di


ricreare una mente artificiale è ancora lontano, sebbene gli sviluppi di calcolo
parallelo e distribuito stiano creando di anno in anno le condizioni affinché si
possa ricreare un modello architetturalmente simile in tutto e per tutto alla
mente umana. Inoltre, grossi freni all’entusiasmo son derivati dagli studi sul
linguaggio naturale: le reti neurali han serie difficoltà a emulare i meccanismi
12

di apprendimento del linguaggio, dati ormai per assodati da linguisti formali


(come Chomsky), antropologi e psicologi; inoltre, non esiste alcun modello
alternativo per spiegare come sia possibile apprendere una lingua, mentre il
paradigma simbolico dell’Intelligenza Artificiale sembra lasciare più margini.
Secondo il pensiero di Collingwood riportato da Laudan, ¿si può parlare di
progresso solo se c’è guadagno senza perditaÀ, ovvero se la conoscenza av-
viene mediante teorie cumulative in grado di risolvere più problemi di quelle
precedenti senza perderne altri per strada. Questo si sarebbe sistematicamen-
te rivelato falso per il connessionismo: ad ogni spinta in avanti è corrisposta
un’obiezione fondamentale all’indietro. Ma per Khun [25] ¿la sostituzione di
una vecchia teoria con una nuova è solitamente associata a perdite oltre che
vantaggiÀ.

Viceversa, una grossa critica dai connessionisti puri alla AI è questa: l’ar-
chitettura di Von Neumann, e in particolare l’esecuzione sequenziale di dati
immagazzinati separatamente al processore centrale, non può ricreare alla
perfezione i meccanismi cerebrali. Il nostro apparato nervoso è organizzato
in decine di miliardi di piccoli processori paralleli (cioè i neuroni), del tut-
to asincroni tra loro, fortemente interconnessi. Questa differenza è notevole,
significa che nel cervello l’unità di elaborazione e di immagazzinamento non
sono separati, ovvero “dati” e “programmi” sono la stessa cosa. Dunque, i
modelli funzionali della scienza cognitiva, in cui la mente è vista come un
elaboratore “monolitico” di dati, non hanno alcuna plausibilità anatomica e
neurofisiologica [26].

I modelli simbolici, in cui si maneggiano concetti, mostrano limiti che le


reti neurali artificiali non hanno: ad esempio, queste ultime tollerano meglio
gli errori e le inconsistenze; patiscono meno l’overfitting, ovvero l’adattamen-
to eccessivo ai dati di esempio, cosa che capita con facilità in altri modelli
di apprendimento come gli alberi di decisione, nonostante tutte le loro evo-
luzioni derivate dalla teoria dell’informazione; le reti neurali, come gli esseri
viventi, sanno inoltre arrangiarsi meglio in mancanza di dati completi, mentre
la semplice rimozione di un assioma in una knowledge base può distruggere
un’intera impalcatura deduttiva.

Finora, proposte di architetture innovative ad alto parallelismo non hanno


avuto successo e la tradizione di Von Neumann resta la più gettonata. Forse
un giorno avremo la possibilità di addestrare una rete topologicamente uguale
a quella umana, indistinguibile dal suo funzionamento e chissà, forse potrebbe
emergere una mente e una coscienza.
13

4 L’intelligenza artificiale
The question of whether Machines
Can Think... is about as relevant as
the question of whether
Submarines Can Swim
Edsger Wybe Dijkstra

L’idea di creare un sistema di intelligenza artificiale è, in un certo sen-


so, antica quanto l’uomo. A più riprese, in svariate forme, si sono palesati
i prodromi per quella che oggi chiameremmo intelligenza artificiale debole:
meccanismi in grado di simulare una parte delle attività mentali dell’uomo.
Minsky una queste parole: ¿far fare alle macchine ciò che richiederebbe in-
telligenza se fosse fatto da uominiÀ.

Dal punto di vista storico, la prima concretizzazione di questo desiderio


fu la fabbricazione da parte di Pascal della sua pascalina, la prima calcola-
trice meccanica (invero capace solo di addizioni e sottrazioni). Questo tipo
di macchinari, più che simulare l’attività mentale a basso livello, sfruttano
i procedimenti che l’uomo applica per arrivare al risultato, e cioè gli algoritmi.

Gli algoritmi sono metodi per la risoluzione di problemi; il nome viene


da quello che è considerato il primo teorizzatore, il persiano Muhammad ibn
Mūsa ’l-Khwārizmī, che per primo propose un intero libro di procedimenti
per risoluzioni algebriche. Scomporre un problema in passi elementari (anche
ripetitivi) e farlo eseguire ad un macchinario è un po’ l’essenza della program-
mazione. Diversi secoli dopo ’l-Khwārizmī, l’inglese Charles Babbage giunse,
sulla scorta della pascalina, a teorizzare una calcolatrice programmabile tra-
mite schede, chiamata “macchina analitica”; non venne mai costruita, ma fu
studiata a lungo da una donna con cui Babbage intratteneva un fitto scambio
epistolare: la figlia del poeta Lord Byron, la matematica Ada Lovelace. Ella
codificò un algoritmo per il calcolo dei numeri di Bernoulli e rappresenta,
in assoluto, il primo programma informatico della storia. Questo primato è
stato riconosciuto alla Lovelace, al punto che quando il Ministero della Dife-
sa statunitense decise di creare un linguaggio di programmazione “perfetto”
(cosı̀ fu definito sul bando di gara) per i propri sistemi di difesa lo battezzò
proprio Ada.

Un notevole impulso alla ricerca dei sistemi “ragionanti” avvenne ovvia-


mente con l’arrivo dell’informatica; fu il solito Turing a mettere la pulce
nell’orecchio del mondo della ricerca con un articolo sulla rivista Mind [27]
14

in cui rilanciava l’annosa quaestio: ma le macchine possono pensare? In que-


sto caso si parla non di sistemi in grado di risolvere problemi specifici in un
dominio, ma di una intelligenza forte.

La questione è subito spinosa per quanto concerne il chiarimento di due


concetti: macchina e pensiero. Il modo in cui il matematico esce dall’em-
passe è ridurre la domanda ad un’altra, ovvero il celebre “test di Turing”:
se dialogassimo con due individui A e B, di cui uno è un uomo e l’altro una
macchina, parlando attraverso una telescrivente (o una chat, per trasportare
l’idea nel contemporaneo) per non subire l’influenza del tono di voce, riusci-
remmo a capire quale dei due è l’interlocutore artificiale? Turing è convinto
che non c’è modo di simulare l’intelligenza umana, se non realizzandone una
vera e propria.

Finora nessuno è stato in grado di scrivere un software in grado di passare


il test; non sono mancate, però, le critiche di principio. La più nota è quella
di Searle del 1980 [17] detta della “Stanza Cinese”: se fossimo in grado di
realizzare un computer che, dati in ingresso dei simboli cinesi, rispondesse
sempre in cinese e in una maniera tale da superare un test di Turing, si po-
trebbe concludere che tale computer conosca il cinese? Prima di rispondere
alla domanda, Searle aggiunge: che cosa succederebbe se fossimo noi stessi al
posto del computer? Di certo, non diremmo di conoscere il cinese! Con questa
obiezione, assai potente, ha generato un forte dibattito (non concluso) sulla
reale differenza tra intelligenza e mera risposta meccanica.

Al di là di tutto questo dibattito filosofico ruotante attorno alla Artificial


Intelligence (AI), ammesso fosse possibile escluderlo dalla dalla questione, la
ricerca si sviluppò veloce. Il primo passo fu l’introduzione dei linguaggi di
manipolazione simbolica; il paradigma della intelligenza artificiale (forte o
debole che sia) non è sub-simbolico come nel connessionismo, in cui i “con-
cetti” e le “funzionalità” sono riconducibili a gruppi di neuroni. Al contrario,
nel campo della AI si ragiona al più alto livello dei simboli e i linguaggi nati
per questo tipo di processazione (come LISP [3]) sono la diretta conseguenza
di questo approccio. L’opportuna rappresentazione dei concetti del mondo,
la capacità di manipolarli al fine di effettuare deduzioni ed eventualmente
creare nuova conoscenza sono le finalità di una informatica delusa dalle diffi-
coltà intrinseche del ricreare una mente e preferiva simulare i meccanismi di
inferenza umani.

Si ripartiva dalla logica dei predicati e si effettuava inferenza sui simboli,


intesi come quegli atomi logici che Russell [28] prima e Wittgenstein [29] poi
15

identificavano alla base del linguaggio e, in definitiva, del pensiero stesso. I


più vivaci funzionalisti non avevano dubbi che da questo approccio sarebbe
emersa un’intelligenza. Tuttavia, come si può prevedere, ci si è scontrati con
la difficoltà di immagazzinare ogni possibile nozione all’interno di un sistema
informatico (per ragioni di spazio, efficienza, anche semplice possibilità di in-
dagine esaustiva delle realtà, e cosı̀ via. Ne parla ampiamente McCarthy [30])
ma sopratutto con l’impossibilità di elaborare in tempi utili questa mole di
informazioni. Una logica del primo ordine, completa di tutto l’armamentario
teorico a sua disposizione, è molto meno che trattabile per i sistemi attuali
(sia come hardware che software). Per questa ragione, negli ultimi anni la
ricerca ha ripiegato su più modesti campi di applicazione, come la AI debole
e i sistemi esperti, ovvero applicazioni ristrette di strategie “razionali” per
affrontare problemi “intelligenti”.

Ad esempio, attività di questo tipo sono il machine learning (ovvero mac-


chine in grado di imparare da esempi, sia sotto la guida di un esperto di do-
minio che in maniera del tutto automatica, come gli algoritmi di clustering, o
con tecniche di apprendimento per rinforzo). Domandiamoci ora: stanno dav-
vero imparando questi software? L’etimologia del termine è dal latino parare,
ovvero “procacciare”, in questo caso nuove cognizioni. Sembra presupporre
un ruolo attivo e in tale ottica, non c’è dubbio, la macchina NON sta “impa-
rando”: sta immagazzinando passivamente ed elaborando (in genere su basi
statistiche) i dati come noi gli abbiamo insegnato. Ma se sottointendiamo
che la volontà di procacciamento è determinata dalla nostra programmazio-
ne, allora la macchina non ha alcuna scelta e il termine intelligenza artificiale
debole è quantomeno sovradimensionato 4 . Ora rivolgiamo la stessa critica
a noi stessi... non siamo anche noi programmati per immagazzinare? Se sof-
frissimo di una disfunzione della memoria a breve termine non potremmo
imparare nemmeno se ci costringessimo a farlo (anche perché ce ne dimen-
ticheremmo), dunque anche la nostra “intelligenza” è tutta da dimostrare;
probabilmente esistono funzionalità di livello più basso, verso cui non possia-
mo rivolgere l’introspezione, che gestiscono l’attività di learning degli esseri
umani. Attività programmate (nel DNA), meccaniche, ripetitive, determini-
stiche. Sono cosı̀ diverse dalle MdT?

Una delle critiche mosse a Turing fu l’obiezione teologica: Dio ha dato l’in-
telligenza solo all’uomo. Non agli animali, non alle macchine, tantomeno ai
4
Douglas Hofstadter [31] scrive nel suo libro Gödel, Escher, Bach: ¿i calcolatori sono
(...) gli esseri più rigidi, privi di desideri e ubbidienti che ci siano, (...) sono l’essenza
stessa della inconsapevolezza. Come può allora essere programmato un comportamento
intelligente? Non è questa la più appariscente delle contraddizioni in termini?À
16

computer: solo ad esso. ¿Dunque le macchine non potranno mai pensareÀ[27].


Si tratta di una argomentazione metafisica che va contro quel principio di ade-
guata semplicità che gli epistemologi auspicano; ciononostante, Turing non
si sottrasse alla discussione e mosse un’obiezione abbastanza convenzionale,
e cioè che questa teoria limitava drammaticamente l’onnipotenza divina. Vi-
ceversa, sostenne il matematico, Dio può tutto, anche dotare un computer
di pensiero. E siccome un computer, o meglio una macchina di Turing, va
programmato, significa che esiste almeno un software in grado di pensare e
Dio ne conosce il codice.

L’altra forte obiezione che gli venne mossa è di origine filosofica, già an-
ticipata in precedenza: noi non possiamo assumere che i processi mentali
siano deterministici, perché altrimenti non avremmo libero arbitrio. Hofstad-
ter paragona tale attività azione (stimolo) / reazione (processo mentale) ad
una pallina che rotola da una collina sassosa: ¿compie delle scelte? Credo
tutti diremmo di no, che non potrebbe percorrere un’altra strada ed è sem-
plicemente spinta avanti dalle inesorabili leggi della naturaÀ[31]. Ma allora
il nostro pensiero è inesorabile? Si parte con una configurazione cerebrale
iniziale che viene modificata dall’esperienza e dall’apprendimento, ma su cui
non possiamo esercitare alcun controllo? La sensazione è che non sia cosı̀, ma
questa stessa sensazione è generata, all’atto pratico, dalla fisica che avviene
nei neuroni. Due sono le soluzioni: affermare che la mente ha un’origine oli-
stica (cioè che va oltre la composizione delle sue parti) oppure che la fisica
non è totalmente deterministica (e il principio di indeterminazione di Hei-
senberg sembra fornire una via di fuga in tal senso, sebbene se la sua valenza
in questo ambito sia tutta da dimostrare).

Oppure, è tutto già scritto.

5 L’interazione uomo-macchina
I have always wished for my
computer to be as easy to use as
my telephone; my wish has come
true because I can no longer figure
out how to use my telephone
Bjarne Stroustrup

La storia dell’usabilità è antica quanto l’uomo e ha accompagnato, anche


se in maniera implicita, quella delle sue invenzioni. Ogniqualvolta si sia reso
17

necessario costruire un qualche artefatto per raggiungere uno scopo (ad esem-
pio, la selce tagliare la carne) la tendenza è sempre stata quella di renderlo
più efficiente e facile da usare (dunque più tagliente e con una impugnatura
più adeguata alle caratteristiche della nostra mano).

Finché siamo noi stessi a fabbricare gli oggetti, è evidente che li faccia-
mo quanto più possibile conformi alle nostre esigenze; il problema dell’u-
sabilità emerge quando la realizzazione avviene da parte di un progettista
che non è necessariamente l’utente finale. Costui potrebbe essere tentato a
dar fondo alle proprie estrosità artistiche o alle più recondite fantasie sul
suo funzionamento, o più banalmente essere un incapace, perdendo di vista
la soddisfazione dell’utente finale. Questo tipo di problemi ha dato vita ad
autentici mostri ingegneristici, completamente inutilizzabili quando non dan-
nosi per l’integrità fisica dell’utilizzatore [32] e ha ingenerato un filone teorico
chiamato - appunto - usabilità, che ha perfino una definizione ISO ben preci-
sa: ¿l’efficacia, l’efficienza e la soddisfazione con le quali determinati utenti
raggiungono determinati obiettivi in determinati contestiÀ. Se il contesto è
ristretto ai calcolatori si parla di human-computer interaction (HCI o inte-
razione uomo-macchina). In realtà, questa disciplina si compone anche di un
discorso parallelo sull’accessibilità, che non verrà affrontato in questa sede
non essendo particolarmente interessante dal punto di vista epistemologico.

Il principio della HCI è che esistono due dimensioni fondanti nello svilup-
po di un sistema interattivo: la complessità funzionale e quella strutturale[33].
Un esempio classico di sistema molto semplice sotto i due aspetti è la già ci-
tata selce: ha una sola funzione (tagliare), assolutamente autoevidente, e ha
una complessità interna pari a zero. Al contrario uno smartphone di ultima
generazione ha entrambi i valori fuori parametro: tantissime funzioni, tantis-
sima complessità interna.

La tendenza degli informatici è quella di badare molto alle struttura in-


terna, saturando di features i software, il che si riflette in una complessità
funzionale elevatissima. Cosı̀ il sistema diventa molto difficile da comprendere
e utilizzare dai non addetti ai lavori. Per questa ragione, si cerca di impronta-
re gli informatici al verbo dell’usabilità, insegnandogli a mantenere semplici
(e possibilmente autoevidenti) le funzionalità senza sacrificare la complessità
interna.

Nel tentativo disperato di non lasciare margine di incomprensione, i desi-


gners di interfaccia tendono a dar colpi di bisturi, eliminando alcune caratte-
18

ristiche perché ¿gli utenti tendono ad essere confusi dalle troppe funzioniÀ5 .
Questo approccio portò ad una feroce polemica nell’ambiente *nix quando Li-
nus Torvalds, l’inventore di Linux, annunciò di esser passato dalla interfaccia
desktop GNOME a KDE e che avrebbe consigliato a tutti di fare altrettanto
perché quest’ultima non toglieva all’utente delle funzionalità per rendergli
la vita più semplice: ¿se il programmatore pensa che gli utenti siano idioti,
allora solo gli idioti useranno il suo softwareÀ. Come dargli torto. In parti-
colare, fece notare la differenza tra il programmare codice “facile da usare”
e codice “che può esser solo facile da usare”, dicendo che nel primo caso si
è in presenza di una curva di learning poco ripida, mentre nel secondo la
curva è bassa perché non c’è nulla da imparare. La chiosa finale fu spietata:
¿GNOME sembra dirti: quando hai finito di imparare non chiedere altro,

perché non ti serve. Ma non è cosı̀À. Ignorance is not bliss, per il finlandese.

Tornando ai termini chiave (efficacia, efficienza, soddisfazione), il primo


si traduce in “quanto gli utenti riescono a completare i propri compiti”. Dal
punto di vista epistemologico è una bella grana, perché non esisterà mai una
metrica di valutazione nè una teoria che abbracci tutte le casistiche di uten-
za poiché, per ognuna di esse, interverranno fattori culturali, psicologici e
cognitivi. Per questa ragione, si tende a restringere (o meglio focalizzare) il
target di utilizzo e ad eseguire i cosidetti “test di usabilità” che danno una
base statistica con cui valutare quantitativamente le qualità del prodotto e
una strategia di identificazione delle criticità. Tali test consentono anche di
raccogliere un feedback qualitativo, che racchiude la terza delle nostre parole
chiave (soddisfazione) e per forza di cose presenta le medesime perplessità
metodologiche viste prima: si parla più di arte ed estetica che di scienza.
Rimane da determinare cosa sia l’efficienza di un sistema.

Per efficienza intendiamo quante risorse sono richieste ad un utente per


raggiungere uno scopo; per risorse si intende:

ˆ quanto ragionamento gli è richiesto durante l’utilizzo;

ˆ quanta interazione deve effettuare;

ˆ quale background teorico è presupposto (un classico - e annoso - pro-


blema dei software open-source);

ˆ quanta parte viene automatizzata e quanta è lasciata nelle sue mani


5
http://mail.gnome.org/archives/usability/2005-December/msg00021.html
19

Con raggiungere uno scopo si intende che l’utente è soddisfatto dei risul-
tati e non ha riserve su quanto ha ottenuto e sul modo. Se i risultati non
sono quelli attesi, who’s to blame? E’ colpa dell’utente che ha frainteso le
indicazioni o è il software a presentare ambiguità?

Come sosteneva Popper, qualunque osservazione non è scevra di teoria,


ogniqualvolta ne effettuiamo una partiamo da preconcetti e pregiudizi. An-
che il programmatore di interfacce dovrebbe far “tabula rasa” di quanto sa o
crede di sapere, partendo da una condizione zero paritetica all’utente finale,
ma ciò è fondamentalmente impossibile ed espone ad un classico problema
di HCI: un software che appare perfettamente logico al suo programmatore,
perché magari riflette la struttura interna o le sue procedure, ed estrema-
mente macchinoso, quando non criptico, per chi lo utilizzi.

Spunti per una soluzione son provenuti dalla psicologia della Gestalt [34],
una teoria incardinata sulla nostra percezione della realtà. Molta della sua
teoria è stata trasportata nella HCI, perché ben si presta allo sviluppo di
interfacce intuitive che conducano l’utente per mano lungo l’esecuzione.

La teoria delle affordance di Gibson [35], presentata nella introduzione,


è una diretta evoluzione della Gestalt e sostiene che la percezione dell’am-
biente conduce inevitabilmente ad una qualche azione; è possibile introdurre
degli indizi in tale ambiente per suggerire la possibilità di un’azione, in par-
ticolare quella azione che l’utente desidera compiere. Se realizzati bene, tali
indizi sarebbero percepiti direttamente, senza necessità di una aggiuntiva
elaborazione mentale. Un esempio che Gibson portava era quello dell’acqua
che è “tuffabile” senza troppe spiegazioni. Oppure la forchetta, che dovrebbe
“farsi capire da sè” e che ha passato miglioramenti di affordance nel corso
dei millenni. Dunque, si propone di realizzare interfacce che siano quanto più
possibili autoesplicative, con gli elementi capaci di descrivere da sè i ruoli che
assumono. In un certo senso, la cosa funziona: un bottone con scritto “ESE-
GUI” dovrebbe in primo luogo mettere voglia di premerlo, e in secondo luogo
rassicurare sulla sua utilità. Tuttavia ci si può domandare: la affordance è un
valore assoluto, o c’è di nuovo un problema cognitivo? Non vi è una fortis-
sima base esperienziale nel riconoscimento di un pulsante (o una forchetta)?
Un aborigeno (al di là della diversità di linguaggio) possiede tali nozioni? Se
per lui il discorso cade, abbiamo falsificato la teoria? Tralasciando il solito
metro statistico sull’efficenza del sistema, qual è la sua scientificità?

Riprendendo Laudan ancora una volta, la teoria dell’affordance, pur pre-


sentando delle anomalie irrisolte, aiuta il superamento di molti problemi e
20

non si scorgono al momento idee più efficaci: nella tradizione di ricerca della
HCI rimane la più quotata, e tanto basta.

A Alcune definizioni dei termini di Laudan


Il libro di Laudan Il progresso scientifico inizia affermando che la scienza pro-
gredisce attraverso delle teorie, la cui razionalità e capacità di progresso sono
indissolubilmente legate alla loro capacità di risolvere problemi, alleggerendo
gli assunti verificazionisti della Scuola di Vienna e falsificazionisti di Popper.
In particolare, definisce razionali ¿le scelte teoriche costituiscono il progresso
maggioreÀ.

Tutte le teorie nascono e si sviluppano in quelle che chiama tradizioni di


ricerca, una evoluzione dei paradigmi di Kuhn e dei programmi di ricerca di
Lakatos: si tratta di insiemi di teorie sui problemi di un dominio, teorie legate
da comuni assunti metafisici, ontologici e metodologici, che attraversano più
modifiche nel tempo. Vediamo ora come Laudan classifica tali problemi.

A.1 Tipi di problemi


Esistono due soli tipi di problemi nella scienza:

ˆ problemi empirici;

ˆ problemi concettuali.

A.1.1 Problemi empirici


I primi sono i ¿problemi attorno al mondo, questioni di base sugli oggetti
che costituiscono il dominio di una data scienzaÀ. Si sottolinea questa appar-
tenenza ad una scienza, perché il medesimo problema può essere affrontato
da più discipline: ¿situazioni che pongono problemi in un contesto di ricerca,
non necessariamente li pongono in un’altro o risultano peculiariÀ. Esistono
tre tipi di problemi empirici:

ˆ insoluti (nessuna teoria al momento può spiegarli);

ˆ risolti (hanno già trovato una teoria che li spieghi adeguatamente);

ˆ anomali (non sono stati risolti da una particolare teoria, ma son stati
risolti da altr in competizione con essa).
21

L’ultima classe, quella dei problemi anomali, era ritenuta pericolosa dagli
empiristi logici come Popper; una teoria con problemi anomali era da consi-
derarsi indegna di considerazione. Per Laudan, la storia della scienza insegna
che alcuni scienziati hanno appoggiato tout court teorie piene di anomalie e
ne hanno abbandonate altre in cui ve n’erano poche. Questo è spiegabile solo
se ¿non è tanto il numero delle anomalie a contare, quanto la loro importanza
cognitivaÀ; viene naturale introdurre quelli che definisce gradi di minaccia
epistemica.

A.1.2 Problemi concettuali


Il secondo tipo di problemi è quello dei problemi concettuali, che Laudan
ritiene ¿importanti tanto quanto quelli del primo tipo e colpevolmente igno-
rato da storici e filosofi della scienzaÀ. La prima definizione che Laudan ne da
è per esclusione: sono tutti quei problemi delle teorie di natura non empirica.
In questo contesto, li suddivide in altre due tipologie:

ˆ problemi interni (incoerenze interne di una teoria o le anomalie deri-


vanti da poca chiarezza);

ˆ problemi esterni (conflitti con altre teorie o dottrine).

La prima classe di problemi è assai frequente nel campo scientifico e in


genere si identifica con le incoerenze logiche di una teoria o la sua contrad-
dittorietà coi risultati. Se non si riesce a sistemare l’impalcatura, la tendenza
è di rifiutare la teoria. Per i problemi esterni la questione è più delicata, per-
ché si può parlare di incompatibilità non tanto legate ai risultati sperimentali
quanto derivanti dalla ¿visione del mondoÀche la società, o lo scienziato stes-
so, hanno in quel momento. Oppure, l’incompatibilità può avvenire tra teorie
rivali appartenenti a dominı̂ antagonisti. O ancora può esserci una difficoltà
ad accettare le metodologie adoperate, all’interno di una comunità scientifica.

Secondo Laudan, l’unità di base del progresso scientifico è la risoluzione di


problemi, a prescindere dalla loro natura. Più una teoria si dimostra capace
di aumentare i problemi risolti, più va ritenuta efficace.

Riferimenti bibliografici
[1] Philippe Dreyfus. L’informatique. Addison-Wesley Professional, 1962.
22

[2] Donald Knuth. Art of Computer Programming, Volume 1. Addison


Wesley Publishing Co, Reading, 1968.

[3] John McCarthy. Recursive functions of symbolic expressions and their


computation by machine, part i. Commun. ACM, 3(4):184–195, 1960.

[4] John McCarthy. Programs with common sense. Technical report,


Symposium on Mechanization of Thought Processes. National Physical
Laboratory., Teddington, England, 1958.

[5] Benjamin Pierce. Types and Programming Languages. MIT Press,


Cambridge, 2002.

[6] Roberto Polillo. Facile da usare. Apogeo, 2010.

[7] Roberto Cordeschi. La scoperta dell’artificiale. Psicologia, filosofia e


macchine intorno alla cibernetica. Duonod, 1998.

[8] Somenzi Vittorio & Cordeschi Roberto. La Folosofia Degli Automi.


Bollati Bornighieri, 1986.

[9] Norber Wiener. Cybernetics: Or Control and Communication in the


Animal and the Machine. MIT Press, 1948.

[10] Alan M. Turing. On Computable Numbers, with an Application to


the Entscheidungsproblem. Proceedings of the London Mathematical
Society, s2-42(1):230–265, 1937.

[11] Gottfried Leibniz. New Essays on Human Understanding, book III.


Cambridge University Press, Cambridge, 1996.

[12] David Hilbert. Mathematical problems. Bulletin of American Math


Society, 33(4):433–434, 1902.

[13] Godehard Link. One Hundred Years of Russell’s Paradox: Mathematics,


Logic, Philosophy. Walter De Gruyter Inc, City, 2004.

[14] Carl Adam Petri. Kommunikation mit Automaten. Bonn: Institut für
Instrumentelle Mathematik, Schriften des IIM Nr. 2, 1962.

[15] Edsger Wybe Dijkstra. Cooperating sequential processes, technical re-


port ewd-123. Technical report, Department of Mathematics, University
of Eindhoven, 1965.

[16] Vinay Deolalikar. P != NP. In revisione, 2010.


23

[17] John R. Searle. Minds, brains, and programs. Behavioral and Brain
Sciences, 3(03):417–424, 1980.
[18] Paul Churchland & Terence J. Sejnowski. Rappresentazione neurale e
computazione neurale. Sistemi Intelligenti, 1(2):177–212, 1989.
[19] F. Hoppensteadt. Weakly Connected Neural Networks. Springer-Verlag,
Berlin, 1997.
[20] F. Rosenblatt. The perceptron: a probabilistic model for information
storage and organization in the brain. Psychological Review, 65(6):386–
408, 1958.
[21] V. N. Vapnik and A. Ya. Chervonenkis. On the uniform convergence of
relative frequencies of events to their probabilities. Theory of Probability
and its Applications, 16(2):264–280, 1971.
[22] Corinna Cortes and Vladimir Vapnik. Support-vector networks.
Machine Learning, 20:273–297, 1995. 10.1007/BF00994018.
[23] Marcello Frixione. Appunti su reti neurali e connessionismo. Technical
report, Department of Communication Sciences, University of Salerno,
2009.
[24] Geoffrey E. Hinton & Terrence J. Sejnowski. Analyzing cooperative
computation. Technical report, 5th Annual Congress of the Cognitive
Science Society, Rochester, NY, 1983.
[25] Thomas S. Kuhn. The Structure of Scientific Revolutions. University
Of Chicago Press, 1996.
[26] Marcello Frixione. Appunti su reti neurali e connessionismo. Technical
report, Department of Communication Sciences, University of Salerno,
2009.
[27] Alan M. Turing. Computing machinery and intelligence. Mind, 59:433–
460, 1950.
[28] Russell Bertrand. La filosofia dell’atomismo logico. Einaudi, 2003.
[29] Ludwig Wittgenstein. Tractatus Logico-Philosophicus (Routledge
Classics). Routledge, 2001.
[30] John McCarthy. Some philosophical problems from the standpoint of
artificial intelligence. Technical report, Computer science department,
Stanford University, 1969.
24

[31] Douglas R. Hofstadter. Gödel, Escher, Bach. Adelphi, 1979.

[32] Donald Norman. La caffettiera del masochista. Giunti editore, 1990.

[33] Roberto Polillo. Facile da usare. Apogeo, 2010.

[34] Ernst Mach. Beiträge zur Analyse der Empfindungen. G. Fischer, 1886.

[35] J.J. Gibson. The Senses Considered as Perceptual Systems. Boston:


Houghton Mifflin, 1966.

Potrebbero piacerti anche