Elenco scorciatoie

L'interazione uomo-macchina
Questioni di epistemologia, ontologia ed etica applicata

Nell’accogliere i partecipanti al XXI Congresso della Società Filosofica Italiana del 1967, Francesco Barone, allora segretario della sezione pisana della SFI, osservò che “il tema del Congresso, con la sua insistenza sulla tecnica, sulle macchine, e in particolare su quelle che comunemente si indicano come ‘macchine pensanti’ può essere apparso ad alcuni come troppo ristretto per attingere a un’autentica universalità filosofica”. Ma Barone esortava i convenuti a fugare ogni dubbio di questo genere: “Sarà compito dei lavori stessi smentire una simile eventuale impressione”. Ed infatti la smentita non tardò ad arrivare, come testimoniano gli Atti del XXI Congresso, con interventi che toccano le principali discipline filosofiche, dall’epistemologia generale alla metodologia scientifica, dall’ontologia alla filosofia morale. Oggi come allora è ampio lo spettro di problemi filosofici suscitati dalle macchine studiate in settori come la robotica, l’intelligenza artificiale e la bionica - macchine che sono dotate di capacità di elaborazione simbolica o di coordinamento senso-motorio.
Sede del MIT

La sede del Massachusetts Institution of Technology

Vi sono nuove problematiche di etica applicata, relative ai temi della responsabilità individuale e collettiva, della dignità e dei diritti fondamentali delle persone, suscitate dagli attuali sviluppi dell’interazione uomomacchina. Vi sono problemi ontologici relativi all’identità personale che riguardano gli interventi bionici volti a recuperare o potenziare le capacità sensomotorie e cognitive degli esseri umani. E vi sono problemi di epistemologia generale, che riguardano la nostra limitata capacità di prevedere il comportamento di robot e di agenti software dell’intelligenza artificiale.

Un progetto di ricerca che consente di illustrare prontamente alcune problematiche di etica applicata riguarda un agente software che svolge il ruolo di “assistente istruttore” per l’e-learning.
Il progetto, in corso presso il Media Laboratory del MIT (http://affect.media.mit.edu), prevede l’utilizzazione di tecniche proprie della cosiddetta computazione emotiva (affective computing).
Il sistema avrà accesso a vari indizi dello stato emotivo degli utenti, elaborati a partire sia da dati biometrici correlabili a risposte emotive (sudorazione, dilatazione delle pupille e così via), sia dall’esame di gesti, postura e altri comportamenti manifesti dei soggetti (come la pressione esercitata istante per istante sul mouse del calcolatore).
Il sistema valuterà questo complesso di informazioni per scoprire se un soggetto è interessato all’argomento di studio, se si sta distraendo, se è scoraggiato per gli errori commessi oppure è soddisfatto per i progressi compiuti. In base a tali supposizioni, il sistema sceglierà una forma di interazione con il proprio utente che sia contestualmente appropriata a facilitare il processo di apprendimento.
Non si può escludere che un tale sistema, una volta sviluppato, sia dolosamente utilizzato all’insaputa degli utenti, con la finalità di raccoglierne un profilo emotivo e di sfruttare a fini commerciali le risposte emotive indotte in base alle informazioni raccolte.
È dunque opportuno chiedersi in quali circostanze d’uso la raccolta e l’elaborazione di dati personali da parte di un tale assistente educatore sia legittima ovvero si configuri come una minaccia per la dignità degli utenti, portando a una violazione del loro diritto alla sicurezza, alla riservatezza (privacy) e all’autonomia.
E bisogna ovviamente chiedersi, in relazione alla dignità dei discenti, quali siano i costi e i benefici derivanti dall’utilizzazione delle tecniche di computazione emotiva.

Questi problemi di etica applicata, che riguardano i diritti delle persone, sono strettamente collegati ai problemi ontologici dell’identità personale: Che cosa distingue una persona da altri tipi di entità? Come si conserva l’identità personale nel tempo? Gli studi condotti nel settore della bionica ci spingono ad affrontare casi particolari di queste domande, soprattutto in relazione alle cosiddette interfacce cervello-macchina.

Vi sono interfacce tra il cervello umano e una macchina che consentono di leggere e utilizzare i segnali neurali associati all’attività cognitiva per controllare un arto artificiale o la traiettoria di una piattaforma robotica mobile.
E vi sono interfacce cervello-macchina che, convogliando segnali verso il sistema nervoso centrale o periferico di un essere umano, ne modificano significativamente l’attività, come avviene nel caso delle interfacce usate per il controllo del tremore in soggetti affetti dal morbo di Parkinson.
Queste ricerche bioniche si propongono soprattutto di ripristinare o di vicariare funzioni senso- motorie perdute, ma aprono la strada al potenziamento di apparati senso-motori e cognitivi che funzionano regolarmente.
È opportuno chiedersi se sia nella nostra disponibilità modificare la nostra dotazione “naturale” di capacità senso-motorie e cognitive attraverso interventi bionici. Una risposta positiva a tale quesito suscita a sua volta domande sulla persistenza dell’identità personale, prima e dopo l’intervento bionico.
Più specificamente: una modifica delle funzioni mentali, sensoriali o motorie resa possibile dai sistemi bionici può indurre una modifica dell’identità personale? Il dibattito filosofico contemporaneo sulle condizioni psicologiche o fisiche di persistenza dell’identità personale fornisce strumenti concettualmente rilevanti per affrontare questi problemi ontologici.
Ed è evidente il loro interesse pratico, insieme etico e giuridico: l’attribuzione di responsabilità morale ed oggettiva per un’azione eseguita in passato richiede infatti la persistenza dell’identità personale.

Alan Turing

Alan Turing

I problemi di comprensione e prevedibilità degli esiti di un intervento bionico rivelano un aspetto particolare della nostra limitata capacità di prevedere il comportamento delle macchine della robotica e dell’intelligenza artificiale.
Tali limitazioni previsionali furono principalmente discusse, durante il congresso della SFI del 1967, in relazione alla formulazione generale dei teoremi di indecidibilità algoritmica, scoperti da Alan Turing e da Alonzo Church nel 1936.
Nuovi spunti per la riflessione epistemologica provengono da studi più recenti nel campo dell’apprendimento automatico.
Le interfacce bioniche cervello-macchina, alle quali è stato accennato, richiedono un processo di addestramento per classificare e riconoscere i segnali neurali associati all’attività cognitiva di un essere umano. E l’apprendimento automatico è importante per raggiungere gli obiettivi della robotica di servizio e personale. Non si può realisticamente pensare di fornire a un robot una specifica sufficientemente dettagliata di ciò che esso deve fare o aspettarsi di incontrare negli spazi non rigidamente definiti e controllati di una casa, di un ufficio o di altri ambienti nei quali si svolge la nostra vita quotidiana.
Per questo motivo, un robot che sia abbastanza autonomo e adattabile per assistere, diciamo, un anziano nel suo appartamento, deve essere un robot capace di apprendere dall’esperienza. Ma questa esigenza deve confrontarsi con il fatto che i metodi di apprendimento automatico non sempre consentono di appurare se il robot abbia veramente imparato (o anche solo approssimato in modo soddisfacente) ciò che vogliamo insegnargli. Nel complesso, i problemi di valutazione dei risultati ottenuti nei processi di apprendimento automatico non sono molto diversi dai problemi che riguardano la giustificazione dell’induzione come metodo per l’indagine scientifica o per la didattica.
La riflessione epistemologica sull’apprendimento automatico si inquadra dunque in una problematica più generale, che i filosofi hanno affrontato fin dall’antichità classica in relazione alla tradizione scettica, ma che anima in forme più strettamente legate alla pratica scientifica anche la filosofia della scienza contemporanea.

La riflessione epistemologica sulla prevedibilità dei comportamenti di sistemi robotici trova ulteriori spunti fecondi nell’ambito dei metodi formali di verifica del software. Gli studi in questo settore nascono dall’esigenza di verificare se ogni esecuzione di un determinato programma per calcolatore soddisfa alcuni requisiti fondamentali.
Più recentemente, queste metodologie sono state estese al problema di specificare e verificare le proprietà di sistemi, generalmente detti “ibridi”, che comprendono varie tipologie di sistemi robotici.
Alcuni risultati limitativi che sono stati ottenuti a proposito dei sistemi ibridi indicano che, in generale, non è possibile verificare con queste metodologie se un sistema robotico soddisfi o non soddisfi determinati vincoli spaziali o temporali nell’esecuzione di un dato compito.

Quali sono le implicazioni pratiche delle riflessioni epistemologiche sulla nostra limitata capacità di prevedere il comportamento delle macchine?
Consideriamo il caso delle macchine che apprendono. Poiché il produttore o il programmatore di un sistema che apprende non è in grado di prevederne precisamente il comportamento, anche nelle condizioni normali d’uso, è particolarmente importante sottoporre l’impiego di un tale sistema a un’analisi comparativa di costi e di benefici.
E in questo contesto decisionale bisogna prendere in esame caratteristici problemi di filosofia morale.
Come si devono valutare i benefici e i rischi derivanti dall’impiego di robot che apprendono in base a una concezione etica che giudica il valore di ogni singola azione in relazione all’obiettivo di massimizzare la felicità o il benessere della società?
E come dobbiamo affrontare la casistica dei robot che apprendono secondo una concezione etica che, indipendentemente da un’analisi di costi e benefici, impone alcuni divieti assoluti (come, per esempio, il divieto di uccidere l’innocente)?
Più concretamente, come dobbiamo interpretare, in relazione a queste due diverse concezioni, l’impiego di un robot-soldato, possibile versione aggiornata del robot-mitragliatore recentemente dispiegato nel conflitto iracheno, che non sappia ben distinguere un nemico da un astante?
Con queste domande, motivate da problemi teorici di carattere epistemologico ed ontologico, si torna alla dimensione etica, dalla quale eravamo partiti per illustrare gli attuali interessi filosofici per le macchine della robotica, della bionica e dell’intelligenza artificiale.

Guglielmo Tamburrini
docente di Logica e filosofia della scienza
Università di Napoli "Federico II"

tamburrini@na.infn.it