Ce lo spiega Simone Natale nel libro Macchine ingannevoli.
Nel 1853 lo scienziato britannico Michael Faraday decide di investigare il fenomeno dello spiritismo.
Secondo la sua analisi, i fenomeni osservati durante le sedute spiritiche sono prodotti dagli stessi partecipanti, che provocano, consciamente o inconsciamente, i movimenti del tavolo spiritico. Egli quindi conclude, che l’origine dello spiritismo non va ricercata tanto negli spiriti quanto nei partecipanti alla seduta – noi umani.
Simone Natale nel suo Macchine Ingannevoli ci invita a spostare l’angolo da cui guardiamo il problema.
Il dibattito pubblico si concentra infatti su scenari futuribili come la creazione di macchine capaci di pensare e provare sentimenti in grado di dominarci, ma il problema su cui è più urgente interrogarsi non è la possibile comparsa di macchine senzienti, quanto la perdita progressiva della nostra facoltà di distinguere gli umani dalle macchine.
Natale ci illustra e ci racconta la storia dell'IA facendo una traiettoria storica dal test di Turing a Siri, Alexa e l'Assistente di Google insegnandoci quanto in ogni media la centralità della banal deception (“inganno banale”) sia fondamentale per comprenderli.
Tutti i media moderni, almeno a partire dal diciannovesimo secolo e dall’emergere della fisiologia, utilizzano forme ‘banalizzate’ di inganno (deception) per raggiungere determinati effetti estetici e pratici. Non dobbiamo infatti pensare al concetto di inganno in senso negativo, ma come una componente funzionale e inseparabile dalla percezione.
Chi usa strumenti come Alexa e Siri mostra di comprendere le distinzioni tra umano e macchina, ma allo stesso tempo adotta comportamenti sociali per ‘dialogare’ con queste tecnologie, in cui a lungo andare, si fondono a ogni fenomeno di interazione.
La voce umana, il genere, e le altre forme di caratterizzazione, su cui molto si è lavorato, hanno l’obiettivo di creare un senso di continuità nella relazione con l’assistente vocale, aiutandoci a integrarlo nel vivere quotidiano e nell’ambiente domestico facendoci dimenticare che stiamo dialogando con una macchina.
L’inganno per l’IA è una componente strutturale, così come i circuiti, il software e i dati che la fanno funzionare, quindi il punto non è di capire se ci sia inganno, ma quale sia l’impatto potenziale in specifiche situazioni e con specifiche tecnologie di un inganno continuato.
L’autore non ci dà una soluzione, ma ci aiuta a ragionare su quanto l’abitudine alla banal deception nel quotidiano potrà influenzare le nostre percezioni su (e interazioni con) robot e computer come attori sociali e quanto questa abitudine si riverserà sul rapporto che abbiamo con le macchine nonché con i nostri simili.