24 October

Cosa c'entra Michael Faraday con Chat GPT?

Ce lo spiega Simone Natale nel libro Macchine ingannevoli.

Nel 1853 lo scienziato britannico Michael Faraday decide di investigare il fenomeno dello spiritismo.
Secondo la sua analisi, i fenomeni osservati durante le sedute spiritiche sono prodotti dagli stessi partecipanti, che provocano, consciamente o inconsciamente, i movimenti del tavolo spiritico. Egli quindi conclude, che l’origine dello spiritismo non va ricercata tanto negli spiriti quanto nei partecipanti alla seduta – noi umani.

Simone Natale nel suo Macchine Ingannevoli ci invita a spostare l’angolo da cui guardiamo il problema.

Il dibattito pubblico si concentra infatti su scenari futuribili come la creazione di macchine capaci di pensare e provare sentimenti in grado di dominarci, ma il problema su cui è più urgente interrogarsi non è la possibile comparsa di macchine senzienti, quanto la perdita progressiva della nostra facoltà di distinguere gli umani dalle macchine.

Natale ci illustra e ci racconta la storia dell'IA facendo una traiettoria storica dal test di Turing a Siri, Alexa e l'Assistente di Google insegnandoci quanto in ogni media la centralità della banal deception (“inganno banale”) sia fondamentale per comprenderli.

Tutti i media moderni, almeno a partire dal diciannovesimo secolo e dall’emergere della fisiologia, utilizzano forme ‘banalizzate’ di inganno (deception) per raggiungere determinati effetti estetici e pratici. Non dobbiamo infatti pensare al concetto di inganno in senso negativo, ma come una componente funzionale e inseparabile dalla percezione.

Chi usa strumenti come Alexa e Siri mostra di comprendere le distinzioni tra umano e macchina, ma allo stesso tempo adotta comportamenti sociali per ‘dialogare’ con queste tecnologie, in cui a lungo andare, si fondono a ogni fenomeno di interazione.

La voce umana, il genere, e le altre forme di caratterizzazione, su cui molto si è lavorato, hanno l’obiettivo di creare un senso di continuità nella relazione con l’assistente vocale, aiutandoci a integrarlo nel vivere quotidiano e nell’ambiente domestico facendoci dimenticare che stiamo dialogando con una macchina.

L’inganno per l’IA è una componente strutturale, così come i circuiti, il software e i dati che la fanno funzionare, quindi il punto non è di capire se ci sia inganno, ma quale sia l’impatto potenziale in specifiche situazioni e con specifiche tecnologie di un inganno continuato.

L’autore non ci dà una soluzione, ma ci aiuta a ragionare su quanto l’abitudine alla banal deception nel quotidiano potrà influenzare le nostre percezioni su (e interazioni con) robot e computer come attori sociali e quanto questa abitudine si riverserà sul rapporto che abbiamo con le macchine nonché con i nostri simili.

Mettiti in contatto con noi

Vuoi chiederci un preventivo, prendere un appuntamento
o semplicemente saperne di più? Siamo a tua disposizione.
Contattaci