I modelli di linguaggio di grandi dimensioni (Large Language Model) sono un tipo di modello di intelligenza artificiale che utilizza la PNL per comprendere e generare un linguaggio simile a quello umano.
Quindi sì, possono generare e tradurre contenuti di qualsiasi genere, stile e natura al posto nostro.
Tuttavia, questa rivoluzione richiede un cambio di mentalità da parte dell’utilizzatore e l'adozione di un approccio di sperimentazione e apprendimento per poterci portare ad un miglioramento del nostro lavoro e ad una innovazione in esso.
Fortunatamente questo cambiamento non deve avvenire tutto in una volta. E le aziende devono prendersi il tempo per imparare.
Ridurre lo sviluppo dei LLM all’avvento di GPT-3 è limitativo. GPT-3 è un esempio fulgido dei risultati raggiunti nel campo dei LLM, ma non li rappresenta in tutto e per tutto.
Prima che si arrivasse ai LLM come li conosciamo oggi, si è partiti dallo Statistical language model, a partire dal 1980, un modello secondo il quale è stato possibile aggiungere singole parole per continuare una frase.
Nella letteratura di settore si trova spesso un riferimento a Eliza, un chatbot elaborato nel 1966 da Joseph Weizenbaum. Un esperimento interessante ma lontano dall’essere considerato in grado di leggere e comprendere la conversazione, si limitava a rielaborare le frasi scritte dall’utente per dargli l’impressione che vi fosse una certa logicità nel flusso tra domande e risposte.
Nel 2013 si è finalmente riusciti a trasformare parole in vettori ed essere capaci di rilevare le occorrenze semantiche, modifica che ha poi permesso una comprensione del linguaggio più profonda.
Oggi i modelli linguistici di grandi dimensioni vengono addestrati su enormi quantità di dati di testo, come libri, articoli informazioni dalla rete e altri contenuti basati su contenuti. I dati di addestramento vengono utilizzati per insegnare al modello a riconoscere i modelli e comprendere le sfumature del linguaggio e I diversi contesti del suo utilizzo.
Questi modelli linguistici sono quindi “large” perché al loro interno sono presenti miliardi, e nei sistemi più recenti anche centinaia o migliaia di miliardi, di parametri (equivalemtni delle nostre snapsi). Per esempio, il noto GPT-3 (il sistema che alimenta ChatGPT e che adesso sta venendo sostituito con l’ancor più grande GPT-4) ha 175 miliardi di parametri, mentre MT-NLG di Nvidia e Microsoft arriva a 530 miliardi. Il più grande in assoluto è però WuDao 2.0 dell’Accademia di Pechino per l’intelligenza artificiale, dotato della strabiliante quantità di 1.750 miliardi di parametri.
Le ricerche fatte in questo senso vertono tutte nella stessa direzione: il controllo qualitativo spetta all’uomo.
Un LLM può essere impiegato per sgravare l’uomo da compiti specifici e occorre l’intervento di quest’ultimo per garantirne la bontà.
Ciò si traduce nel fatto che per poter sfruttare appieno il potenziale dell'AI, le aziende devono reinventare i propri modelli di business e rivoluzionare le modalità di lavoro.
Non è pensabile che le aziende non sperimentino nuovi modi per generare valore aziendale tramite AI, ma al tempo stesso devono poter mantenere una redditività stabile.