background

GPT-3, l’algoritmo che scrive come un essere umano

L’Intelligenza Artificiale è un tema molto caldo in questi ultimi anni. Da qualche tempo, grazie anche alle capacità crescenti degli algoritmi che governano la nostra vita online, molti si chiedono se sia vicino il giorno in cui un robot penserà come un essere umano. Si può dire che il concetto di intelligenza artificiale sia stato inventato dalla fantascienza, ma oggi questa è una realtà con GPT-3: secondo un recente articolo del New York Times, alcuni informatici hanno sviluppato un nuovo tipo di IA che ha la capacità di scrivere come un essere umano, imitando il linguaggio naturale.

Questa breve introduzione non è stata scritta da me, bensì da un software online che ha composto il testo partendo da poche parole di input. Tutto questo è basato sull’ultima frontiera dell’Intelligenza Artificiale (IA), ovvero GPT-3, l’algoritmo che sa scrivere come un essere umano sviluppato da OpenAI nel 2020 e che potrebbe rivoluzionare il mondo della scrittura online. Ma come funziona questa tecnologia apparentemente fantascientifica? Quali sono i suoi utilizzi e i suoi limiti? E chi lavora nel marketing dovrebbe iniziare a preoccuparsi?

L’algoritmo

GPT-3 sta per Generative Pre-training Transformer 3 ed è un algoritmo basato sul deep learning in grado di generare testi, codici e immagini dopo aver immagazzinato una grande mole di dati. Infatti OpenAI, azienda di ricerca sull’IA fondata da Sam Altman e Elon Musk, ha “addestrato” questo algoritmo con testi delle più varie fonti digitali, da Wikipedia al New York Times e Reddit, raggiungendo l’esorbitante mole di 175 miliardi di parametri (contro gli “appena” 1,5 miliardi del suo predecessore, GPT-2, creato appena l’anno prima) e portando questa nuova versione dell’algoritmo ad un livello di performance nettamente superiore al passato.

In questo, GPT-3 può essere considerato un grande passo avanti nel campo del Natural Language Processing, la branca dell’informatica e della linguistica che studia le interazioni fra umani e computer e punta a programmare i dispositivi per riconoscere, analizzare e riutilizzare dati scritti in linguaggio naturale (ovvero il nostro). Infatti, l’algoritmo è stato sottoposto ad un’immensa mole di testi scritti da esseri umani in modo che potesse memorizzare nozioni, concetti, regole sintattiche ma anche elementi più sottili che rendono la scrittura “umana”. E la sua immensa potenza di calcolo fa sì che GPT-3, a partire da un input anche di poche parole, generi testi molto fluidi e quindi facilmente confondibili con quelli prodotti da persone reali.

Il mondo del copywriting

La creazione di testi per il marketing è uno dei primi casi di uso su larga scala di questa tecnologia, con molte aziende come ContentEdge o Jasper che hanno adattato GPT-3 per creare contenuti come post di blog, titoli e comunicati stampa in ottica SEO e riuscire a posizionarli fra i primi risultati di ricerca di Google.

I testi generati automaticamente non godono di buona fama in rete, perché le versioni più rudimentali di questa tecnologia sono spesso state legate alle attività di spammer e bot o comunque per manipolare il ranking di ricerca di Google. Tuttavia, come sostiene Peter Welinder, vicepresidente di OpenAI, strumenti più sofisticati non dovrebbero danneggiare il ranking se usati in maniera costruttiva, ovvero per smussare i difetti e le falsità presenti in un testo. Inoltre, i recenti aggiornamenti renderebbero l’algoritmo più veritiero.

Ma siamo ancora lungi dal poter considerare superati i lavori come il copywriter. Almeno per il momento, questo strumento può essere considerato un complemento più che un sostituto del lavoratore umano, permettendogli di delegare all’algoritmo il più del lavoro e poi andando a rifinire e arricchire il testo, anche a causa dei limiti che la tecnologia ancora oggi presenta.

I limiti

Nonostante l’enorme crescita nella capacità di immagazzinare dati, infatti, GPT-3 e GPT-2 hanno in comune problemi legati al ragionamento e alla complessità.

Alcuni test effettuati dal MIT Technology Review hanno infatti notato che l’algoritmo, sebbene non abbia alcun problema a produrre “segmenti linguistici grammaticalmente corretti e di senso compiuto”, riscontra alcune difficoltà di semantica, faticando a seguire le sfumature di situazioni più complesse. Famoso è l’esempio che vede GPT-3 cercare di risolvere il problema di trasportare un tavolo attraverso una porta troppo stretta, rispondendo che basta “rimuovere la porta.”

Il problema ancora irrisolto è dovuto al fatto che l’algoritmo ha analizzato soltanto testi e non la psicologia o i riferimenti culturali di scrittori e lettori, portandolo ad avere una comprensione solo superficiale delle situazioni della vita quotidiana. Ma questo, dicono gli esperti, è solo un limite temporaneo, mentre ben presto la tecnologia potrebbe arrivare a essere indistinguibile dal lavoro umano, con importanti risvolti per la nostra società.

Le conseguenze

La conseguenza forse più immediata sarà la proliferazione dei contenuti. Con un algoritmo che può produrre in pochi istanti e in massa testi di buona fattura, gli autori potranno avvalersi di un aiuto sostanziale nel creare un testo mentre i fruitori dovranno abituarsi a non sapere quanto di ciò che leggono sia stato scritto da una macchina.

La prima preoccupazione degli esperti è che una volta che questi strumenti saranno disponibili su larga scala, la diffusione di testi creati dall’IA aumenterà esponenzialmente, portando ad un’immensa mole di testi pubblicati ovunque e ad un aggravarsi dell’infodemia. Se infatti già oggi la “circolazione di una quantità eccessiva di informazioni […] rende difficile orientarsi su un determinato argomento per la difficoltà di individuare fonti affidabili”[1], è chiaro che la possibilità di premere un tasto e ottenere un testo ad hoc per le proprie esigenze non farà che ingigantire questo problema.

L’altro grande timore è legato al contenuto dei testi creati dall’algoritmo. GPT-3 infatti potrebbe ripetere il linguaggio tossico contenuto nei testi che gli sono stati forniti per allenarsi. E nonostante OpenAI sostenga di aver migliorato le sue condizioni d’uso e il suo sistema di filtraggio, quando la tecnologia diventerà di uso comune la quantità di testi da monitorare potrebbe diventare eccessiva. Inoltre, la stessa OpenAI è preoccupata dalla diffusione in massa di contenuti polarizzanti a fini politici, e l’emergere della concorrenza significa che in futuro sarà sempre più facile aggirare le regole di comportamento. Con un possibile aumento di fake news e disinformazione ad ogni livello, la produzione automatica di testi potrebbe generare ancora più polarizzazione delle opinioni e diffusione di echo chamber, dato che gli algoritmi saranno sempre più bravi a creare testi su misura per determinati target demografici.

È quindi chiaro che, come tutte le tecnologie rivoluzionarie, anche l’effetto di GPT-3 dipenderà dal nostro approccio ad esso. Sarà necessario un lavoro congiunto di individui e istituzioni per creare da un lato cittadini più informati e critici dei contenuti digitali e dall’altro nuove regole e sistemi di attribuzione di responsabilità per la produzione di testi automatici.


Condividi il post

  • L'Autore

    Davide Bertot

    IT

    Davide Bertot, torinese classe 2000, è un ragazzo fortemente interessato alle relazioni internazionali, alla politica e all'attualità. Attualmente studente di laurea triennale in International Relations and Diplomatic Affairs presso l'Università di Bologna, collabora con Mondo Internazionale come Caporedattore per l'area tematica Tecnologia e Innovazione, in particolare in ambito economico, contribuisce come autore e revisore per altre associazioni ed è volontario presso Volt Torino. Ragazzo intraprendente, pragmatico, curioso e sempre pronto ad imparare, spera un giorno di poter lavorare nelle istituzioni europee e dare il suo contributo per il miglioramento della società. Studia e lavora con la politica e l'attualità perché crede nella capacità delle persone di avere un impatto e nella necessità di parlare dei problemi e lavorare insieme per risolverli.

    EN

    Davide Bertot, born in Turin in 2000, is a boy strongly interested in the field of international relations, politics and current affairs. Currently an undergraduate student of International Relations and Diplomatic Affairs at the University of Bologna, he works with Mondo Internazionale as Chief Editor for the section Technology and Innovation, in particular of economic matters, gives his contribution as writer and editor for other associations, and volunteers at Volt Torino. Resourceful, pragmatic, curious, and a fast-learner, he hopes one day to work in the European institutions and do his part to improve our society. He studies and works with politics and current affairs because he believes in the people's capacity to have an impact and in the need to acknowledge problems and work together to fix them.

Categorie

Temi Tecnologia ed Innovazione


Tag

intelligenza artificiale AI Artificial Intelligence IA GPT-3 GPT-2 OpenAI algoritmo machine learning deep learning Natural Language Processing informatica linguistica computer linguaggio umano essere umano input testo codice scrittura automatica marketing copywriting Internet Online ContentEdge Jasper SEO Google bot spam ranking limiti complessità ragionamento proliferazione contenuti digitali infodemia hate speech Fake News disinformazione polarizzazione Politica echo chamber regolamentazione responsabilità Tecnologia tech Tecnologia e Innovazione Technology and Innovation T&I

Potrebbero interessarti

Image

Intelligenza artificiale: UE tenta di raggiungere il primato globale

Valeria Lavano
Image

Tecnologia e riservatezza. Il GDPR

Redazione
Image

La stagione dei referendum

Federico Quagliarini
Accedi al tuo account di Mondo Internazionale
Password dimenticata? Recuperala qui