L’intelligenza artificiale può far paura ai giornalisti? Il caso GPT-3

Può un’intelligenza artificiale prendere il posto di una persona non soltanto nel lavoro meccanico o nell’ambito della ricerca scientifica ma anche in quello creativo? Sembra la premessa di un romanzo ambientato nel futuro, una storia alla Isaac Asimov per intenderci, invece è la realtà del progetto GPT-3 di OpenAI, no profit finanziata, tra gli altri, dalla Microsoft e da Reid Hoffman, cofondatore di LinkedIn. GPT-3 un vero e proprio ‘robot’ capace non solo di produrre un testo ma anche di argomentarlo partendo da un input umano. E che potrebbe, se non oggi nelle sue future versioni, costringere chi scrive per professione a una convivenza decisamente particolare.

Cos’è GPT-3 di OpenAI

La sigla GPT-3 sta per Generative Pretrained Transformer di terza generazione. Per transformer si intende un modello linguistico automatico pensato per creare sequenze di parole, codice o altri dati partendo da un input umano. Si tratta di una tecnica introdotta da Google nel 2017, usata nella traduzione automatica per prevedere sequenze di parole in base a precisi parametri.

Il primo GPT di OpenAI risale al 2018: utilizzava 110 milioni di parametri di apprendimento. Una cifra che impallidisce di fronte al GPT-2 del 2019, che utilizzava 1,5 miliardi di parametri, e soprattutto al GPT-3 del 2020, che arriva ad esaminarne 175 miliardi. Circa 117 volte in più rispetto a dodici mesi prima.

L’esperimento del Guardian

I risultati sembrano già sorprendenti: interessante, in questo senso, è un articolo di giornale apparso sul portale online del Guardian, scritto interamente da GPT-3. L’intelligenza artificiale, cui è stato “chiesto” di convincere il lettore che i robot “vengono in pace”, lo ha fatto con un testo in inglese di circa mille parole (6mila caratteri) che, senza conoscere l’autore, non si direbbe mai scritto da una realtà virtuale.

Non mancano le perplessità

Prepensionamento per tutti i giornalisti, quindi? Non proprio. La possibilità che un’intelligenza artificiale possa già prendere totalmente il posto dell’uomo resta remota se non fantascientifica. Se i risultati sono straordinari, va anche ricordato che l’input parte inevitabilmente dall’uomo che, di fatto, ‘assegna un compito’. Inoltre, è fondamentale ricordare come il lavoro di GPT-3 unisca sintassi e statistica, senza però prendere in considerazione la semantica. In poche parole, il transformer non comprende il significato di ciò che scrive.

Non è un caso che Gary Marcus, co-fondatore di Robust.AI, abbia duramente criticato il Guardian accusandolo di voler “accalappiare” il lettore con un articolo presentato come scritto da un’intelligenza artificiale ma in realtà riveduto e corretto da un uomo.

Sostituire l’uomo nella scrittura creativa, insomma, sembra ancora una prospettiva lontana. La tecnologia, però, viaggia sempre più velocemente e chissà che le prossime generazioni del transformer non possano davvero essere una minaccia concreta per chi fa della scrittura la sua professione.

Impostazioni privacy