come-un-post-scritto-dall’intelligenza-artificiale-ha-ingannato-tutti

Come un post scritto dall’intelligenza artificiale ha ingannato tutti

Fino a un paio di anni fa l’idea che una macchina o un computer potessero risponderti automaticamente o parlare al tuo posto era possibile vederla o concepirla solo in una delle tante avvincenti scene di un film d’azione futuristico.

In verità, però, è già possibile ed è anche stata già provata pubblicamente quando uno studente universitario ha creato un falso blog usando l’intelligenza artificiale ed è riuscito ad ingannare migliaia di utenti. Alcuni si sono pure iscritti.

Liam Porr, iscritto a informatica all’Università della California a Berkeley, un anno fa ha ottenuto il software GPT-3, il più potente strumento di intelligenza artificiale per la generazione di linguaggio esistente fino a ora, e l’ha usato per creare questo blog.

Doveva essere un esperimento divertente, poi uno dei suoi post ha raggiunto il primo posto su Hacker News, un sito di notizie incentrate su informatica e imprenditorialità. “È stato semplicissimo,in realtà, ed è stata la parte spaventosa”, ha commentato il giovane, intervistato dalla Mit Technology Review.

At the start of the week, Liam Porr had only heard of #GPT3 ( a language generating #AI tool).

By the end of the week, the college student had used the AI model to produce an entirely fake blog under a fake name. People even subscribed to it. ? https://t.co/vsPYJbA3Oj

— Citizen. Coping. (@PropCazhPM) August 18, 2020

GPT-3 è l’ultimo e miglior modello di intelligenza artificiale linguistica sviluppato da OpenAI, un’organizzazione no profit di ricerca con lo scopo di promuovere e sviluppare un’IA amichevole in modo che l’umanità possa trarne beneficio. La versione precedente dell’algoritmo, GPT-2, era stata trattenuta dalla società di ricerca a febbraio dello scorso anno per paura che venisse usata in maniera poco etica. Quest’ultima versione del software, però, è stata rilasciata senza molti scrupoli, con la rassicurazione di non aver rilevato fino ad ora nessuna prova di uso improprio.

Il blog di Liam.

Il modello del GPT-3, però, non è ancora stato concesso al pubblico: la società, da luglio 2020 fino ad ora, ha fornito infatti l’algoritmo in una versione privata ad alcuni ricercatori che ne hanno fatto richiesta con l’obiettivo di raccogliere i loro feedback prima della commercializzazione. Tra i volenterosi, c’era anche Porr. Lo studente, inserito in lista di attesa, non ha aspettato però di essere selezionato dalla società e ha trovato un altro ragazzo, dottorando della Berkeley, che aveva già avuto accesso all’algoritmo.

“Dal momento in cui ho pensato all’idea e sono entrato in contatto con il dottorando fino alla creazione del blog ci sono volute forse un paio d’ore”, ha commentato Porr. Una volta impossessatosi di GPT-3, infatti, il giovane ha fornito all’algoritmo titolo e introduzione per un post sul finto blog: quello stesso post è arrivato al primo posto su Hacker News.

Lo screen da Hacker News.

Per generare contenuti senza la necessità di molte modifiche, Porr ha raccontato di aver dovuto prima comprendere i punti di forza e di debolezza di GPT-3: “È abbastanza bravo con le belle parole, ma non è molto bravo a essere logico e razionale”. Per questo lo studente ha scelto una categoria di blog popolare che non richiedeva una logica rigorosa, come quella di produttività e auto-aiuto.

Per scrivere i titoli ha seguito una semplice formula: ha guardato siti come Medium e Hacker News per capire di cosa si stava parlando in quelle categorie e ha poi messo insieme qualcosa di simile. “Ti senti improduttivo? Forse dovresti smettere di pensare troppo”, ha scritto in uno. E in un altro: “L’audacia e la creatività hanno la meglio sull’intelligenza”.

Il post dell’IA.

In due settimane il sito è stato visitato da più di 26 mila persone e ben 60 utenti si sono iscritti al blog. La truffa è andata avanti, finché Porr ha deciso di sospendere il progetto lasciando un messaggio finale: “Cosa farei con GPT-3 se non avessi etica”. Lo stesso giorno poi ha confessato il tutto sul suo vero blog, raccontando cosa aveva fatto.

La confessione.

Il suo obiettivo era quello di dimostrare che GPT-3 poteva essere spacciato per uno scrittore umano. Nonostante lo schema di scrittura un po’ strano e gli errori occasionali, solo pochi utenti però hanno capito l’inganno. Tre o quattro persone infatti hanno messo in dubbio che il blog potesse essere stato generato da un algoritmo. Ma questi utenti erano stati subito messi a tacere e i loro commenti respinti da altri membri della comunità.

Dopo lo scherzo di Porr molti esperti si sono chiesti se questo algoritmo potrebbe essere utilizzato per sfornare post di spam pieni di parole chiave per Google. Oppure, come ha fatto notare il giovane stesso, le persone potrebbero utilizzare lo strumento per generare molti contenuti clickbait.

Ancora in attesa di ottenere l’accesso OpenAI, Porr prevede di fare più esperimenti con GPT-3. Anche se ammette: “È possibile che siano sconvolti dal fatto che ho fatto”.

Related Posts

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *