ChatGpt, la frontiera dell’intelligenza artificiale tra potenziale e lato oscuro

Allenato per rispondere a qualsiasi domanda: ChatGpt è un nuovo modello conversazionale basato sulle IA. Il rischio è di produrre disinformazione.

Questa volta ci siamo, non è un’esercitazione. Sono arrivate le intelligenze artificiali. Nelle ultime settimane sempre più persone hanno scoperto il potenziale del modello Gpt-3, alla base del funzionamento di sistemi come Dall-E e ChatGpt, servizi prodotti dalla startup OpenAI. E poi Stable diffusion e MidJourney AI, più accessibili e aperti al pubblico, le cui capacità di generare immagini sulla base di descrizioni scritte ha stupito i più.

Cos’è ChatGpt, novità nelle IA, intelligenze artificiali

ChatGpt è un caso particolare. Il momento in cui è stato rilasciato al pubblico rappresenterebbe “il momento iPhone del settore IA”, l’evento grazie al quale il pubblico di massa si rende conto di quello che gli riserverà il futuro secondo Bloomberg. Ma è davvero così? Come si intuisce dal nome, ChatGpt si presenta all’utente come una semplice chat con cui è possibile comunicare con Gpt-3, un modello linguistico che esiste dal 2020 ed è stato modificato in chiave conversazionale. Per anni, OpenAI ha “allenato” Gpt-3 con enormi archivi di testo presi dal web, Wikipedia, giornali, riviste e libri, ma anche dai social media, in modo da insegnare alla macchina come gli umani comunicano. Per farlo, è stato programmato per rompere ogni testo e frase in unità di testo base (dette “token”), da analizzare poi singolarmente.

IA chatgpt
L’intelligenza artificiale è stata allenata a capire come gli umani comunicano © iStockphoto

Per creare un modello funzionante e strabiliante come quelli in questione, però, serve potenza computazionale. Tanta. Secondo alcuni dati citati dal podcast del sito The Verge, OpenAI brucerebbe tre milioni di dollari al giorno per rispondere alle richieste degli utenti. Tutti quegli screenshot che abbiamo visto negli ultimi giorni, in cui gli utenti chiedono assurdità a ChatGpt? Sono costati un patrimonio all’azienda, che da tempo riceve (e spende piuttosto velocemente) investimenti dai principali venture capitalist e imprenditori della Silicon Valley – Reed Hastings di Netflix, l’onnipresente Elon Musk e Microsoft in primis. Spese a parte, il risultato ha contribuito a confermare le IA come la next big thing, dopo un paio d’anni passati a inseguire i fantasmi del crypto. Le applicazioni di questo tipo di tecnologie sono potenzialmente molte ed è ancora presto per avventurarsi in previsioni: c’è chi giura che un servizio simile potrà sostituire Google e i motori di ricerca, ad esempio. L’idea è la seguente: siccome ChatGpt riesce a rispondere a qualsiasi domanda, perché in futuro dovremmo usare Google come facciamo da ormai vent’anni? La risposta sembra chiara se per un attimo non prendiamo in considerazione il fatto che IA simili danno spesso risposte balzane e non corrette, pur mantenendo un tono e uno stile molto autorevole. La funzione di ChatGpt è quella di creare testo credibile, non diventare un oracolo a cui affidare la propria vita. Per quello, credo, bisogna aspettare Gpt-4, chissà.

chat IA
Questa tecnologia potrebbe favorire la diffusione di propaganda e disinformazione © iStockphoto

Il lato oscuro dell’intelligenza artificiale

È probabile che in questi giorni abbiate letto o visto contenuti che erano stati scritti o creati da un’intelligenza artificiale. Nella maggioranza dei casi a farlo è stato uno dei servizi di OpenAI, una startup fondata nel 2015 da Sam Altman e altri, con investimenti dal fondatore di Netflix Reed Hastings a Elon Musk, ma anche Microsoft. Al centro delle discussioni recenti c’è ChatGpt, una IA che funziona appunto come una chat a cui fare qualsiasi tipo di domanda, ricevendo risposte sempre piuttosto credibili. La chat sa comporre poesie, imitare scrittori e dare risposte a domande creative. Obbedisce ai comandi, e lo fa bene. Ciò vuol dire che sa anche produrre disinformazione con estrema velocità ed efficacia; basta chiederglielo. Certo, OpenAI ha messo dei paletti ai temi trattati dalla chat ma aggirarli non è difficile. Il potenziale che la tecnologia può avere per propaganda e fake news è enorme, lo ha ammesso il Ceo Altman stesso, che ha confessato che ChatGpt è in grado di creare “contenuti in grado di dare un’erronea percezione di qualità”. Immaginate un bottone con cui generare teorie cospiratorie e disinformazione, in massa, in pochi secondi. Ecco, ormai ci siamo. ChatGpt è un momento chiave per il settore delle IA di cui rappresenta il lato oscuro.

Siamo anche su WhatsApp. Segui il canale ufficiale LifeGate per restare aggiornata, aggiornato sulle ultime notizie e sulle nostre attività.

Licenza Creative Commons
Quest'opera è distribuita con Licenza Creative Commons Attribuzione - Non commerciale - Non opere derivate 4.0 Internazionale.

Articoli correlati