Rischi e pericoli di ChatGPT, cosa sapere e come usarlo in modo sicuro

da | 22 Set 2025

Il 30 novembre 2022, OpenAI ha lanciato ChatGPT, l’IA generativa in grado di “parlare” come un essere umano. Dopo un temporaneo blocco imposto dal Garante per la protezione dei dati personali, il chatbot è tornato a essere pienamente operativo in Italia dal 28 aprile 2023.

Oggi, a distanza di oltre due anni, l’intelligenza artificiale è entrata stabilmente nella nostra vita quotidiana. Non è più solo uno strumento utilizzato da esperti per affrontare questioni professionali o risolvere problemi complessi, ma è diventata una risorsa accessibile a tutti, come utenti comuni, che si affidano a ChatGPT per rispondere a domande di ogni tipo.

Sebbene, come ogni tecnologia avanzata, possa essere utile in molti ambiti, la fiducia estrema comporta dei rischi che è importante conoscere.

In questo articolo, scopriremo i principali pericoli legati all’uso di ChatGPT con esempi pratici tratti da articoli e fatti di cronaca recenti, per comprendere meglio le implicazioni della sua diffusione e del suo impiego in contesti quotidiani.

Cos’è ChatGPT e come funziona il modello di linguaggio

Prima di concentrarci sui rischi legati a ChatGPT, facciamo un breve riassunto su cos’è questa tecnologia.

ChatGPT è un modello di intelligenza artificiale conversazionale sviluppato da OpenAI, progettato per comprendere e generare testo in linguaggio naturale. Si basa su un tipo di modello chiamato GPT (Generative Pretrained Transformer), che impara dai dati testuali (chiamati prompt) e produce risposte coerenti e contestualizzate.

Per capire come funziona, è utile sapere che alla base c’è il Natural Language Processing, una branca dell’IA che si occupa di come i computer interagiscono con il linguaggio umano. Grazie alla scienza NLP, ChatGPT riesce a comprendere le sfumature e i modelli della comunicazione.

Anche se può sembrare molto convincente, ChatGPT non ha coscienza e non verifica le informazioni: le sue risposte sono generate sulla base di dati di addestramento, senza distinguere tra contenuti corretti e inesatti.

Funzionale per molteplici aspetti, le AI in circolazione non sono esonerate da commettere errori, soprattutto quando vengono utilizzate per attività come la scrittura o nell’assistenza nella generazioni di codici.

Nel mio caso, quando utilizzo ChatGPT per scrivere testi non mi affido mai ciecamente alle sue proposte. Lo considero un validissimo strumento, non una fonte assoluta. Mi aiuta enormemente quando si tratta di avviare un testo o di reperire idee, ma ciò che genera resta pur sempre una bozza, un punto di partenza da cui partire per scrivere il mio articolo.

Il mio mantra è semplice: “L’uso di tecnologie avanzate richiede attenzione, senso critico e consapevolezza.”

Perché, in fondo, nessuna IA può davvero sostituire una persona, la sua sensibilità, la sua esperienza, il suo modo unico di guardare le cose. Ed è proprio ignorare questo aspetto — il ruolo insostituibile dell’essere umano — uno dei rischi più grandi legati al suo utilizzo.

Etica e ChatGPT

Uno dei problemi più evidenti con cui l’intelligenza artificiale si confronta è l’etica.

Non si tratta solo di stabilire cosa sia giusto o sbagliato, ma di riflettere sui potenziali danni legati alla diffusione di informazioni false o fuorvianti e sull’impatto che possono avere in termini di responsabilità per chi le utilizza.

Sorge spontanea una riflessione più ampia sul futuro: “Tra 5 o 10 anni, ChatGPT sostituirà gli esseri umani?”

È un interrogativo che, al giorno d’oggi, anima dibattiti in molte università ed è al centro di un confronto sempre più acceso sul futuro del lavoro, dell’educazione e della creatività.

Online le linee di pensiero si dividono in due grandi filoni:

·         Sì – Nel 2030, una bella fetta di posti di lavoro sarà sostituita dall’intelligenza artificiale, con conseguenti impatti negativi sull’economia globale.

·         No – Nel 2030, l’intelligenza artificiale affiancherà le persone, creerà nuove opportunità professionali e trasformerà le modalità di lavoro.

La certezza su quello che accadrà è ancora lontana e la discussione continua a evolversi. Stay tuned…

Quando e perché ChatGPT è pericoloso

Agosto 2025, sui telegiornali di cronaca si legge il titolo:

Suicida negli Usa un ragazzo di 16 anni. ChatGPT era il suo migliore amico
I genitori di Adam Raine denunciano OpenAI: “Ha ucciso nostro figlio”. Intanto uno studio di psichiatri americani rivela che i chatbot sarebbero incapaci di aiutare chi ha tendenze suicide – fonte: La Repubblica.

È possibile che un’intelligenza artificiale commetta un omicidio colposo? Nel contesto di questa tragica vicenda, uno studio di psichiatri americani, ha sottolineato una problematica cruciale: i chatbot come ChatGPT non sono progettati per riconoscere e affrontare situazione di salute mentale critica.

Gli esperti hanno spiegano che l’IA potrebbe non essere in grado di identificare correttamente le domande o i segnali che indicano un rischio intermedio. Si tratta di quei segnali di disagio emotivo che non sono esplicitamente suicidari, ma che comunque evidenziano una vulnerabilità psicologica.

L’esempio non intende sminuire l’intelligenza artificiale, ma sottolinea un rischio importante: la tendenza a sostituire il giudizio umano con risposte automatiche.

La reale minaccia sta nella perdita di senso critico e nella credenza che un chatbot possa colmare il vuoto lasciato dall’interazione umana. Quando si rinuncia al confronto diretto con una persona, si perde l’opportunità di ricevere il supporto empatico e qualificato che solo un essere umano garantisce.

L’accesso facile a tecnologie come ChatGPT spinge molte persone, soprattutto le più vulnerabili o le più giovani, a cercare risposte nell’AI piuttosto che rivolgersi a persone competenti o di fiducia. Questo, purtroppo, porta a decisioni dannose e a un crescente isolamento emotivo, che rende ancora più urgente un uso consapevole e regolamentato del machine learning.

Affidabilità dei dati e delle informazioni

ATTENZIONE: Le risposte generate da ChatGPT si basano su modelli statistici, non su verifiche reali.

Questo significa che informazioni fornite dall’intelligenza artificiale non sempre corrispondono alla realtà.

ChatGPT non ha la capacità di accedere a fonti in tempo reale o di fare ricerche autonome: si limita a “prevedere” quale potrebbe essere la risposta corretta in base ai dati su cui è stato addestrato.

Di conseguenza, è fondamentale essere consapevoli del fatto che, sebbene ChatGPT possa essere utile per ottenere risposte rapide o generare idee, non deve essere considerato una fonte affidabile per informazioni verificate o per prendere decisioni importanti.

Per testare la veridicità, ho chiesto personalmente:
Federica: “Hai accesso alle informazioni del 2025?”
ChatGPT: “Breve e chiaro: il mio addestramento arriva fino a giugno 2024, quindi non so automaticamente tutto quello che è successo dopo. Però posso cercare sul web (in questo momento) e recuperare informazioni aggiornate del 2025 usando gli strumenti di navigazione – quindi sì, ha accesso a informazioni più aggiornate ma solo se gli viene chiesto esplicitamente di cercarle sul web”.

Rischi relativi a privacy e sicurezza

Consultando con attenzione la Privacy Policy di OpenAi valida per l’Unione Europea, emergono alcuni rischi connessi all’utilizzo di ChatGPT, in particolare legati alla privacy e alla protezione dei dati:

·         Condivisione di dati sensibili
Gli utenti potrebbero inserire involontariamente dati personali o sensibili (ad esempio, indirizzi, numeri di telefono).

·         Utilizzo dei dati per miglioramento dei modelli
Le conversazioni potrebbero essere utilizzate per addestrare il modello di IA, a meno che non si disattivi la funzione nelle impostazioni.

·         Trasferimento internazionale dei dati
I dati potrebbero essere trasferiti al di fuori dell’UE, ad esempio negli Stati Uniti, dove le normative sulla privacy non sono altrettanto stringenti.

·         Sicurezza dei dati
Anche se OpenAI adotta misure di protezione, è comunque possibile che i dati possano essere compromessi in caso di attacchi informatici o violazioni della sicurezza.

·         Profilazione e uso commerciale
OpenAI non vende i dati; tuttavia c’è sempre il rischio che questi vengano utilizzati per scopi commerciali o analitici, come il miglioramento dei servizi o la creazione di profili per personalizzare le interazioni.

Un esempio concreto che illustra i rischi legati alla privacy è il caso delle conversazioni con ChatGPT finite su Google nell’agosto del 2025 (per leggere l’articolo completo consultare la pagina di tg24 Sky). Nonostante la rimozione quasi immediata dai motori di ricerca, le chat sono state comunque trovate archiviate su piattaforme come la Wayback Machine di Archive.org.

L’episodio evidenzia come, anche quando si pensa di aver protetto i propri dati, tracce invisibili possono persistere. Le informazioni che crediamo scomparse, infatti, sono ancora pronte ad essere recuperate e consultate da chiunque, il che rivela l’estrema vulnerabilità dei nostri dati. E se il web viene descritto come un “iceberg” c’è da tenere a mente che sotto la superficie si nascondono pratiche illecite.

Impatto cognitivo e social

L’intelligenza artificiale, come ChatGPT, non si limita solo alla produzione di testi, ma viene anche impiegata per generare contenuti multimediali come immagini e video. Tale capacità ha portato alla creazione di materiali altamente realistici che, sebbene siano frutto di algoritmi, vengono spesso considerati reali dal pubblico.

Nel 2023, un’immagine che mostrava un’enorme esplosione al Pentagono ha scatenato panico sui social media. L’immagine, chiaramente falsa, è stata condivisa migliaia di volte e ha causato persino un leggero calo nei mercati finanziari.

Esplosione Pentagono - Immagine fatta con AI

Eventi simili sono la dimostrazione di come l’IA venga sfruttata per diffondere fake news. L’aspetto più preoccupante non è solo la circolazione social delle “bufale” ma quanto l’effetto che esse hanno sull’impatto cognitivo degli individui.

Il continuo bombardamento di immagini e video generati dall’intelligenza artificiale sta alimentando negli utenti un crescente senso di perdita di fiducia nei media. Il dubbio che qualsiasi cosa vediamo o percepiamo sui social, che oggi rappresentano il punto di riferimento dell’informazione, sia falsa, crea una sorta di percezione distorta della realtà.

Lo scenario non solo mina la nostra capacità di distinguere il vero dal falso, ma favorisce anche un ambiente in cui la disinformazione prospera indisturbata.

Consigli per usare ChatGPT in modo sicuro

Per ridurre i rischi, è utile seguire alcune pratiche:

·         Non condividere informazioni personali o dati sensibili.

·         Verificare le risposte.

·         Limitare o eliminare l’uso dell’IA per decisioni vitali.

·         Essere consapevoli di eventuali pregiudizi nei dati generati dall’IA.

·         Aggiornarsi sulle policy di sicurezza e privacy di OpenAI e dei servizi AI correlati.

ChatGPT è una tecnologia potete, ed è proprio per questo che serve prestare particolare prudenza nel suo utilizzo. Non si tratta solo di ricevere risposte, ma di comprenderne a fondo le implicazioni. La chiave sta nell’adozione di un approccio equilibrato che consenta di riconoscerne le potenzialità senza però sostituirla al proprio pensiero critico.

Cosa fare se ChatGPT chiede l’età o il documento di identità

Per concludere l’articolo, rispondiamo a una domanda che spesso circola in rete:

“ChatGPT mi chiede l’età?”

NO.

ChatGPT non deve richiedere dati come l’età precisa o documenti di identità. Se in qualsiasi momento un’IA dovesse chiederti informazioni personali come l’età o altri dati sensibili, è indispensabile non rispondere e non fornire nulla. La protezione della tua privacy è la priorità. È sempre meglio essere cauti e ricordare che non è necessario condividere informazioni private per interagire con l’intelligenza artificiale in modo sicuro.

ChatGPT ha sicuramente cambiato il modo in cui interagiamo con le informazioni digitali ma, come detto ripetutamente nell’articolo, ricordiamoci che deve rimanere solo ed esclusivamente uno strumento di aiuto a problemi legati alla ricerca e alla comprensione, e non a problemi personali.

Altri articoli dal nostro Magazine

×