Consulenza aziendale, commerciale e marketing
11 Giugno 2025
I GPT “uncensored” si stanno diffondendo rapidamente. Ma cosa succede se cadono nelle mani sbagliate? L’assenza di filtri etici e di sicurezza potrebbe trasformare una tecnologia straordinaria in un rischio concreto per tutti.
Se da un lato l’evoluzione dei modelli linguistici come ChatGPT ha rappresentato un salto in avanti straordinario in termini di produttività, efficienza e accessibilità alla conoscenza, dall’altro non possiamo ignorare un fenomeno emergente che inizia a destare non poche preoccupazioni: la diffusione dei cosiddetti GPT “uncensored”.
Per intenderci: con il termine “uncensored” si fa riferimento a quei GPTS che, pur essendo creati con la stessa tecnologia dei modelli ufficiali, vengono deliberatamente privati dei filtri etici, di sicurezza e delle limitazioni integrate. Non si tratta di modelli diversi, ma di veri e propri GPTS personalizzati che qualsiasi utente può creare e in cui qualsiasi altro utente (anche con account gratuito) può imbattersi. In pratica, chatbot capaci di rispondere a qualsiasi domanda, senza “farsi problemi”. Nessun rifiuto se la richiesta è inappropriata. Nessun avviso di pericolo. Nessuna barriera.
Ed è qui che iniziano i rischi.
Un GPT privo di freni, nelle mani sbagliate, può diventare uno strumento pericoloso. Può generare istruzioni su come realizzare armi, diffondere fake news in modo automatico e supportare truffe anche fiscali, amplificare contenuti d’odio, discriminazioni o incitazioni alla violenza.