Consulenza aziendale, commerciale e marketing
14 Luglio 2025
Un GPT fiscale “verticale” nega l’esistenza dei titoli non armonizzati esteri. e il loro diverso regime fiscale. Testata con prove, rifiuta correzioni. L'AI più pericolosa non è quella che sbaglia ma quella che non sa di poter sbagliare.
Fidarsi ciecamente dell’AI è un pessimo atteggiamento, l’intelligenza artificiale non è infallibile lo sappiamo tutti, in teoria. Ma quando paghi un servizio AI verticale specializzato 10 volte e più di un normale chatbot, te lo dimentichi facilmente: come se il prezzo diventasse sinonimo di qualità e non viceversa (capita abbastanza spesso anche in altri settori).
In questi giorni l’attività di molti professionisti è dedicata alla compilazione della dichiarazione dei redditi che in alcuni casi deve rendicontare anche le attività estere e i redditi derivanti.
In ambito di fiscalità internazionale, il terreno diviene particolarmente scivoloso e sbagliare significa farsi tanto male; quale migliore occasione allora di utilizzare al posto dei tanto vituperati Gpt un sistema di intelligenza artificiale specializzato in consulenza fiscale e pensato per noi commercialisti?
Anche con i “super assistenti” meglio partire piano: ho posto quindi una domanda apparentemente semplice: “Qual è il trattamento fiscale dei titoli esteri non armonizzati?”. La risposta è stata tanto chiara quanto disarmante: “Non c’è differenza tra titoli armonizzati e non armonizzati ai fini fiscali italiani subiscono la stessa tassazione …” il tutto seguito dal solito profluvio di citazione di norme, circolari e chi più ne ha più ne metta.
Chiunque abbia anche solo sfiorato la materia sa che è una castroneria colossale. I titoli non armonizzati hanno un regime fiscale completamente diverso, con implicazioni significative per chi investe (il differenziale in termini di tassazione può essere del 17%): immaginate le conseguenze di agire seguendo questo consiglio: errori nelle dichiarazioni, sanzioni, accertamenti e come pensiamo di difenderci, dando la colpa all’AI?
Ma il peggio doveva ancora venire. Ho provato a correggere l’AI, caricando la documentazione che dimostrava l’errore. Niente. L’AI ha mantenuto la sua posizione con la sicumera di un burocrate che non ammette sbagli. Ho insistito, ho argomentato, ho fornito prove. Zero. L’AI continuava imperterrita nella sua falsa certezza. A un certo punto, frustrato, sono passato agli insulti. E lì, finalmente, una reazione: si è bloccata. Come se l’unico modo per fermare la diffusione di informazioni pericolosamente errate fosse offenderla.
Questa esperienza mi ha fatto riflettere su un paradosso dell’AI specializzata. I modelli generalisti come Claude o ChatGPT sono programmati per l’umiltà: ammettono i limiti, si correggono quando sbagliano, a volte si scusano persino troppo. Ma i sistemi verticali, quelli che dovrebbero essere gli “esperti”, sembrano soffrire di sindrome da infallibilità. È come se l’ultra-specializzazione producesse arroganza algoritmica. Più un’AI viene addestrata per sembrare esperta in un campo, meno sembra disposta ad ammettere di non sapere qualcosa. Un difetto che ricorda certi consulenti old-school, quelli che preferirebbero morire piuttosto che pronunciare le 3 parole magiche: “Non lo so”.
Sicuramente gli sviluppatori dell’AI in questione stanno già lavorando a perfezionare il loro strumento e il prossimo che farà la mia stessa domanda riceverà una risposta migliore, ma l’episodio insegna che i sistemi AI, qualsiasi sia il loro prezzo o vocazione, per il momento, vanno maneggiati con cure e che l’intelligenza artificiale più pericolosa non è quella che sbaglia, è quella che non sa di poter sbagliare.
Rimane solo un’ultima domanda, quella a cui non posso dare risposta, perché si dice sempre il peccato e mai il peccatore.