Consulenza aziendale, commerciale e marketing
07 Luglio 2025
Le allucinazioni spaventano tutti. Specie quando utilizziamo l’AI per risolvere questioni che sottendono esborsi patrimoniali o rischi legali, tributari o finanziari. La loro completa eliminazione sembra per il momento non possibile, ma possiamo per lo meno tentare di ridurle.
Dall’impostazione dei prompt al controllo della temperatura: esploriamo tecniche e strategie per evitare risposte sbagliate, approssimative o incoerenti dai modelli di intelligenza artificiale. “L’intelligenza artificiale può commettere errori”, lo leggiamo ogniqualvolta utilizziamo l’AI, ma in fondo speriamo non sia vero. Ma gli errori dell’AI non sono un destino inevitabile, a volte dipendono anche da noi, esistono strategie concrete per evitarli, e conoscerle fa la differenza tra una collaborazione efficace e una perdita di tempo.
La prima, e più importante, è la qualità della domanda. “Garbage in, garbage out” dicono gli esperti: se la richiesta è vaga o mal posta, anche la risposta sarà generica o fuorviante. Per questo è utile seguire un metodo per formulare le domande, qualcuno lo abbiamo raccontato in queste pagine (CIAO, sei cappelli, 5 W…) ma il modo migliore è farseli raccontare dall’AI.
Un altro aspetto cruciale è la temperatura. Questo parametro regola il grado di “creatività” del modello: temperature basse (0,2-0,4) producono risposte più precise e aderenti ai dati, mentre temperature alte (1-1,5) aumentano l’originalità ma anche il rischio di “allucinazioni”, ovvero risposte scorrette o inventate. Per testi tecnici o pareri professionali è quindi meglio tenere la temperatura bassa. Alcuni modelli hanno tra le proprie funzioni la regolazione della temperatura (Mistral) in altri basterà ricordarlo al GPT nel prompt.