Il paradosso che sta emergendo nel panorama tecnologico del 2026 mette in discussione uno dei presupposti fondamentali dell’informatica moderna, ovvero che l’aumento della potenza di calcolo porti necessariamente a una maggiore precisione.
I dati preliminari del rapporto Wiley sull’impatto dell’Intelligenza Artificiale sulla ricerca scientifica rivelano invece una divergenza strutturale preoccupante. Nonostante l’intelligenza artificiale sia diventata tecnicamente molto più avanzata rispetto agli anni passati, la fiducia in essa riposta dagli esperti è in netto calo.
La vera notizia non riguarda più solo l’esistenza delle allucinazioni, ma il fatto che queste aumentino di frequenza proprio mentre i modelli diventano più potenti.
Le statistiche mostrano un cambiamento radicale negli atteggiamenti dei professionisti. Sebbene l’utilizzo di questi strumenti tra i ricercatori sia sensibilmente aumentato, la preoccupazione per le informazioni completamente inventate dai modelli linguistici è salita in modo vertiginoso. Si è passati da una situazione in cui circa la metà degli scienziati esprimeva dubbi sulla veridicità dei dati a una realtà in cui la stragrande maggioranza considera l’affidabilità dell’algoritmo il problema principale.
Questo fenomeno è accompagnato da un netto crollo della percezione dell’IA come entità superiore all’uomo. Se nel 2024 si riteneva che le macchine avessero superato le capacità umane nella metà dei casi d’uso, oggi questa convinzione è crollata a meno di un terzo.
Il motivo per cui un’intelligenza artificiale più potente tende a inventare di più risiede nella sua stessa architettura. Con l’aumento dei parametri, il modello acquisisce una capacità di connessione statistica talmente vasta da sfociare in una sorta di eccesso di fantasia. Quando l’algoritmo non trova una risposta esatta nei suoi dati di addestramento, la sua potenza lo spinge a costruire una narrazione verosimile utilizzando frammenti di informazioni correlate. Più il modello è sofisticato, più è in grado di confezionare una menzogna che suona logica e coerente.
A questo si aggiunge il problema del sovra-apprendimento, che porta l’IA a memorizzare dettagli irrilevanti e a forzarli all’interno di nuovi contesti, creando allucinazioni estremamente specifiche che risultano difficili da smascherare anche per un occhio esperto.
Esiste inoltre una componente commerciale che aggrava il problema. Le aziende sviluppatrici sanno che gli utenti preferiscono interfacce che rispondono con estrema sicurezza piuttosto che sistemi che ammettono i propri limiti o la mancanza di dati.
Di conseguenza, i modelli vengono addestrati per essere utili e convincenti a ogni costo, mascherando l’incertezza con un tono autorevole. Questo porta a quella che gli esperti definiscono sofisticazione dell’errore. In definitiva, l’IA non sta diventando più accurata, ma semplicemente più brava a nascondere le proprie lacune dietro una maschera di competenza linguistica. La consapevolezza di questo meccanismo sta spingendo i ricercatori a una maggiore cautela, confermando che la comprensione tecnica del funzionamento di questi sistemi è spesso il miglior antidoto a una fiducia cieca e ingiustificata.


