Intelligenza artificiale: i nuovi modelli sono meno affidabili dei precedenti

modelli di intelligenza artificiale

Da qualche mese a questa parte il settore tecnologico sta assistendo all’evoluzione di un fenomeno piuttosto interessante (e, per certi versi, preoccupante): i sistemi di intelligenza artificiale di ultima generazione, nonostante siano stati progettati per essere più sofisticati di quelli precedenti, hanno in realtà una tendenza all’imprecisione che è superiore rispetto alle versioni passate.

I dati, riassunti in un recente articolo del New York Times, evidenziano infatti un’allarmante regressione nell’accuratezza delle informazioni fornite dai modelli più recenti, con tassi di errore che raggiungono picchi del 79%.

La situazione sembra essere paradossale: sembra infatti che nel campo dell’intelligenza artificiale l’evoluzione tecnologica proceda inversamente all’affidabilità dei sistemi, creando così nuove sfide per i professionisti del marketing digitale che sempre più si affidano a questi strumenti.

L’analisi dei modelli più recenti di intelligenza artificiale

Le valutazioni condotte sui sistemi più innovativi confermano la tendenza preoccupante verso una minore precisione.

Il sistema o3 di OpenAI, ad esempio, ha evidenziato un tasso di errore del 33% nelle risposte a domande riguardanti persone reali, il doppio dell’imprecisione rispetto alla versione precedente.

Il modello o4-mini ha ulteriormente peggiorato questo quadro, con un tasso di errore che si attesta al 48% nello stesso ambito di test. Quando si passa a domande di carattere generale, la situazione diventa ancora più critica: il sistema o3 produce informazioni errate nel 51% dei casi, mentre l’o4-mini raggiunge il 79% di risposte inesatte.

Problematiche analoghe sono state riscontrate anche nelle piattaforme sviluppate da Google e DeepSeek, indicando probabilmente che questa tendenza all’imprecisione non è un fenomeno isolato ma piuttosto una caratteristica sistemica dei modelli di ultima generazione.

Le implicazioni per le strategie di marketing

Quanto sopra ci conduce a condividere qualche riflessione sulle implicazioni per le strategie di marketing. Di fatto, le conseguenze di informazioni erronee generate dall’IA possono causare danni reputazionali significativi e compromettere la fiducia dei clienti nel brand.

Un caso emblematico citato dal quotidiano è Cursor, piattaforma per sviluppatori che ha dovuto fronteggiare una crisi quando il suo assistente virtuale ha erroneamente informato gli utenti dell’impossibilità di utilizzare il software su dispositivi multipli.

L’inesattezza ha provocato cancellazioni di abbonamenti e critiche pubbliche, costringendo l’amministratore delegato, Michael Truell, a intervenire personalmente per smentire l’informazione e ristabilire la verità. Insomma, una situazione che ha dimostrato chiaramente come l’imprecisione dell’IA possa tradursi in perdite economiche dirette e nel deterioramento dell’immagine aziendale.

Perché i nuovi modelli sono meno affidabili?

Chiarito quanto sopra, ci si deve dunque domandare per quale motivo i nuovi modelli sono meno affidabili di quelli precedenti.

Ebbene, il calo di efficienza sembra essere spiegabile nei cambiamenti metodologici dell’addestramento. Il passaggio dall’apprendimento basato su vasti corpus testuali all’approccio per rinforzo, che privilegia l’apprendimento attraverso tentativi ed errori, sembra infatti aver migliorato le capacità logico-matematiche e di programmazione a scapito dell’accuratezza fattuale.

La ricercatrice Laura Perez-Beltrachini, in particolare, ha identificato un fenomeno di specializzazione selettiva per cui i sistemi “iniziano a concentrarsi su un compito specifico dimenticandone altri“. Un ulteriore elemento critico risiede nell’architettura dei nuovi modelli, che elaborano le risposte attraverso un processo sequenziale di ragionamento: ogni passaggio aggiuntivo introduce una nuova opportunità di deviazione dalla verità fattuale, amplificando la probabilità di errore nell’output finale.

Come dobbiamo comportarci

Ora, dinanzi a questa evoluzione non ci si deve naturalmente allontanare dall’intelligenza artificiale. Piuttosto, occorre beneficiare delle sue funzioni senza comprometterne la qualità, implementando protocolli di salvaguardia adeguati.

Per esempio, l’integrazione di processi di verifica umana è ancora oggi la strategia più efficace per filtrare le imprecisioni generate dai sistemi automatizzati prima che raggiungano il pubblico. È dunque fondamentale stabilire meccanismi sistematici di fact-checking per tutto il materiale prodotto dall’IA, riservando a questi strumenti un ruolo di supporto nella generazione di strutture e idee piuttosto che nella formulazione di contenuti fattuali.

Un’alternativa promettente è rappresentata dai sistemi di IA a generazione aumentata dal reperimento, capaci di citare le fonti delle informazioni fornite. Parallelamente, ogni marketer dovrebbe dotarsi di procedure chiare e consolidate per gestire tempestivamente le situazioni in cui vengono identificate informazioni dubbie o inesatte generate dall’intelligenza artificiale.

Insomma, ancora più di quanto rilevato in passato, il principale compito per i team di marketing sarà trovare un equilibrio ottimale tra l’efficienza operativa offerta dall’IA e l’imprescindibile necessità di accuratezza che caratterizza ogni comunicazione aziendale efficace.