Restare al confine: l’AI tra utilità economica e illusioni cognitive

Negli ultimi due anni l’intelligenza artificiale è entrata stabilmente nel lessico dei mercati: efficiency, forecasting, alpha, decision support.
Eppure, proprio nel momento in cui l’AI diventa uno strumento ordinario, emergono usi distorti che non riguardano la tecnologia in sé, ma il modo in cui viene psicologicamente e simbolicamente investita dagli operatori economici.

Il rischio non è l’errore tecnico.
Il rischio è l’illusione che ci creiamo attraverso l’AI.

Questo articolo propone una tesi semplice: con l’AI conviene restare al confine, usarla come strumento contestualizzato, non come oracolo, specchio identitario o generatore compulsivo di senso.

1. Lo specchio delle mie brame: il rispecchiamento narcisistico

Come nella fiaba di Biancaneve, il pericolo non è lo specchio, ma la domanda posta allo specchio.

Sempre più spesso l’AI viene interrogata non per analizzare, ma per confermare:

  • “Questo investimento è una buona idea?”
  • “Il mio modello di business è superiore agli altri?”
  • “Sto pensando nel modo giusto?”

I modelli generativi, per loro natura, tendono a massimizzare la coerenza percepita dell’output rispetto all’input. In assenza di contraddittorio strutturato, l’AI diventa un amplificatore dell’ego cognitivo perchè per come è costruita tende ad essere molto accondiscendente a chi la utilizza.

In ambito finanziario questo si traduce in:

  • rafforzamento dei bias decisionali;
  • overconfidence manageriale;
  • razionalizzazione ex post di scelte già prese.

Non è un caso che le AI hallucinations siano oggi considerate un rischio sistemico nei servizi finanziari basati su modelli linguistici.

Approfondimento accademico:
https://ink.library.smu.edu.sg/cgi/viewcontent.cgi?article=6570&context=sol_research

2. La tentazione della profezia: quando l’AI viene scambiata per un oracolo

Un secondo uso scorretto – più sottile – riguarda la ricerca di profezie: previsioni di mercato, timing perfetto, “migliori investimenti per i prossimi 12 mesi”.

Qui il confine è cruciale.

L’AI:

  • non vede il futuro;
  • non possiede intenzionalità;
  • non comprende eventi non ancora rappresentati nei dati.

Produce scenari plausibili, non verità predittive.

Il rischio per investitori e analisti è scambiare: coerenza statistica per necessità causale.

In mercati dominati da eventi geopolitici, psicologia collettiva e shock esogeni, affidare la funzione profetica a un modello statistico significa rinunciare alla responsabilità decisionale, non migliorarla.

Sul limite strutturale della generative AI nella finanza:
https://www.sciencedirect.com/science/article/pii/S219985312400132X

3. Iper-saturazione dei contenuti: quando l’abbondanza diventa rumore

C’è poi un effetto meno discusso, ma economicamente rilevante: l’iper-produzione di contenuti generati.

Report, analisi, outlook, commenti di mercato prodotti in quantità industriale. Non perché servano, ma perché possono essere prodotti. Questo fenomeno è ormai noto come AI slop: contenuti formalmente corretti, ma poveri di insight reale. Definizione e contesto: https://en.wikipedia.org/wiki/AI_slop

Nel lungo periodo, questo genera:

  • inflazione informativa;
  • riduzione dell’attenzione;
  • erosione dello spazio mentale necessario alla tensione creativa umana.

In economia, come nell’arte, il vuoto è funzionale: è lo spazio in cui nasce l’intuizione, la discontinuità, la vera innovazione.

4. Perché restare al confine è una scelta strategica

Essere border agent dell’AI non significa rifiutarla. Significa non delegarle ciò che non può fare.

L’AI funziona bene come
  • strumento di supporto analitico;
  • acceleratore di sintesi;
  • esploratore di scenari.
Diventa pericolosa quando viene usata come
  • specchio identitario;
  • certificatore di scelte emotive;
  • sostituto del giudizio umano.
Restare al confine vuol dire
  • mantenere il contesto;
  • accettare l’incertezza;
  • preservare la responsabilità decisionale.
Conclusione: il valore dell’attraversamento consapevole

Nei mercati, come alle frontiere, non tutto va attraversato di slancio.Alcuni strumenti vanno usati senza abitarli. L’AI è una tecnologia potente, ma non è una coscienza, non è un destino, non è una profezia.
È un mezzo.

E oggi, paradossalmente, la vera competenza strategica non è saperla usare, ma saper dire quando fermarsi prima dell’illusione.