Negli ultimi due anni l’intelligenza artificiale è entrata stabilmente nel lessico dei mercati: efficiency, forecasting, alpha, decision support.
Eppure, proprio nel momento in cui l’AI diventa uno strumento ordinario, emergono usi distorti che non riguardano la tecnologia in sé, ma il modo in cui viene psicologicamente e simbolicamente investita dagli operatori economici.
Il rischio non è l’errore tecnico.
Il rischio è l’illusione che ci creiamo attraverso l’AI.
Questo articolo propone una tesi semplice: con l’AI conviene restare al confine, usarla come strumento contestualizzato, non come oracolo, specchio identitario o generatore compulsivo di senso.
Come nella fiaba di Biancaneve, il pericolo non è lo specchio, ma la domanda posta allo specchio.
Sempre più spesso l’AI viene interrogata non per analizzare, ma per confermare:
- “Questo investimento è una buona idea?”
- “Il mio modello di business è superiore agli altri?”
- “Sto pensando nel modo giusto?”
I modelli generativi, per loro natura, tendono a massimizzare la coerenza percepita dell’output rispetto all’input. In assenza di contraddittorio strutturato, l’AI diventa un amplificatore dell’ego cognitivo perchè per come è costruita tende ad essere molto accondiscendente a chi la utilizza.
In ambito finanziario questo si traduce in:
- rafforzamento dei bias decisionali;
- overconfidence manageriale;
- razionalizzazione ex post di scelte già prese.
Non è un caso che le AI hallucinations siano oggi considerate un rischio sistemico nei servizi finanziari basati su modelli linguistici.
Approfondimento accademico:
https://ink.library.smu.edu.sg/cgi/viewcontent.cgi?article=6570&context=sol_research
Un secondo uso scorretto – più sottile – riguarda la ricerca di profezie: previsioni di mercato, timing perfetto, “migliori investimenti per i prossimi 12 mesi”.
Qui il confine è cruciale.
L’AI:
- non vede il futuro;
- non possiede intenzionalità;
- non comprende eventi non ancora rappresentati nei dati.
Produce scenari plausibili, non verità predittive.
Il rischio per investitori e analisti è scambiare: coerenza statistica per necessità causale.
In mercati dominati da eventi geopolitici, psicologia collettiva e shock esogeni, affidare la funzione profetica a un modello statistico significa rinunciare alla responsabilità decisionale, non migliorarla.
Sul limite strutturale della generative AI nella finanza:
https://www.sciencedirect.com/science/article/pii/S219985312400132X
C’è poi un effetto meno discusso, ma economicamente rilevante: l’iper-produzione di contenuti generati.
Report, analisi, outlook, commenti di mercato prodotti in quantità industriale. Non perché servano, ma perché possono essere prodotti. Questo fenomeno è ormai noto come AI slop: contenuti formalmente corretti, ma poveri di insight reale. Definizione e contesto: https://en.wikipedia.org/wiki/AI_slop
Nel lungo periodo, questo genera:
- inflazione informativa;
- riduzione dell’attenzione;
- erosione dello spazio mentale necessario alla tensione creativa umana.
In economia, come nell’arte, il vuoto è funzionale: è lo spazio in cui nasce l’intuizione, la discontinuità, la vera innovazione.
Essere border agent dell’AI non significa rifiutarla. Significa non delegarle ciò che non può fare.
- strumento di supporto analitico;
- acceleratore di sintesi;
- esploratore di scenari.
- specchio identitario;
- certificatore di scelte emotive;
- sostituto del giudizio umano.
- mantenere il contesto;
- accettare l’incertezza;
- preservare la responsabilità decisionale.
Nei mercati, come alle frontiere, non tutto va attraversato di slancio.Alcuni strumenti vanno usati senza abitarli. L’AI è una tecnologia potente, ma non è una coscienza, non è un destino, non è una profezia.
È un mezzo.
E oggi, paradossalmente, la vera competenza strategica non è saperla usare, ma saper dire quando fermarsi prima dell’illusione.