di EDOARDO FERRAGINA Avvocato tributarista – Tutto ciò che pubblichiamo sui social potrà essere utilizzato per eventuali accertamenti.
Il sistema fiscale italiano non è più quello di vent’anni fa. Il Fisco si è digitalizzato, ha esteso la sua rete di controllo e ora entra prepotentemente in campo l’Intelligenza Artificiale. Questa nuova strategia, illustrata dal Direttore dell’Agenzia delle Entrate in sede di audizione presso la Commissione parlamentare di vigilanza sull’Anagrafe tributaria, mira a rendere il sistema più trasparente ed equo, concentrando le risorse sui casi a maggior rischio.
Il cuore di questa trasformazione è l’immenso patrimonio informativo a disposizione dell’Agenzia, in primis l’Anagrafe tributaria, una delle più grandi banche dati pubbliche del Paese, costantemente aggiornata. L’Intelligenza Artificiale entra in gioco proprio qui: algoritmi complessi vengono “addestrati” su enormi quantità di dati (transazioni, fatture elettroniche, dati finanziari) per trasformarli in conoscenza utile e identificare comportamenti anomali. Le tecniche vanno dal machine learning, che impara dagli esiti degli accertamenti passati, al text mining per interpretare documenti non strutturati, fino alla potente network analysis per analizzare le relazioni complesse tra i soggetti, isolando i casi sospetti e prevedendo le evoluzioni delle frodi.
In sintesi si tratta di un complesso e costante sistema di controllo che incrocia ogni aspetto della vita finanziaria e digitale del cittadino.
È, però, importante evidenziare un punto sottolineato dal Direttore dell’Agenzia: l’IA viene utilizzata esclusivamente in fase preistruttoria, cioè per selezionare chi sottoporre a controllo. L’intervento umano sarà sempre fondamentale e l’algoritmo non deciderà mai in autonomia, anche per rispettare quanto previsto dall’articolo 22 del GDPR, che vieta decisioni completamente automatizzate. Tuttavia, quando l’algoritmo ha individuato un potenziale evasore, quel contribuente è già etichettato con un profilo di rischio elevato e l’intervento umano rischia di essere solo una formalità, limitandosi la decisione già presa dal software.
È qui che si manifesta la vera, drammatica, criticità per il cittadino onesto. Quando l’Amministrazione finanziaria si basa sulla profilazione algoritmica, alimentata dall’incrocio massivo di banche dati (dalle movimentazioni bancarie dell’Archivio Rapporti Finanziari ai dati della fatturazione elettronica), la difesa diventa estremamente difficile. L’integrazione di strumenti di analisi delle reti e di IA, seppur meno problematica di modelli predittivi opachi, solleva interrogativi giuridici fondamentali, soprattutto per la mancanza di linee guida univoche sull’adozione degli algoritmi e sui criteri che ne giustificano i risultati.
Il problema si aggrava quando a questa profilazione si aggiungono elementi derivanti dall’attività investigativa digitale, come il monitoraggio dei social network. Gli algoritmi di intelligenza artificiale incrociano ciò che pubblichiamo – vacanze, acquisti di lusso, esperienze costose, disponibilità di auto sportive – con quanto dichiarato al Fisco. Un contribuente che dichiara un reddito modesto, ma pubblica foto di uno stile di vita dispendioso, attiva immediatamente un alert. Tali indizi digitali, sebbene inidonei da soli a giustificare un atto impositivo, comportano, tuttavia, un’inversione dell’onere della prova.
In altri termini, il contribuente si ritrova nella scomoda posizione di dover dimostrare, magari a distanza di anni, la propria innocenza fiscale, giustificando la provenienza di ogni singola spesa o bene, anziché essere l’Amministrazione a dover provare l’irregolarità contestata. I contribuenti dovranno così spiegare se l’auto sportiva sfoggiata sui social appartiene a un amico o il viaggio è stato un regalo, fornendo una giustificazione documentale avente data certa (contratti di comodato; atti di donazione; prova di prestiti) contro un’accusa generata da un sistema oggettivamente opaco. Si tratta di una dinamica che mina il principio costituzionale di presunzione di innocenza, applicabile anche al diritto tributario, e rende la posizione difensiva del cittadino debolissima sin dalle prime battute del contraddittorio. Di fronte al Grande Fratello fiscale che ci osserva e profila continuamente, affidarsi unicamente alla trasparenza promessa o alla garanzia dell’intervento umano non è più sufficiente; è necessario agire sin dalle prime battute con una difesa tecnica, capace di smontare il costrutto probatorio, spesso fragile, su cui si fonda l’accertamento algoritmico.
L’adozione dell’Intelligenza Artificiale potrebbe rendere il sistema fiscale più equo, ma solo a condizione che il processo non sacrifichi i diritti fondamentali. È necessario invertire la prospettiva ed esigere la trasparenza algoritmica. Occorrono linee guida univoche, l’accesso ai criteri di profilazione e l’obbligo di un intervento umano che non sia di mera convalida di una decisione già presa dalle macchine, ma di effettiva valutazione. Se non si impone questo patto etico e legale tra Fisco e cittadino, l’innovazione si trasformerà in una distopia burocratica, nella quale il Grande Fratello non rappresenterà un deterrente, ma l’annientamento della tutela difensiva.
(foto: licenza pxhere – https://pxhere.com/it/photo/4990869)
Edoardo Ferragina è Avvocato tributarista.
