Analisi del rischio fiscale e tutela del contribuente tra spazi di trasparenza e prerogative di segretezza

Di Miriam Pontillo -

Abstract (*)

Il presente contributo mira a evidenziare come il grado di incisività di poteri – tradizionali ma – ‘tecnologicamente potenziati’ nella fase di attività di analisi del rischio fiscale risulti sproporzionato rispetto al sacrificio imposto ai contribuenti, sollecitando la definizione di una nuova architettura di tutele nel contesto della digitalizzazione dell’azione amministrativa fiscale.

Tax risk analysis and taxpayer protection between transparency and confidentiality – This paper aims to highlight how the degree of impact of – traditional but – ‘technologically enhanced’ powers in the tax risk analysis phase is disproportionate to the sacrifice imposed on taxpayers, calling for the definition of a new architecture of protections in the context of the digitalization of tax administrative action.

Sommario: 1. Poteri fiscali di indagine e (tradizionali) limiti ai diritti del contribuente. – 2. Tracciamento delle attività e ruolo della digitalizzazione. – 3. Intelligenza artificiale nell’analisi del rischio fiscale: prime aperture legislative. – 4. Tecnologie selettive e qualità del dato nell’analisi del rischio fiscale: implicazioni per diritti, controlli e uguaglianza tributaria. – 5. La funzione ancora necessaria di un filtro umano nell’attività di controllo fiscale. – 6. Dalla profilazione del contribuente al controllo sociale: rischi di una deriva patologica. – 7. Intelligenza artificiale e digitalizzazione fiscale: presidi (ancora) limitati. – 8. Proporzionalità e controllo digitale: una tutela da ricostruire.

1. Trattare di ‘segretezza’ e di ‘trasparenza’ con riferimento alla materia fiscale significa addentrarsi in un campo di indagine tutt’altro che insolito per gli studiosi tributaristi, dovendosi riconoscere in tale binomio la concettualizzazione di una delle più note dinamiche di estrinsecazione del rapporto tra l’Amministrazione finanziaria (interessata a disvelare fatti e situazioni fiscalmente rilevanti) e il contribuente (tendenzialmente incline invece a occultare fenomeni da cui possa emergere ricchezza tassabile).

Non meno inconsueto risulta, in questa forma di reciproca opposta interazione, l’essere arrivati a persuadersi della cedevolezza di alcuni diritti dei contribuenti – come la riservatezza – di fronte all’interesse pubblico alla pronta e sollecita riscossione dei tributi. Interesse che, secondo la Corte costituzionale, non è espressione soltanto di un potere, quello di sovranità fiscale, ma è altresì qualificabile come dovere inderogabile di solidarietà, come dovere di tutti, cioè, a concorrere alle spese pubbliche per garantire tanto il funzionamento dello Stato quanto il finanziamento del sistema dei diritti costituzionalii.

Da questo punto di vista, il ruolo che le tecnologie possono svolgere nella rilevazione di fenomeni elusivi o evasivi d’imposta riguarda un’area in cui il rapporto tra sfera privata ed esercizio di un potere pubblico di osservazione dei singoli va forse declinato in termini meno controversi, se si guarda al fine ultimo, ravvisando nella (auspicata) partecipazione di tutti alle spese pubbliche il motivo per stemperare alcune delle preoccupazioni (in questo caso sulla compressione di prerogative che ostacolano una corretta ripartizione di quell’onere) ben più ragionevolmente manifestabili in altri settori dell’ordinamento.

Tuttavia, come si avrà modo di spiegare nel corso della trattazione, la trasformazione digitale in corso di cui è investita anche l’azione pubblica fiscale – al di là di quanto si palesi come risultato di scelte consapevoli e necessitate – sembra aver cominciato gradatamente a inserire in quest’assetto calibrato su un (tutto sommato condivisibile) contemperamento tra interessi pubblici e privati nuovi fattori di squilibrio, rendendo visibili i limiti di un sistema di garanzie dei contribuenti che, diversamente, stenta invece a essere riammodernato.

Il tema sembra portare con sé una centralità e una forte carica problematica, attestandosi a più livelli dell’azione amministrativa fiscale: dalla raccolta e conservazione di notizie fiscalmente rilevanti dei contribuenti, anche attraverso l’apporto digitalmente mediato del contribuente, alla programmazione dei controlli, fino alla elaborazione di tali dati sussunta in forme più o meno automatizzate di determinazione dell’imposta e/o della maggiore imposta (liquidazione e controllo formale delle dichiarazioni) o di modelli di determinazione partecipativa di definizione del dovere tributario (come il concordato preventivo biennale).

Proposito di questa indagine è soffermarsi su alcuni più evidenti momenti di frizione tra le garanzie dei contribuenti e un’azione amministrativa digitalmente potenziata in relazione a uno specifico segmento dell’attività dell’Amministrazione finanziaria, segnatamente delle attività conoscitive e di controllo, che è quella della analisi del rischio fiscale, per come di recente normativamente delineataii. In particolare, si proverà a rilevare come un utilizzo pervasivo di algoritmi proprio in questa fase, funzionale senz’altro a esigenze di efficientamento, rischi di far transitare in assenza di una rivisitazione dei presidi a tutela del contribuente la tradizionale capacità di monitoraggio riservata alla Amministrazione fiscale verso una patologica condizione di sorveglianza sganciata dal fine della corretta ricostruzione degli obblighi tributari, o, peggio, di controllo degli individui, offuscando i principi di civiltà, non solo giuridica, alla base di un maturo ordinamento democratico.

2. In ambito tributario, il problema di un’osservazione sempre più pervasiva dei singoli non è riconducibile, o per lo meno non è esclusivamente riconducibile, alla recente adozione di tecnologie digitali avanzate, quale può essere la stessa – e sempre più discussa – Intelligenza artificiale, da parte dell’Amministrazione finanziaria. Esso si pone già agli albori della digitalizzazione quando, nel passaggio dal cartaceo al digitale, molte attività che prima richiedevano un supporto fisico iniziano a essere trasferite in una dimensione immateriale, per essere condivise o semplicemente gestite in maniera tendenzialmente più rapida e immediata.

All’origine del vertiginoso aumento di dati tracciabili si collocano innanzitutto i mutamenti delle tecniche di effettuazione dei pagamenti, transitate sempre più frequentemente dalla consegna materiale di monete e banconote (o di supporti cartacei come assegni o cambiali) a trasferimenti elettronici realizzabili tramite carte, portafogli e conti virtuali. Pur in assenza di un divieto assoluto di pagare con denaro contante, la previsione di limiti legali che ne regolano l’uso come anche di restrizioni associate al mobile banking, in una con l’aumento degli acquisti online, ha determinato l’aumento esponenziale di tracce digitali che di tali operazioni ne costituiscono gli esiti, abilitando – tramite la contestuale implementazione di obblighi comunicativi in favore del Fisco – forme di verifica costante ed estremamente dettagliata delle relazioni finanziarie (flussi, movimenti, operazioni). Non meno determinante, sempre dal punto di vista della possibilità di un più penetrante monitoraggio collettivo, è risultato l’intensificarsi delle attività che i cittadini, i professionisti e le imprese possono o devono svolgere attraverso strumenti digitali (accesso ai servizi tramite SPID o, nello specifico ambito tributario, con la dichiarazione dei redditi online e con la fatturazione elettronica), i cui vantaggi pratici, economici e organizzativi non possono essere scissi dalla contestuale stratificazione informativa insita per natura nell’operabilità di tali sistemi. A un livello ancor più generale, appare altrettanto evidente poi come lo sviluppo dei rapporti sociali ed economici in rete abbia definitivamente contribuito a potenziare la presenza dei singoli in dimensioni virtuali, moltiplicando – sempre tramite le tecnologie – le possibilità di rilevazione della stessa.

È dunque molto prima che si diffondesse l’Intelligenza artificiale che si è cominciato a scorgere in controluce il rischio di un tracciamento capillare delle attività, individuali o associate, tributarie o meno.

In campo fiscale, l’adozione di sistemi che intercettano, incrociano ed elaborano dati a vari fini giunge dopo e si potrebbe dire quasi per necessità. È stata l’esigenza di razionalizzare la massa critica di dati che l’Amministrazione finanziaria si è trovata a gestire ad aver reso indispensabile l’uso di tecnologie, programmabili per estrapolare informazioni di senso da questi dati in modi e tempi inaccessibili al funzionario/essere umano.

Questo aspetto segna un passaggio essenziale nella comprensione delle scelte di digitalizzazione dell’Amministrazione fiscale: il rifiuto, oggi, della tecnologia paleserebbe un ostacolo al perseguimento di obiettivi di efficientamento dell’azione e dell’attività pubblica, posti dall’art. 97 Cost. e dall’art. 1 L. n. 241/1990iii. E ciò non soltanto dal punto di vista organizzativo, laddove si privasse l’Amministrazione del supporto di sistemi strumentali al processo di sburocratizzazione e di semplificazione nei suoi rapporti con il cittadino, ma a livello sostanziale di soddisfacimento e di composizione degli interessi fiscali e della collettività. Senza le tecnologie digitali, gli Uffici si ritroverebbero a dover processare l’enorme volume di dati cui in teoria avrebbero accesso con i tempi infinitamente più lunghi del funzionario, salvo forse provvedere a colmare lo scarto tramite l’assunzione di personale, e con il rischio che nemmeno un incremento della componente umana in tali processi possa essere in grado di eguagliare la precisione e la capacità operativa dei sistemi artificiali.

Già del 2019, il Consiglio di Stato, con la nota sentenza n. 2270, riconosceva come «l’assenza di intervento umano in un’attività di mera classificazione automatica di istanze numerose, secondo regole predeterminate (che sono, queste sì, elaborate dall’uomo), e l’affidamento di tale attività a un efficiente elaboratore elettronico appaiono come doverose declinazioni dell’art. 97 Cost. coerenti con l’attuale evoluzione tecnologica».

L’amministrazione digitale in generale, come anche nello specifico perimetro tributario, consente, almeno in via programmatica, di ridurre i costi e i tempi dell’azione pubblica in una prospettiva orientata a una decisione più razionale, poiché assunta con modalità – il supporto informatico appunto – che appaiono le uniche in grado di affrontare la complessità dei contesti esterni di riferimentoiv. Ci sarebbe anche da considerare l’intensità con cui le tecnologie incidono sull’autonomia e sulla rilevanza dell’azione amministrativa fiscale, tanto da suggerire che l’uso degli strumenti digitali sia qui «ben digerito proprio perché consente di rafforzare quel potere burocratico che, forse, in altri settori ne viene indebolito»v ma approfondire tale profilo ci porterebbe troppo lontano rispetto ai più limitati scopi di questa indagine.

La presa d’atto della necessità del ricorso alle tecnologie digitali, quali strumenti propulsori di utilità, sembra così accompagnare la riflessione a un livello successivo, dove il focus non è più l’articolazione di ostacoli o di divieti all’uso in sé di sistemi artificiali avanzati, che si risolverebbero forse in una già persa battaglia di retroguardia, quanto, piuttosto, l’individuazione puntuale delle interferenze tra tecnologie e diritti o libertà dei singoli e la conseguente altrettanto puntuale determinazione del regime giuridico di tutela.

3. L’Intelligenza artificiale, nella sua versione più evoluta, trova già spazio di applicazione in ambito tributario, segnatamente nella fase conoscitiva e di controllo dell’Amministrazione finanziaria. Come rilevato dalla miglior dottrina, in questa vi rientra il compimento di atti e di attività dirette all’acquisizione di «conoscenze fiscalmente rilevanti»vi, che consentono all’Amministrazione di assumere contezza della realtà in cui essa opera, come pure di quelle più prettamente di vigilanza o di controllo dei contribuenti, anche in funzione preventiva e di contrasto di condotte di evasione o di elusione fiscale.

La distinzione qui rimarcata tra attività conoscitive e di controllo, e della relativa funzionalizzazione dell’esercizio di poteri amministrativi, non è casualevii. In questo modo, pur nella consapevolezza di una necessaria considerazione unitaria della fase in cui tali attività si esplicano, si vuole solo evidenziare come le tecnologie digitali ben si prestano a insinuarsi nell’ampio spettro di prerogative, dall’impronta marcatamente autoritativa, riservate all’Amministrazione finanziaria: dalla raccolta di dati e di informazioni dei contribuenti, alla rilevazione di inesattezze nell’assolvimento degli obblighi tributari, fino all’individuazione presuntiva della posizione fiscale del singolo, con riferimento a potenziali atti evasivi o elusivi.

L’esigenza di un’integrazione degli algoritmi in questi specifici momenti dell’azione amministrativa ha avuto crescenti riconoscimenti nel nostro ordinamento.

A tale prospettiva può essere ricondotta la L. 27 dicembre 2019, n. 160, in cui viene prefigurata (con i commi 682 e 686 dell’art. 1) la possibilità di utilizzare le tecnologie «per individuare criteri di rischio utili per far emergere posizioni da sottoporre a controllo e incentivare l’adempimento spontaneo». Tale disposizione, letta in relazione all’art. 6 del successivo decreto attuativo del MEF 28 giugno 2022, lascia già intravedere l’intenzione del legislatore di affidare a sistemi artificiali l’incrocio dei dati contenuti nelle banche dati di cui è titolare l’Amministrazione (Agenzia delle Entrate e Guardia di Finanza), al fine di creare elenchi selettivi di contribuenti da sottoporre poi a controllo.

Se in tali disposizioni il riferimento alle tecnologie è ancora piuttosto generico, nonostante nella prassi software più sofisticati (il primo più noto è stato Ve.Ra.) comincino già a supportare l’Amministrazione nella raccolta e nella elaborazione dei dati ai fini fiscali, è con la legge delega 9 agosto 2023, n. 111 e con il D.Lgs. 12 febbraio 2024, n. 13, che viene formalmente esplicitato l’uso dell’Intelligenza artificiale, proprio nel contesto della specifica attività conoscitiva e di indagine dell’Amministrazione finanziaria, corredando la previsione di una serie di definizioni utili a circostanziarne natura e finalità di tale impiego.

L’analisi del rischio, come definita dall’art. 2, comma 1, lett. a), D.Lgs. n. 13/2024, è «il processo, composto da una o più fasi, che, al fine di massimizzare l’efficacia delle attività di prevenzione e contrasto all’evasione fiscale, alla frode fiscale e all’abuso del diritto in materia tributaria, nonché di quelle volte a stimolare l’adempimento spontaneo, tramite modelli e tecniche di analisi deterministica ovvero probabilistica, nel rispetto della normativa in materia di trattamento di dati personali, utilizza, anche attraverso la loro interconnessione, le informazioni presenti nelle basi dati dell’Amministrazione finanziaria, ovvero pubblicamente disponibili, per associare, coerentemente a uno o più criteri selettivi, ovvero a uno o più indicatori di rischio desunti o derivati, la probabilità di accadimento a un determinato rischio fiscale, effettuando, ove possibile, anche una previsione sulle conseguenze che possono generarsi dal suo determinarsi» (enfasi aggiunta). Per rischio fiscale si intende (lett. b) «il rischio di operare, colposamente o dolosamente, in violazione di norme di natura tributaria, ovvero in contrasto con i principi o con le finalità dell’ordinamento tributario». Lo scopo dell’analisi del rischio è, pertanto, la riduzione del rischio di violazioni di norme di natura tributaria o di operazioni in contrasto con i principi o con le finalità dell’ordinamento tributario. I risultati dell’analisi del rischio servono, dunque, al fine della prevenzione e contrasto all’evasione fiscale, alla frode fiscale e all’abuso del diritto, nonché quale stimolo dell’adempimento spontaneo.

Dalle disposizioni, emergono almeno tre caratteristiche tipiche di questa attività.

Innanzitutto, essa si esplica esclusivamente in relazione a dati o, per richiamare l’espressione utilizzata dal legislatore, a informazioni in possesso o raccolte dall’Amministrazione. Pare evidente che tali dati sono raccolti e processati con tecnologie digitali. La norma in realtà non specifica che l’analisi debba necessariamente effettuarsi tramite strumenti informatici, del resto in passato veniva effettuata manualmente attraverso l’esame di documenti cartacei o sulla base dell’esperienza o dell’intuito stesso dei funzionari. La quantità e la complessità dei dati fiscali ed economici, la costruzione di indicatori di rischio derivati o l’uso di modelli probabilistici inducono tuttavia a ritenere che il supporto tecnologico sia da dare quasi per scontato; in ogni caso, a prescindere dalla possibilità di un intervento umano, il primo tratto identificativo di tale attività non può non potersi rinvenire – come si diceva – nella sua stretta correlazione con i dati, considerato che essa nasce da elementi tracciati o tracciabili, si sviluppa a partire dall’elaborazione delle informazioni che questi sono in grado di fornire, e si esaurisce nell’alert, descrittivo di un’anomalia, che l’Amministrazione utilizza per approfondire la posizione del contribuente.

A questa centralità del dato sembrerebbe quindi (e tuttavia) fare da pendant – seconda caratteristica – la necessaria verifica dello stesso, tramite l’attivazione dei poteri volti ad accertare la fondatezza o meno del rischio fiscale rilevato. L’analisi, pur nella sua capillarità, sembrerebbe in altri termini rappresentare un circoscritto segmento all’interno dell’altrettanta circoscritta attività conoscitiva dell’Amministrazione: essa rinviene la sua efficacia nella funzione di impulso e, se vogliamo, di canalizzazione del controllo o di stimolo alla compliance, ma il risultato da questa fornito non è sufficiente – o almeno così pare – a supportare in automatico una formale contestazione da parte dell’Uffici, necessitando di essere ulteriormente accertato nella sua verosimiglianza e consistenza dall’Amministrazioneviii.

Strettamente collegato alla natura di antecedente funzionale rispetto al controllo vero e proprio, vi è infine, quale terzo elemento distintivo, il carattere preventivo e selettivo dell’analisi del rischio fiscale. Come si evince già dalla stessa definizione normativa, tale processo serve a individuare soggetti, comportamenti o situazioni che presentano un’elevata probabilità di irregolarità fiscale, non solo a constatare in modo definitivo un’evasione già avvenuta. Connaturata alla attività di analisi vi è dunque l’esigenza di ampliare quanto più possibile l’osservazione dei contribuenti, sia nello spazio sia nel tempo della loro azione, poiché tanti più dati possono essere raccolti e analizzati quanto più accurata tenderà a essere la previsione, secondo la logica bigger is betterix.

4. Non è facile dire se, attraverso questi tratti, si sia veramente aperta una nuova prospettiva di indagine sulla legittimità dell’attività amministrativa di analisi del rischio, con conseguente necessaria rivalutazione delle prerogative di tutela del contribuente, o se non si debba piuttosto parlare soltanto dello scorgersi di limitati aspetti di problematicità su profili aventi in passato minore (o assoluta non) rilevanza. Certo è però che comunque nel percorso di potenziamento, tramite il digitale, dell’azione pubblica sul fronte della rilevazione delle scorrettezze fiscali, anche potenziali, alcuni diritti dei singoli vengono intercettati con forme e intensità differenti rispetto al passato, giustificando in questa fase un approccio quanto meno circospetto verso tale processo.

Così, ritornando alla prima delle caratteristiche cui si accennava – centralità del dato – saremmo inclini a considerare strumenti senz’altro più efficienti del funzionario gli algoritmi che incrociano l’enorme mole di dati a disposizione dell’Amministrazione, se non fosse però che, oltre a elaborarli, tali sistemi vanno anche a ricercarli.

Esiste una tecnica informatica, nota come web scraping o data scraping (letteralmente: raschiamento di dati), che permette di estrarre automaticamente, tramite bot e derivati, qualsiasi dato o informazione personale dai siti web e di organizzarli in funzione di un fine (nel nostro caso, vengono intercettati contenuti che possano tradire un tenore di vita troppo elevato rispetto ai dati in possesso dell’Agenzia delle Entrate).

Non abbiamo certezza che il Fisco la utilizzi. Il Viceministro dell’Economia e delle Finanze, Maurizio Leo, ha menzionato la possibilità di ricorrere a questa tecnica per analizzare i dati pubblici sui social riguardanti professionisti e imprenditori, alludendo a una prospettiva futurax. Così come il Direttore dell’Agenzia delle Entrate, Vincenzo Carbone, ha recentemente dichiarato, nel corso di un’indagine conoscitiva dinanzi alla Commissione parlamentare di vigilanza sull’Anagrafe tributariaxi, che sempre nell’ottica di contrasto dell’evasione al pari della Francia dove è già in uso «forse si potrebbe almeno iniziare a ragionare se sia possibile parlarne anche in Italia» di questa tecnica, lasciando intendere che non sia al momento utilizzata dagli Uffici fiscali italiani.

Pur discutendosene in un’ottica futuribile, sembra tuttavia che determinate prassi vadano molto vicine al raschiamento di dati, concretizzando forme di raccolta capillare di contenuti personali indiscriminati.

Come si evince da alcuni documenti internixii, tanto l’Agenzia delle Entrate quanto la Guardia di Finanza acquisiscono di fatto elementi di conoscenza sul contribuente anche da fonti estranee agli archivi ufficiali dell’Agenzia delle Entrate e della Guardia di Finanza, le cosiddette fonti aperte, in particolare siti Internet e social network.

Tale pratica non solo avviene già da tempo ma sembrerebbe pure trovare oggi un fondamento normativo nel D.Lgs. n. 13/2024, al comma 1 dell’art. 2, in cui è prevista la possibilità per l’Agenzia delle Entrate di utilizzare informazioni ‘pubblicamente disponibili’ per l’analisi del rischio fiscale, resistendo al parere del Garante della Privacyxiii con cui lo stesso aveva subordinato il giudizio favorevole alla eliminazione del riferimento alle informazioni ‘pubblicamente disponibili’ e avendolo ottenuto per il comma 3 dello stesso art. 2 (dove, oltre alle attività di analisi del rischio, sono ricomprese le attività di controllo, le attività di stimolo dell’adempimento spontaneo e quelle di erogazione di servizi ai contribuenti). Stando quindi all’art. 2 D.Lgs. n. 13/2024, le informazioni pubblicamente disponibili possono essere utilizzate solo per lo svolgimento di attività di analisi del rischio di cui al comma 1, e non per le altre previste al comma 3 (attività di controllo, attività di stimolo dell’adempimento spontaneo e quelle di erogazione di servizi ai contribuenti). Così sembrerebbe, se non fosse però che con il D.Lgs. n. 13/2024 sono state apportate, tra le altre, due importanti modifiche al D.P.R. 29 settembre 1973, n. 600 in virtù delle quali l’analisi del rischio rientra i) tra le attività con finalità di controllo (art. 31, comma 2); ii) tra i poteri istruttori svolti dai verificatori i cui risultati possono essere posti alla base dell’accertamento (art. 32, comma 8-quater). Considerato che tali norme richiamano l’attività di analisi del rischio senza ulteriori specificazioni, e dovendocisi così rifare alla definizione generale di cui al comma 1 dell’art. 2 D.Lgs. n. 13/2024, sembra dunque potersi dedurre che tanto ai fini di controllo quanto per quelli di accertamento l’attività di analisi del rischio possa essere svolta utilizzando informazioni ‘pubblicamente disponibili’, ridimensionandosi di molto il rilievo garantistico insito nella rimozione del riferimento al comma 3 voluto, appunto, dal Garante della Privacy.

Un’interpretazione che recuperi l’intento prudenziale suggerito da tale Autorità potrebbe essere forse quella di considerare la definizione normativa come priva di precettività e, dunque, suscettibile di essere superata; ma, se così fosse, si inserirebbe nella disciplina un ostacolo a un’applicazione uniforme e corretta delle norme che richiamano l’analisi del rischio, là dove, paradossalmente, lo stesso legislatore, chiarendo il significato, ne ha invece voluto ridurre l’ambiguità interpretativa.

Un più incisivo rilievo dell’accoglimento del Parere del Garante potrebbe semmai attestarsi in riferimento al comma 7, sempre dell’art. 2, che estende l’applicazione dei commi 3 (sulle banche dati utilizzabili) e 4 (sui limiti dell’analisi del rischio) alla Guardia di Finanza. Considerando che in questo caso il richiamo è specifico al comma 3, dove è escluso l’utilizzo delle informazioni ‘pubblicamente disponibili’, e non alla più ampia definizione contenuta al comma 1, si potrebbe anche desumere che nello svolgimento delle attività di analisi del rischio la Guardia di Finanza, a differenza dell’Agenzia delle Entrate, soggiaccia a tale più incisivo vincolo. Anche qui, tuttavia, qualche perplessità sorge comunque: poiché ai sensi del successivo comma 9, Agenzia delle Entrate e Guardia di Finanza possono condividere «tutte le informazioni e le risorse informatiche di cui dispongono», mediante la stipula di protocolli d’intesa, non è escluso che quelle pubblicamente disponibili utilizzabili dalla prima confluiscano poi, mediante appunto tali accordi, tra quelle cui avrebbe accesso anche la seconda.

Ritornando al merito del nostro discorso, v’è da dire che in relazione a questa possibilità di raccolta dilatata di contenuti informativi personali, la percezione di una qualche forma di ingerenza, forse anche di controllo, nella sfera privata del contribuente è solo il primo dei problemi.

Vi sarebbe anche da capire che utilità potrebbe avere, ai fini tributari, l’elaborazione – che, si ribadisce, potrebbe anche agganciarsi all’accertamento – di dati estrapolati da contesti che non sono nati per accogliere notizie fiscalmente rilevanti (come fotografie, ad esempio, od opinioni).

Nella sua Relazione sulla attività del Garante della Privacy del 2023 Regolare il futuro. La protezione dei dati per un’innovazione antropocentrica, il Presidente Pasquale Stanzione ha precisato che «basare le procedure accertative su informazioni “rastrellate” dal web – come tali in larga misura inesatte – è, infatti, estremamente rischioso, potendo avere effetti fortemente distorsivi sulla corretta rappresentazione della capacità fiscale dei contribuenti».

Attesa la disomogeneità di tali fonti, i dati in esse contenuti potrebbero non essere accurati, anzi è probabile che le informazioni ritraibili siano di scarsa qualità, incomplete, non veritiere o anche non pertinenti se generate per finalità (essenzialmente sociali) lontane da quelle fiscali, prestandosi la loro elaborazione a inquinare a cascata qualsiasi altra assuma la stessa a presupposto di successive attività.

Oltretutto, finché ai sistemi informatici viene chiesto di incrociare dati che sono sin dall’inizio rappresentati da numerixiv, sembra chiara l’utilità che la tecnologia possa in questo caso dispiegare: sarebbe impossibile per qualunque essere umano controllare tutti i dati, forse solo a campione e nemmeno si sarebbe certi di ottenere la stessa precisione del sistema artificiale. Diversamente, nella misura in cui l’algoritmo deve trasformare in dato informatico, in un numero quindi, un elemento che non nasce come tale, si inserisce nell’elaborazione una componente valutativa come tale passibile di impregnarsi di tutti i vizi che il processo di argomentazione notoriamente comporta (illogicità, pregiudizi, irragionevolezza).

E ancora, il problema di un sistema di individuazione delle situazioni di rischio prevalentemente affidato agli algoritmi non è soltanto quello della opinabilità della singola valutazione, che potrebbe pure risolversi, in caso di utilizzo di dati di scarsa qualità, in una rilevazione fittizia di ricchezza (un ‘falso positivo’), ma abbraccia la più ampia questione della discriminazione algoritmica: vero è che nella fase conoscitiva tutti i contribuenti sono soggetti a osservazione e che gli Uffici sono liberi di scegliere chi controllare o meno, ma se l’algoritmo utilizzato è viziato, fosse pure nell’impostazione di un solo parametro indicatore di una qualche forma di ricchezza tassabile, è altresì plausibile che ci saranno contribuenti osservati e altri che rimangono fuori dal radar, cosicché solo per i primi potranno in ipotesi attivarsi controlli anche invasivi (accessi, ispezioni, verifiche) mentre per gli altri noxv.

Se, di poi, al rilievo preponderante affidato alle tecnologie nella fase di individuazione dei soggetti sospettati di agire (o di aver agito) in violazione delle norme tributarie, si associa – come sembra stia accadendo – una convergenza delle contestazioni sugli adempimenti formali (essenzialmente le dichiarazioni), con collaterale perdita di rilevanza dei controlli sostanziali presso i luoghi dove si svolgono attività economiche, a derivare potrebbe pure essere un iniquo aumento della pressione fiscale sui soli contribuenti noti (i dichiaranti), e non su chi, invece, non dichiara e continua quindi a rimanere invisibile al Fisco.

Il timore, in altri termini, è che, insito nella centralità dei dati e nell’uso totalizzante della tecnologia, possano essere normalizzate forme di discriminazione sistemica o strutturale tra contribuenti, laddove alcuni siano osservati e tassati perché (digitalmente) tracciati o tracciabili mentre altri, invece, restino immuni all’azione amministrativa poiché assolutamente (digitalmente) irrintracciabili.

5. L’uso di sistemi artificiali nell’ambito della fase conoscitiva e di controllo non dovrebbe in teoria sfociare in qualche forma di automatismoxvi.

A differenza dell’attività di accertamento, che, dato il carattere vincolato, «si presta ad una applicazione preferibile di automatizzazioni e intelligenza artificiale»xvii, in seno all’attività di indagine dell’Amministrazione fiscale i sistemi algoritmici, anche quelli basati sull’Intelligenza artificiale (Ve.RA ad esempio utilizza il machine learning e altre soluzioni supervisionate di Intelligenza artificiale), difficilmente potrebbero comportare degli automatismi o, per lo meno, questo ancora non accade; non viene, ad esempio, redatto un processo verbale di constatazione in automatico, c’è sempre ancora l’ispettore o il finanziere che controlla e redigexviii.

È questa la seconda caratteristica dell’attività dell’analisi del rischio cui si accennava.

La previsione (o, meglio, la non esclusione) di un intervento umano tramite cui il risultato reso dal sistema venga successivamente approfondito nella sua fondatezza non elide certamente i problemi cui si è appena detto, in specie quelli legati alla deviata rilevazione del rischio fiscale, ma attenua quanto meno le perplessità che si paleserebbero ove tra questo e l’atto impositivo non vi fosse nemmeno un filtro di ‘accertamento’ umano minimo.

Si tratterebbe certamente di capire come può il funzionario avvedersi dell’errore nella rilevazione algoritmica ove questa si basi su tecniche di machine learning o su forme di IA generativa, notoriamente incomprensibili nel loro funzionamento. Dovendosi necessariamente circostanziare l’anomalia con altri elementi che supportino la pretesa impositiva, è tuttavia possibile che, pur nell’opacità delle ragioni della rilevazione del rischio, l’Ufficio riesca successivamente a corroborare il risultato tramite le altre risultanze emerse dai controlli attivati oppure ad azzerarne la portata, nel caso queste manchino o forniscano una diversa giustificazione dell’incongruenzaxix.

Del resto, se così non fosse, un eventuale atto impositivo emesso sulla base dell’anomalia rilevata dall’algoritmo in sede di analisi del rischio (che abbia quindi utilizzato, in ipotesi, delle informazioni sui contribuenti reperite in rete) potrebbe anche essere illegittimo.

Una conferma, in tal senso, sembrerebbe essere già stata data dalla prima giurisprudenza su questi temi. Molto significativamente, la Corte di Giustizia tributaria di primo grado di Agrigento, con la sentenza 11 luglio 2023, n. 794, ha annullato un accertamento che si basava prevalentemente su commenti a foto postate su Facebook, adducendo come motivazione – relativamente alle presunzioni invocate – la mancanza dei requisiti richiesti dalla legge, sia dal punto di vista soggettivo (difficoltà di identificazione certa dei soggetti coinvolti, a causa dei nominativi spesso generici o di fantasia usati sui social) che da quello oggettivo («anche a volere conferire alle congetture desumibili dal profilo Facebook la dignità di “presunzioni”, le stesse non rivestono i caratteri di gravità, precisione e concordanza richiesti dalla legge, e non potevano né possono considerarsi “prova” del maggior reddito accertato presuntivamente»).

Diversamente, se l’algoritmo selettivo è discriminatorio, sarà logicamente impossibile la rilevazione del difetto da parte del funzionario: questi agirà in ragione di un approfondimento della singola posizione anomala rilevata, a lui ‘visibile’, essendogli preclusa la valutazione delle scelte di un’osservazione parziale o discriminatoria. Il rischio di una discriminazione sistemica o strutturale, come si è definita poc’anzi la (viziata) focalizzazione dell’attenzione su determinati gruppi di contribuenti, è connaturato agli algoritmi, considerando le non sempre piene capacità del sistema artificiale di effettuare interpretazioni o correlazioni dei dati, e torna qui nuovamente il problema della scarsa qualità dei materiali informativi, ovvero il fatto che l’algoritmo non può effettuare ragionamenti abduttivi, cioè trarre conclusioni adeguatexx dalle premesse che gli sono state presentate.

6. A prescindere dalla discutibilità degli automatismi – che tra le maglie della discrezionalità dell’Amministrazione fiscale in questa fase potrebbero pure essere giustificati – vi è però un ulteriore profilo controverso, in realtà ancora poco indagato, sul quale andrebbe invece orientata ben più scrupolosa attenzione.

Man mano che in campo fiscale si affinano le tecniche di raccolta e di elaborazione dei dati, che operano oltretutto in funzione predittiva di comportamenti considerati a rischio (terza caratteristica), a implementarsi è pure – e inevitabilmente – un sistema sempre più pervasivo di profilazione dei soggetti, siano questi contribuenti o meno.

Sebbene il processo di analisi giunga – fisiologicamente – alla individuazione di una circoscritta porzione di contribuenti, nel selezionare tali soggetti rispetto a un potenziale fenomeno tributario evasivo o elusivo, la platea astratta e concretamente esaminata sarà molto più ampia, con l’effetto di rendere di fatto verosimile la realizzazione di un sistema di profilazione su vasta scala.

E se ad oggi gran parte del dibattito, a proposito della profilazione algoritmica (che è pratica diversa dal tracciamento, sottintendendo la prima l’analisi automatizzata dei dati non solo per osservare gli individui ma anche per dedurre caratteristiche, preferenze, comportamenti o rischixxi), si è incentrata sulla necessaria informazione e sul consenso del soggetto i cui dati vengono trattati, come previsto dal GDPRxxii, quali condizioni generalmente legittimanti tale diffusa pratica, nello specifico ambito tributario, in forza delle eccezioni previste dal Regolamento (art. 23), la profilazione può essere svolta in termini di maggiore libertà, non essendo tenuta l’Amministrazione – in seno a un’attività che rimane sostanzialmente segreta – a informare né a riscontrare il consenso dei contribuenti osservati.

Nell’ottica, dunque, della prevenzione e del contrasto all’evasione/elusione fiscale, la strategia promossa coincide con la messa in atto di un sistema di raccolta e di elaborazione di dati dei contribuenti, affidato alle tecnologie che, sulla base di modelli statistici o probabilistici, rendono possibile una scansione dettagliata e costante delle attività dei singoli, salvo poi – ma questo in un secondo momento – isolarne o interpretarne la rilevanza ai fini fiscali.

Ora, saremmo pure tentati dall’idea di soprassedere sulla latente anti-democraticità di un controllo permanente del Fisco, compensato per certi versi da un generalizzato consenso implicito alla digitalizzazione delle nostre pratiche sociali ed economiche, se non fosse però, ed è questo il punto, che a una profilazione accurata nel tempo sembrerebbe gradatamente affiancarsi un sistema sempre più incisivo di misure, rimedi, sanzioni, per coloro che vengono individuati come trasgressori o presunti tali: reazioni che vanno oltre l’individuazione del soggetto da controllare per l’erronea rappresentazione della capacità contributiva.

Il riferimento va certamente alle limitazioni che operano all’interno dell’ordinamento tributario. Pensiamo al blocco dei rimborsi automatici, al divieto di usare i crediti in compensazione, al divieto di accesso a bonus fiscali, alla stessa inammissibilità del contribuente inaffidabile secondo ISA al concordato preventivo biennale, tutte previsioni già discutibili ove si riaggancino a situazioni non di avvenuta evasione o elusione ma di probabile accadimento.

Ancor più problematico sarebbe in vero pensare di normalizzare, sempre nell’ottica di superiori e ineludibili esigenze di civiltà giuridica, quelle reazioni che travalichino, più o meno larvatamente, lo stesso ordinamento tributario. Un esempio di come l’uso della tecnologia possa rendere più facile cedere a tale tentazione è la pubblicazione delle liste di evasori, una pratica che funge senz’altro da sprone al corretto adempimento degli obblighi tributari non senza però celare una certa valenza di stigmatizzazione sociale. Esiste un precedente in Italia, del 2008, quando l’Agenzia delle Entrate ha pubblicato su Internet le dichiarazioni dei redditi dei contribuenti (relative al 2005), senza alcun filtro per la consultazione, consentendo agli utenti di accedere a innumerevoli informazioni dei soggetti debitori del Fisco, così come di estrarne copia, di creare liste di profilazione e di immetterle ulteriormente in circolazione. Pensiamo pure però a come la profilazione del contribuente possa essere utilizzata da banche e intermediari finanziari, che valutano la regolarità fiscale come indice di affidabilità economico-finanziariaxxiii. Le conseguenze pratiche di tale stretta interdipendenza possono essere difficoltà nell’ottenere finanziamenti o mutui se risultano debiti fiscali gravi, peggioramento del merito creditizio nelle analisi di rischio, esclusione da strumenti di sostegno pubblico. E ancora, pensiamo al DURF, la certificazione rilasciata dall’Agenzia delle Entrate che attesta la regolarità fiscale di un’impresa, e all’impedimento che questa pone alla partecipazione a gare di appalto e di subappalto. Sono tutti esempi, questi, di come il passo tra la rilevazione e il contrasto dell’evasione tramite le tecnologie digitali e l’utilizzo della immensa mole di informazioni per creare un sistema di sorveglianza di massa, suscettibile di essere usato anche al di fuori dei procedimenti tributari, quindi non solo per il recupero dei tributi ma anche per applicare agli evasori o presunti tali restrizioni giuridiche generiche ovvero sproporzionate o ingiustificate rispetto alla condotta iniziale, è molto breve. Se questa fosse la direzione, si tratterebbe di iniziare a riflettere su rischi che non riguardano solo la persona/contribuente direttamente interessata ma anche la collettività nel suo complesso. Il fatto di sapere di essere tracciati può influenzare i comportamenti individuali, anche oltre l’obbligo fiscale, e può altresì creare un clima di allerta permanente, riducendo libertà individuali di spesa, di risparmio, di investimento. Per non considerare, quanto ancor più gravi sarebbero le ripercussioni sull’ordinamento democratico se i dati raccolti per fini fiscali (con tutte le aleatorietà di correttezza e di prova che, come si è visto, contraddistinguono le situazioni di evasione o elusione fiscale) potrebbero essere utilizzati per scopi diversi: dall’osservazione dei contribuenti si passerebbe a un sistema, velatamente punitivo, di sorveglianza di massaxxiv.

7. Un argine in tal senso sembrerebbe posto dal GDPR, che, all’art. 22, sancisce il diritto dell’interessato a non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona.

Sappiamo pure però, come si diceva, che lo stesso GDPR all’art. 23 prevede limitazioni a tale diritto proprio in materia tributaria e che il Codice in materia di protezione dei dati personalixxv, all’art. 2-undecies, sancisce la possibilità di limitare i diritti di cui agli artt. da 15 a 22 del GDPR qualora dall’esercizio di tali diritti possa derivare un pregiudizio effettivo e concreto «agli interessi tutelati in materia tributaria e allo svolgimento delle attività di prevenzione e contrasto all’evasione fiscale» e quindi, per lo meno in ambito fiscale, tale rischio rimanexxvi.

Né del resto particolari deterrenti a una profilazione spinta del contribuente si rinvengono nell’AI Actxxvii, nella misura in cui tale normativa, proprio per i sistemi di IA specificamente destinati a essere utilizzati per procedimenti amministrativi dalle Autorità fiscali e doganali (c.do 59), per fini di prevenzione, accertamento, indagine e perseguimento di reati, esclude che possano essere classificati come sistemi di IA ad alto rischio: come dire che l’utilizzo di tali sistemi dall’Amministrazione finanziaria non è soggetto a particolari condizioni od obblighi, se non quelli – minimi – di trasparenza informativa secondo cui il contribuente va reso edotto del fatto che sta interagendo con un sistema artificiale o che un determinato contenuto è creato grazie anche a un’IA.

Una corretta applicazione dell’AI Act imporrebbe forse l’adozione delle cautele imposte dal Regolamento per i sistemi ad alto rischio, quali si prefigurerebbero quelli che, oltrepassando la barriera tributaria, esporrebbero il contribuente a conseguenze ulteriori e diverse dall’azione amministrativa di contrasto dell’evasione fiscale.

Alcuni dubbi sul fatto che la direzione intrapresa sia quella di un rafforzamento, anche interpretativo, delle garanzie in tema di tutela della sfera di riservatezza privata sembrano di recente essere stati sollevati dal Digital Omnibus, la proposta di Regolamento del 19 novembre 2025 avanzata dalla Commissione europeaxxviii che, usando il Data Act come modello centrale e intervenendo su GDPR e AI Act, mira a unificare le regole su dati personali, non personali e riuso dei dati da parte di soggetti pubblici e privati. Tra le modifiche più incisive proposte in sede europea spicca quella relativa alla ridefinizione della nozione di dato personale, contenuta nell’art. 4 GDPR, che consente di passare da un criterio oggettivo (secondo cui i dati sono personali quando potrebbero identificare qualcuno) a uno soggettivo (le informazioni potranno non essere considerate personali per una determinata entità quando la stessa non può identificare la persona fisica a cui si riferiscono le informazioni, tenendo conto dei mezzi che è ragionevolmente probabile vengano da essa utilizzati). Se già in questo modo si indebolirebbero di fatto le garanzie per il trattamento dei dati personali, con possibile legittimazione di un uso libero degli stessi (per addestramento IA, profilazione, marketing, decisioni automatizzate) solo perché chi li tratta potrebbe (o non vorrebbe) identificarli come dati personali, la proposta di proroga, altresì contenuta in tale documento, per la piena applicazione di alcune obblighi dell’AI Act per i sistemi ad alto rischio, rischia di ritardare tutele fondamentali in settori delicati, come quello sanitario, con potenziali danni a salute, sicurezza, diritti, ambiente, democrazia.

Pur nei limiti di una normativa non tecnica e di fonte ordinaria, qualche spunto apprezzabile, nell’ottica dell’orientamento negli usi sempre più pervasivi di sistemi tecnologici complessi anche da parte dell’Amministrazione, è contenuto nella recente L. 23 settembre 2025, n. 132, la prima legge nazionale europea a introdurre una disciplina su questi temi (solo in Danimarca è in corso di approvazione una proposta di legge che riconosce il diritto d’autore su volto, voce e corpo, per proteggere i cittadini dagli abusi dell’Intelligenza artificiale generativa).

Tale documento normativo, segna la maturazione di un maggior livello di consapevolezza nel ricorso a sistemi digitali avanzati nel contesto dell’esercizio di poteri amministrativi, stabilendo i principi e gli indirizzi generali – in buona parte ripresi dal recente AI Act – che il Governo dovrà seguire, trattandosi di una legge delega, nei successivi decreti attuativi.

La legge non introduce in vero divieti assoluti sulla profilazione automatizzata, limitandosi a rafforzare i principi di supervisione umana e spiegabilità. Ogni decisione automatizzata deve rimanere sotto controllo umano effettivo, garantendo all’interessato il diritto di comprendere la logica utilizzata e di contestare le decisioni che lo riguardano. Permane dunque il rischio che anche alla luce di tale normativa continuino a rafforzarsi sistemi di tracciamento accurato dei contribuenti, con possibilità di refluenze – come si è detto – che travalichino il perimetro tributario.

Peraltro, come sottolineato nei primissimi commentixxix sebbene l’art. 14 disciplini espressamente l’uso dell’Intelligenza artificiale nella Pubblica Amministrazione sorge pure il dubbio che la legge non trovi applicazione in ambito fiscale, in virtù delle specificità che notoriamente accompagnano la nostra materia. Le ragioni di tali tentennamenti sono da ricondurre essenzialmente al rapporto tra tale legge e il Regolamento europeo, e dunque alla corretta individuazione degli spazi di manovra del legislatore nazionale, oltre che in minima parte alle specificazioni contenute all’interno della legge stessa.

Bisogna infatti considerare quanto già detto a proposito della non inclusione nell’AI Act tra i sistemi ad alto rischio di quelli utilizzati in ambito fiscale. In virtù della vincolatività del Regolamento, sembrerebbe non esserci la possibilità per il legislatore nazionale di ribaltare tale qualificazione, ma solo di prenderne atto, il che potrebbe significare: o l’esclusione a priori per i sistemi impiegati in ambito fiscale (e doganale) di qualsiasi apparato garantistico oppure l’associabilità a questi sistemi, comunque considerabili non ad alto rischio, di un regime di garanzie diverso, calibrato sulle caratteristiche specifiche dell’attenuato potenziale lesivo, che vada a colmare lo scarto tra il livello di protezione massima, previsto in altri casi dal legislatore europeo, e la mancata previsione di protezione alcuna. Delle due vie interpretative, sembrerebbe preferibile la seconda, considerando che in tal caso non si tratterebbe di abbassare le garanzie fissate dall’AI Act o di introdurre misure che ne compromettano l’efficacia, né di prevedere un livello di protezione più elevato (con potenziale elusione della vincolatività del Regolamento). Più semplicemente, la normativa nazionale integrerebbe quella europea in quel frangente non considerato della protezione avverso sistemi a basso rischio utilizzati dall’Autorità fiscale (o doganale), ferma restando in ogni caso la possibilità di una diversa classificazione – lasciata aperta dall’uso del condizionale (non dovrebbero essere classificati, cdo. 59) – di considerare ad alto rischio quegli strumenti digitali impiegati anche in ambito fiscale qualora nel concreto ricorrano le condizioni indicate dal legislatore europeo (incidenza sulla vita delle persone, sulla sicurezza o sui diritti fondamentali)xxx.

8. Un Fisco tecnologicamente potenziato offre senz’altro un freno importante alle pratiche di scorrettezza contributiva, arrivando forse nel tempo ad arginare un fenomeno percepito come socialmente ingiusto quale è l’evasione, ma rimane ancora molto da riflettere su come evitare che, in nome di un auspicato raggiungimento del benessere comune, il prezzo imposto sia invece il sacrificio certo di prerogative di libertà del singolo.

Ad oggi la riflessione intorno alla tutela della riservatezza del contribuente sembra aver assorbito, sgretolandole, le perplessità intorno a una necessaria invasione della sua sfera privata, rivelando la portata di un ostacolo tutto sommato sormontabile in ragione delle esigenze, anche operative, degli Uffici fiscali.

Là dove, però, in ragione soprattutto della digitalizzazione, non è più l’Amministrazione finanziaria a dover penetrare la barriera – talvolta di opposizione – esistente tra la stessa e i dati fiscalmente rilevanti del contribuente ma è il contribuente che, quasi paradossalmente, deve in qualche modo resistere a uno stato di perenne osservazione (e di conseguente potenziale trasfigurazione dei suoi dati in informazioni) che il Fisco è in grado di realizzare attraverso un variegato – e costantemente alimentato – patrimonio informativo, il problema della tutela della riservatezza si carica di nuove e più serie questioni.

Mentre gli spazi e i momenti di interferenza tra potere e soggezione si ampliano e, con essi, le occasioni di contestazioni, rese in teoria più puntuali dalla particolareggiata descrizione della situazione economica del contribuente che le tecnologie forniscono all’Amministrazione, specularmente però si contraggono pure le possibilità per il contribuente di resistere a un potere di controllo sproporzionato rispetto al fine, che dovrebbe comunque rimanere l’unico, della corretta ricostruzione della capacità contributiva.

Evocare il principio di proporzionalità con riferimento ai poteri istruttori significa rimandare al complesso delle prescrizioni che, nella fase di raccolta di dati o di verifica delle condotte dei contribuenti, impongono un giusto bilanciamento tra esigenze di indagine e interessi dei privatixxxi, e avvedersi dei limiti di una normativa che ricollega al singolo atto, e non a un’attività nel suo complesso, una diversa graduazione delle tutele a seconda del grado di rilevanza della situazione giuridica soggettiva intercettata dall’intervento pubblico.

Nel preponderante sviluppo delle indagini nei luoghi digitali, l’obbligo di ponderazione degli interessi coinvolti sembra quasi essere ex se assolto, non essendovi per quei luoghi, a differenza di quelli fisici, alcuna prerogativa escludente l’ingresso ispettivo dell’Amministrazione, la quale può accedervi e attingere qualsivoglia contenuto senza necessità di valutare alternative meno invasive per il contribuente. Nella scelta di quali e quanti poteri conoscitivi esercitarexxxii, essa sfugge all’obbligo di attenersi a un criterio di proporzionalità, rivelando così i contorni di una nuova modalità di esercizio del potere di fatto sguarnito della possibilità di salvaguardia degli interessi dei soggetti coinvolti.

In disparte la questione dell’interferenza con una vera e propria riservatezza in rete del privato – il cui riconoscimento, si ribadisce, appare in realtà poco verosimile, anche se nel complesso un’osservazione perenne appare discutibile – la questione sembra rinviarsi al momento dell’utilizzo di risultanze frutto di elaborazioni digitali.

Benché suffragate da riscontri ‘umani’ esterni, la cui ampiezza di questi può in ogni caso ridursi a una semplice acritica acquisizione del risultato algoritmico, non è da escludersi che le rilevazioni automatiche di anomalie determinino ingiustificati aggravi istruttori, per il contribuente chiamato, ad esempio, anche solo prima di una formale contestazione, a spiegare incongruenze inesistenti (poiché magari il software non è aggiornato o ha avuto una cosiddetta allucinazione) ma che assumono credibilità attraverso quella che potremmo definire una ‘presunzione di superiorità di calcolo’ riconosciuta ai sistemi informatici di ultima generazione.

Altrettanto verosimile è che, a fronte di una comunicazione dell’incongruenza rilevata, il contribuente non sia in grado di spiegare l’origine dell’anomalia, andando incontro all’accertamento, là dove per la nota opacità algoritmica o per le ricostruzioni effettuate base di dati di scarsa qualità sia impossibile per lui rintracciare l’errore o il luogo dell’errorexxxiii.

E ancora, l’attivazione di più incisivi poteri di controllo, sulla base dell’osservazione su vasta scala dei contribuenti, può determinare un inutile dispendio di risorse pubbliche là dove ci si avvede, con controlli altrettanto ampi e dispendiosi, che le anomalie, erroneamente rilevate dall’algoritmo, siano prive di consistenza.

Nella prospettiva, dunque, di un bilanciamento tra interessi pubblici e prerogative private, queste ultime tendenzialmente più sacrificate nel mutato contesto di rilevazione algoritmica delle situazioni di rischio fiscale, sarebbe forse auspicabile che, in corrispondenza dell’emersione di nuove inflessioni nell’esercizio dei poteri istruttori, si provveda pure a un riammodernamento dei meccanismi di tutela attivabile dal contribuente in questa fase.

Un primo nucleo di presidi potrebbe essere identificabile in relazione alla selezione dei dati, la cui integrità ed esattezza, sinergicamente ricollegabili all’efficacia dell’azione di analisi algoritmica del rischio fiscale, andrebbero sin da questa fase garantite. La previsione di divieti espliciti per l’Amministrazione finanziaria di ricorrere a tecniche di raccolta indiscriminata di dati, variamente denominata web scraping o data scraping, eviterebbe ogni contaminazione con elementi informativi di dubbia qualità sia dei dati già esistenti all’interno delle banche dati ufficiali sia dei processi di elaborazione degli stessi. Come suggerito dallo stesso Presidente dell’Autorità Garante della Privacyxxxiv, un utilizzo di dati esterni potrebbe semmai rilevare in un secondo momento quando, dopo che sia stata già riscontrata un’anomalia sulla base di fonti informative qualificate, l’Amministrazione ricerchi elementi al fine di corroborare o escludere la fondatezza dello scostamento rilevato, ma non in fase di individuazione stessa del rischio. Paradossalmente, l’eliminazione del riferimento alla possibilità di utilizzo delle ‘informazioni pubblicamente disponibili’ nelle attività di controllo, come previsto dall’art. 2, comma 3, D.Lgs. n. 13/2024 a seguito del Parere del Garante della Privacy, sembrerebbe contrastare con tale interpretazione, benché questa soluzione tuttavia sia forse utile a conferire maggiore efficacia all’azione di contrasto dell’evasione, consentendo la correzione di potenziali errori o distorsioni nel processo decisionale automatizzato. La previsione, inoltre, di obblighi procedimentali quale la necessaria indicazione del livello di attendibilità del dato utilizzato ovvero l’allegazione dell’estrazione dei dati utilizzati agevolerebbe il contribuente nella verifica della consistenza della incongruenza rilevata, in una con il diritto a ottenere una rettifica in caso di dati inesatti e dunque suscettibili di determinare una rappresentazione distorta della capacità contributiva. Altrettanto auspicabile sarebbe la predilezione verso modelli di consenso esplicito (opt-in), e non di esclusione su richiesta (opt-out), tutte le volte in cui venga ampliato il bacino dei dati utilizzabili dall’Amministrazione finanziaria. A tal proposito, appare discutibile la recentissima previsione di una possibilità di accesso automatico a dati personali quali sono le spese sanitarie, di recente rese consultabili dall’Agenzia delle Entrate in caso di controllo formale sulla dichiarazione dei redditi. Come stabilito dal decreto MEF 29 ottobre 2025, «il Sistema TS […] rende disponibili ai dipendenti della medesima Agenzia delle entrate, incardinati nell’ufficio territorialmente competente all’attività di controllo, le funzionalità per la consultazione dei dati di dettaglio delle spese veterinarie e sanitarie relative al contribuente e ai familiari fiscalmente a carico individuati in base alla dichiarazione presentata» (art. 1), escludendo dalla consultazione i dati per i quali il contribuente ha esercitato un diritto di opposizione. Anche in questo caso, pare evidente la contraddizione: se lo scopo della previsione è un alleggerimento degli adempimenti dei contribuenti, sollevati dalla necessità di esibire i documenti cartacei, sarebbe forse stato più opportuno lasciare al contribuente la possibilità di scelta della comunicazione e non di opporsi, con tutte le difficoltà anche pratiche, a un sistema automatico di raccolta di dati (per definizione) sensibili.

Un secondo fronte sul quale forse occorrerebbe muoversi è quello dell’adeguamento dei diritti tradizionali al contesto digitale: garanzia di accesso a dati algoritmici o informatici in fase istruttoria, potenziamento del contraddittorio preventivo, con automatica espunzione delle potenziali contestazioni di cui né il contribuente né l’Ufficio riescono a giustificare la fondatezza, rafforzamento dell’obbligo di motivazione, notoriamente piuttosto scarna nella fase di analisi del rischio, o previsione di una specifica motivazione algoritmica che, più che la logica di funzionamento del programma informatico, riveli il tipo di elaborazioni effettuate e i fattori decisionali determinanti.

In ogni caso, infine, la previsione di divieti puntuali di utilizzazione delle risultanze acquisite dal Fisco, anche in sede di rilevazione del rischio fiscale, per fini che travalicano quelle di contrasto all’evasione e all’elusione fiscale concilierebbe l’imprescindibilità della digitalizzazione in campo tributario con il rispetto, altrettanto ineludibile, di superiori esigenze di civiltà.

(*) Il saggio riprende, con le opportune rivisitazioni e i necessari aggiornamenti, la relazione svolta al Convegno Segreti e trasparenze. Demodinamiche, tecnologie, forme di vita, conflitti, tenutosi a Catania il 9 e il 10 giugno 2025 presso il Dipartimento di Scienze Politiche e Sociali.

i Cfr. Corte cost., sent. 23 dicembre 2019, n. 288 e Antonini L., L’intelligenza artificiale come newcomer nella relazione tra dovere tributario, interesse fiscale e diritti costituzionali, in Logozzo M. (a cura di), I Percorsi della riforma tributaria, Pisa, 2025, 253 ss.

ii Sull’uso degli strumenti digitali nell’attività di analisi del rischio fiscale, significative le considerazioni di: Salanitro G., Una prima lettura sull’impatto della legge sull’intelligenza artificiale nel diritto tributario, tra consultazione semplificata e analisi del rischio, in Riv. tel. dir. trib., 2025, 2 e pubblicato online il 9 ottobre 2025, www.rivistadirittotributario.it; Dorigo S. – Mercuri G., AI e Amministrazione finanziaria in Italia: analisi del rischio fiscale, attuazione del rapporto tributario e profili organizzativi, in Studi trib. eur., 2024, 14, 57 ss.; Quattrocchi A., Dall’Anagrafe tributaria all’interoperabilità delle banche dati: l’analisi del rischio fiscale e le ricadute sul procedimento di accertamento dei tributi, in Riv. trim. dir. trib., 2024, 4, 821 ss.; Ortoleva M., L’intelligenza artificiale nell’analisi del rischio fiscale tra auspicata efficienza e tutela dei diritti dei contribuenti, in Dir. prat. trib. int., 2024, 4, 1136 ss.; Pini I., Intelligenza artificiale e analisi del rischio di evasione fiscale, in Riv. trim. dir. trib., 2025, 3, 595 ss.

iii Per un approfondimento sul tema della digitalizzazione dell’Amministrazione finanziaria, si rinvia ex multis a: Carpentieri L. – Conte D. (a cura di), La digitalizzazione dell’Amministrazione finanziaria tra contrasto all’evasione e tutela dei diritti del contribuente, vol. I, Milano, 2023; Contrino A. – Montanari F. (a cura di), La digitalizzazione dell’Amministrazione finanziaria tra contrasto all’evasione e tutela dei diritti del contribuente, vol. III, Milano, 2023; Del Federico L. – Paparella F. (a cura di), Diritto tributario digitale, Pisa, 2023; Del Federico L., Sui diritti dei contribuenti nell’era della trasformazione digitale, in Dir. prat. trib. int., 2024, 1, 71 ss.; Farri F. – Marcheselli A. (a cura di), La digitalizzazione dell’Amministrazione finanziaria tra contrasto all’evasione e tutela dei diritti del contribuente, vol. IV, Milano, 2025; Fasola M., L’amministrazione algoritmica dei tributi, Milano, 2025; Marello E. – Contrino A. (a cura di), La digitalizzazione dell’Amministrazione finanziaria tra contrasto all’evasione e tutela dei diritti del contribuente, vol. II, Milano, 2023; Paparella F., L’ausilio delle tecnologie digitali nella fase di attuazione dei tributi, in Riv. dir. trib., 2022, 6, 617 ss.; Ricci C., Intelligenza artificiale e procedimento tributario tra “responsabilizzazione” dell’Amministrazione finanziaria e principio di legalità, in Tax News, 2 luglio 2025; Salanitro G., Attualità e prospettive dell’amministrazione algoritmica nel diritto tributario, in Logozzo M. (a cura di), I percorsi della riforma tributaria, cit., 301 ss.; Id., Algoritmi, intelligenza artificiale e responsabilità del funzionario e dell’amministrazione in materia tributaria, tra riserva di umanità, robot e discipline dell’Unione europea, in Salanitro G. (a cura di), Scenari dell’intelligenza artificiale, Uomo e Algoritmo nelle scienze sociali, Pisa, 2024; Id., Amministrazione finanziaria e Intelligenza Artificiale, tra titolarità della funzione e responsabilità, in Aleo S. (a cura di), Evoluzione scientifica e profili di responsabilità. I. Neuroscienze. II. Intelligenza artificiale. III. Tutela della persona e modelli di responsabilità, Pisa, 2022, 397 ss.; Tosi L., L’evoluzione digitale del sistema tributario, in Tax News, 18 aprile 2025.

iv Cfr. De Maio G., Semplificazione e digitalizzazione: un nuovo modello burocratico, Napoli, 2016, 121, 126 ss. Sul tema della digitalizzazione della Pubblica Amministrazione, si vedano pure: Brigante V., Buon andamento nell’amministrare e digitalizzazione: note di attualità e persistenti problematicità di un ‘inammissibile baratto’, in Colombini G.- D’Orsogna M. – Giani L. (a cura di), Territori e istituzioni. Problemi e prospettive nel tempo della Ripartenza, Napoli, 2023, 259 ss.; McGurk KC B. – Tomlinson J., Artificial Intelligence and Public Law, Bloomsbury Publishing PLC, London, 2025.

v Così Salanitro G., Amministrazione finanziaria e Intelligenza Artificiale, tra titolarità della funzione e responsabilità, cit., 427.

vi La Rosa S., Amministrazione finanziaria e giustizia tributaria, Torino, 2000, 41.

vii Cfr. Vanz G., I poteri conoscitivi e di controllo dell’amministrazione finanziaria, Padova, 2012, 22 ss.

viii Tale circostanza risulta confermata dalla Agenzia Entrate – Informativa sulla logica sottostante i modelli di analisi del rischio basati sui dati dell’archivio dei rapporti finanziari, pubblicata il 29 maggio 2023 sul proprio sito istituzionale, in cui si legge, a p. 6, che «Nello svolgimento del processo di analisi viene sempre garantito l’intervento umano e, di conseguenza, non si fa uso di alcun tipo di processo decisionale completamene automatizzato. Infatti, tutte le fasi summenzionate sono curate da personale specificamente individuato e, inoltre, gli esiti delle analisi non vengono utilizzati per l’emissione diretta di provvedimenti impositivi, bensì per segnalare alle strutture di controllo i contribuenti che presentano un elevato livello di rischio».

ix Junquè de Fortuny E. – Martens D. – Provost F., Predictive modeling with big data: is bigger really better?, in Big Data, 2013, 215 ss.

x Audizione in Commissione parlamentare di vigilanza sull’Anagrafe tributaria, 31 gennaio 2024, consultabile alla pagina: XIX Legislatura – Lavori – Resoconti delle Giunte e Commissioni.

xi Seduta n. 10 di mercoledì 29 ottobre 2025, consultabile alla pagina: XIX Legislatura – Lavori – Resoconti delle Giunte e Commissioni.

xii Agenzia delle Entrate, circ. 28 aprile 2016 16/E e Comando Generale della Guardia di Finanza, circ. 4 dicembre 2017, n. 1/2018.

xiii Parere del Garante su uno schema di decreto legislativo recante disposizioni in materia di accertamento tributario e di concordato preventivo biennale, 11 gennaio 2024.

xiv L’esempio classico è quello dei controlli delle dichiarazioni tributarie di cui all’art. 36-bis D.P.R. 29 settembre 1973, n. 600, per le imposte dirette, e all’art. 54-bis D.P.R. 26 ottobre 1972, n. 633, per l’IVA.

xv Sul tema della discriminazione dei contribuenti, osserva, condivisibilmente, Dorigo S., L’Amministrazione finanziaria e l’uso dell’intelligenza artificiale: gli indirizzi della delega fiscale e gli approdi (poco rassicuranti) in sede attuativa, in Riv. dir. trib., 2024, 6, 783, che vi è il rischio «che il funzionamento degli schemi automatizzati si indirizzi prioritariamente verso contribuenti già noti al fisco», considerata la modellazione – tipica dell’analisi probabilistica – basata su indici relativi alla pregressa condotta fiscale del contribuente.

xvi Sulla progressiva automazione dei controlli sui rimborsi IVA, si veda quanto dichiarato dal Direttore dell’Agenzia delle Entrate nell’indagine conoscitiva dinanzi alla Commissione parlamentare di vigilanza sull’Anagrafe tributaria del 29 ottobre 2025, già citata.

xvii Così Guidara A., Accertamento dei tributi e intelligenza artificiale: prime riflessioni per una visione di sistema, in Dir. prat. trib., 2024, 3, 396 ss. Sul tema, si vedano pure le riflessioni di: Spinello F., “Rivoluzione algoritmica” e accertamento dei tributi: prime riflessioni sull’attuazione della legge delega per la riforma fiscale, in Riv. tel. dir. trib., 2025, 2 e pubblicato online il 14 ottobre 2025, www.dirittotributario.it; Poddighe A. – Cramarossa M. – Valenti M. (a cura di), Documento di ricerca, CNDCEC, Intelligenza artificiale e accertamento tributario, 18 novembre 2024.

xviii Sul controverso rapporto però tra analisi del rischio fiscale e accertamento: Salanitro G., Una prima lettura sull’impatto della legge sull’intelligenza artificiale nel diritto tributario, tra consultazione semplificata e analisi del rischio, cit.; Cedro M. – Cimino F.A., Intelligenza artificiale ed accertamento tributario: opportunità e rischi di una rivoluzione in atto, in Dir. prat. trib. int., 2024, 1, 56 ss.; Fasola M., Le analisi del rischio di evasione tra selezione dei contribuenti da sottoporre a controllo e accertamento “algoritmico”, in Pierro M. – Ziccardi G. – Fasola M. – Capaccioli S. – Signorile O. (a cura di Ragucci G.), Fisco digitale, Cripto-attività, protezione dei dati, controlli algoritmici, Torino, 2023, 79 ss.; Quattrocchi A., Dall’Anagrafe tributaria all’interoperabilità delle banche dati: l’analisi del rischio fiscale e le ricadute sul procedimento di accertamento dei tributi, cit.

xix Come osserva Farri F., Digitalizzazione dell’Amministrazione finanziaria e diritti dei contribuenti, in Riv. dir. trib., 2020, 6, 133 «è bene chiarire che i risultati delle analisi predittive dei possibili comportamenti evasivi non possono essere utilizzati alla stregua di una presunzione di evasione, ma soltanto come fonte d’innesco di controlli di merito».

xx Con un «salto intuitivo»: così Falletti E., Discriminazione algoritmica. Una prospettiva comparata, Torino, 2022, 299.

xxi Sul punto, cfr. Pierucci A., Elaborazione dei dati e profilazione delle persone, in Cuffaro V. – D’Orazio R. – Ricciuto V. (a cura di), I dati personali nel diritto europeo, Torino, 2019, 413 ss.

xxii Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016 relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati.

xxiii Il Capo del Servizio Assistenza e consulenza fiscale della Banca d’Italia, Giacomo Ricotti, nell’Indagine conoscitiva su Misure di contrasto all’evasione fiscale, sicurezza delle banche dati dell’anagrafe tributaria e tutela della riservatezza dei dati dei contribuenti in Commissione parlamentare di vigilanza sull’anagrafe tributaria, del 25 settembre 2025, ha dichiarato che tra le basi dati alle quali l’Unità di Informazione Finanziaria per l’Italia (UIF) accede per legge rientrano anche alcune facenti parte del SIF, cioè anagrafe dei rapporti e anagrafe tributaria.

xxiv Cfr. Contrino A., Digitalizzazione dell’amministrazione finanziaria e attuazione del rapporto tributario: questioni aperte e ipotesi di lavoro nella prospettiva dei princìpi generali, in Riv. dir. trib., 2023, 2, 113, in cui si osserva che «per questa via può aprirsi la strada verso sistemi di public shame e di selezione automatizzata di cittadini virtuosi, come una sorta di patente digitale o green pass fiscale, che già sono in uso in Paesi come la Cina».

xxv D.Lgs. 30 giugno 2003, n. 196, noto come Codice privacy.

xxvi Sul tema della protezione dei dati dei contribuenti nei rapporti con l’Amministrazione finanziaria, si rinvia alle considerazioni di: Contrino A., Spinte evolutive (sul piano sovranazionale) e involutive (a livello interno) in tema di bilanciamento fra diritto alla protezione dei dati dei contribuenti ed esigenze di contrasto dell’evasione fiscale, in Riv. tel. dir. trib., 2023, 2, 533 ss.

xxvii Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024 che stabilisce regole armonizzate sull’intelligenza artificiale. Per approfondimenti sugli impatti dell’AI Act sulla disciplina interna dell’attività della Pubblica Amministrazione: Neri V., AI Act e diritto amministrativo, in Lavoro Diritti Europa, 2025, 1, 1 ss.; Gallone G., L’improcrastinabile esigenza di tracciare una via “italiana” per l’intelligenza artificiale nel procedimento amministrativo. Opportunità e legittimità di un intervento regolatorio nazionale a corredo dell’AI Act, in www.giustiziainsieme.it, 26 giugno 2025. Sotto lo specifico profilo tributario: Salanitro G., Una prima lettura sull’impatto della legge sull’intelligenza artificiale nel diritto tributario, tra consultazione semplificata e analisi del rischio, cit.; Poddighe A., Prime riflessioni sull’impatto dell’AI Act nei processi valutativi dell’amministrazione finanziaria, in Riv. dir. trib., 2025, 4, 455 ss.; Marinello A., L’utilizzo dell’intelligenza artificiale da parte del Fisco: limiti e prospettive, anche alla luce dell’Artificial Intelligence Act dell’Unione Europea, in Riv. tel. dir. trib., 2024, 2, 625 ss.

xxviii COM(2025) 837 final, Proposal for a Regulation of the European parliament and of the Council.

xxix Salanitro G., Una prima lettura sull’impatto della legge sull’intelligenza artificiale nel diritto tributario, tra consultazione semplificata e analisi del rischio, cit.

xxx Sottolinea altresì Salanitro G., Una prima lettura sull’impatto della legge sull’intelligenza artificiale nel diritto tributario, tra consultazione semplificata e analisi del rischio, cit., sempre a proposito della nuova legge italiana, come pure «si discuterà se si applica alla materia tributaria, dove non si hanno provvedimenti discrezionali ma atti vincolati. E l’art. 14 si riferisce ai provvedimenti (e ai procedimenti)».

xxxi Sul punto, cfr. Vanz G., I principi della proporzionalità e della ragionevolezza nelle attività conoscitive e di controllo dell’amministrazione finanziaria, in Dir. prat. trib., 2017, 5, 1912 ss. Per approfondimenti: Fransoni G., Le indagini tributarie: attività e poteri conoscitivi nel diritto tributario, Torino, 2020; Mendola D., Il principio di proporzionalità nell’esercizio del potere impositivo, Torino, 2025; Mercuri G., Il principio di proporzionalità nel diritto tributario, Milano, 2024.

xxxii Cfr. amplius Vanz G., I principi della proporzionalità e della ragionevolezza nelle attività conoscitive e di controllo dell’amministrazione finanziaria, in Dir. prat. trib., 2017, 5, 1924 ss.

xxxiii Condivisibili le osservazioni di Funari A., La data quality nell’attività digitalizzata di controllo e accertamento dei contribuenti, in Riv. dir. trib., 2025, 4, 505 ss., a proposito della impossibilità per il contribuente di attivare consapevolmente le proprie garanzie difensive se le comunicazioni di anomalia si fondano su dati acquisiti dal web e non resi noti.

xxxiv Relazione al Convegno I sistemi informativi del fisco per il contrasto all’evasione fiscale, Montecitorio, 25 novembre 2025.

Scarica il commento in formato pdf

Tag:, , , , ,