L’utilizzo dell’intelligenza artificiale da parte del Fisco: limiti e prospettive, anche alla luce dell’Artificial Intelligence Act dell’Unione Europea

Di Antonio Marinello -

Abstract (*)

L’utilizzo dell’intelligenza artificiale nelle attività di prevenzione e di contrasto all’evasione fiscale è oggi al centro di un esteso dibattito. Se, da un lato, è auspicabile un più incisivo impiego dei sistemi di intelligenza artificiale per “disincagliare” quella enorme mole di dati e informazioni già a disposizione dell’Amministrazione finanziaria, dall’altro sono evidenti i rischi che potrebbero derivare dalla completa sostituzione dell’intervento umano, oltre che le implicazioni sotto il profilo della tutela del diritto di protezione dei dati personali dei contribuenti. Rispetto a questi temi, la soluzione accolta nell’Artificial Intelligence Act (AI Act) dell’Unione Europea non è certo soddisfacente, in quanto i sistemi di intelligenza artificiale specificamente destinati ad essere utilizzati per procedimenti amministrativi dalle Autorità fiscali e doganali «non dovrebbero essere classificati come sistemi di IA ad alto rischio» (così, testualmente, il Considerando n. 59, ove si riconosce, peraltro, che l’impatto dell’utilizzo degli strumenti di IA sul diritto di difesa e sulla tutela giurisdizionale effettiva «non dovrebbe essere ignorato, in particolare la difficoltà di ottenere informazioni significative sul funzionamento di tali sistemi e la difficoltà che ne risulta nel confutarne i risultati»).

The use of artificial intelligence by tax authorities: limits and perspectives, also in the light of the EU Artificial Intelligence Act – The use of artificial intelligence in tax evasion prevention and control activities is now at the centre of an extensive debate. While a broader use of artificial intelligence systems could be extremely useful in order to “unblock” the enormous amount of data and information already available to the financial administration, on the other hand, the risks that could arise from the complete replacement of human intervention are obvious, as well as the implications for the protection of taxpayers’ personal data. Regarding these issues, the solution adopted in the EU Artificial Intelligence Act (AI Act) is not satisfactory at all, as artificial intelligence systems specifically designed to be used for administrative procedures by tax and customs authorities «should not be classified as high-risk AI systems» (although it is also recognised that the impact of the use of IA tools on the right to defence and effective judicial protection «should not be ignored, in particular the difficulty of obtaining meaningful information on the operation of such systems and the resulting difficulty in refuting their results»).

Sommario: 1. L’utilizzo dell’intelligenza artificiale nell’applicazione dei tributi: considerazioni introduttive. – 2. “Non esclusività della decisione algoritmica” e “conoscibilità dell’algoritmo”: l’approccio seguito dalla giurisprudenza amministrativa. – 3. “Non esclusività della decisione algoritmica” e “conoscibilità dell’algoritmo” nell’istruttoria tributaria. – 4. Intelligenza artificiale, contrasto all’evasione fiscale e tutela del diritto di protezione dei dati personali dei contribuenti. – 5. L’utilizzo dell’intelligenza artificiale da parte delle Autorità fiscali nell’Artificial Intelligence Act (AI Act).

1. La legge delega per la riforma del sistema fiscale italiano (L. 9 agosto 2023, n. 111) ha tracciato con chiarezza la strada per un deciso impiego delle soluzioni di intelligenza artificiale da parte dell’Amministrazione finanziaria.

Le tecniche di intelligenza artificiale vengono espressamente richiamate già nell’art. 2, rubricato Principi generali del diritto tributario nazionale, laddove si dispone che il Governo delegato dovrà attivarsi per «prevenire, contrastare e ridurre l’evasione e l’elusione fiscale, anche attraverso la piena utilizzazione dei dati che affluiscono al sistema informativo dell’anagrafe tributaria, il potenziamento dell’analisi del rischio, il ricorso alle tecnologie digitali e alle soluzioni di Intelligenza artificiale, nel rispetto della disciplina dell’Unione europea sulla tutela dei dati personali (enfasi aggiunta)» . Ancora, l’utilizzo dell’IA viene previsto nell’art. 4 (Principi e criteri direttivi per la revisione dello statuto dei diritti del contribuente) per dare pronto e rapido supporto ai contribuenti in modo da fornire «risposte scritte mediante servizi di interlocuzione rapida, realizzati anche attraverso l’utilizzo di tecnologie digitali e di Intelligenza artificiale». E, in ulteriore dettaglio, l’art. 17, comma 1, lett. c) ed f), della legge delega delinea il possibile utilizzo dell’intelligenza artificiale in tre distinti ambiti di applicazione: il ricorso alle soluzioni di IA viene prefigurato anzitutto in vista degli obiettivi generali di prevenzione e di contrasto dell’evasione fiscale; l’impiego dell’intelligenza artificiale viene poi esplicitamente menzionato come strumento in grado di snellire i procedimenti di interpello per i contribuenti di dimensioni minori, facilitando così lo sviluppo di relazioni di stampo collaborativo tra le due parti del rapporto di imposta; in materia di accertamento, infine, l’IA viene indicata come chiave di volta per l’identificazione dei soggetti a più alto rischio fiscale, soprattutto attraverso la gestione e l’interconnessione delle banche dati.

In chiave comparata, la prospettiva adottata dal legislatore delegante si inserisce nel solco di alcune significative esperienze applicative, alcune già adottate, altre in via di imminente implementazione (in proposito si veda, per tutti, l’ampia e approfondita analisi condotta da Farri F., Digitalizzazione dell’amministrazione finanziaria e diritti dei contribuenti, in Riv. dir. trib., 2020, 6, V, 115 ss., specie 118 ss.).

Si pensi, tanto per fare qualche esempio, al caso della Francia, dove, ormai da qualche anno, vengono utilizzati strumenti di controllo dei social networks, al fine di raccogliere ed incrociare informazioni utili per l’individuazione della residenza fiscale effettiva delle persone fisiche. Oppure al caso del Brasile, dove è stato sviluppato da tempo un sistema doganale basato su meccanismi di machine learning (SISAM), che consentono di valutare in via automatica il rischio di irregolarità nelle importazioni di beni. O, ancora, alla previsione di una nuova strategia basata sull’IA negli Stati Uniti, dove l’Amministrazione finanziaria ha dato avvio, alla fine del 2023, ad un piano di controlli e di accertamenti su alcune delle più grandi partnerships (in questo caso, attraverso la programmazione e l’implementazione di una infrastruttura informatica complessa, finanziata attraverso un investimento di 80 miliardi di dollari in dieci anni, previsto dall’Inflation Reduction Act).

Ma anche rimanendo al nostro Paese, l’idea di affinare le attività di prevenzione e di contrasto all’evasione fiscale affidandosi ad uno strumentario sempre più avanzato di intelligenza artificiale non può dirsi del tutto nuova.

Consideriamo ad esempio il PNRR, uno dei cui obiettivi più ambiziosi (indicato come «riduzione del tax gap») dovrebbe passare anche attraverso lo sfruttamento più efficiente delle nuove tecnologie e di strumenti di data analysis, oltre che la pronta «applicazione di tecniche sempre più avanzate come intelligenza artificiale, machine learning, text mining (enfasi aggiunta)».

Nella stessa direzione è indirizzato il progetto «A data driven approach to tax evasion risk analysis in Italy», finanziato dall’Unione Europea nel 2021 (in merito al quale, Conte D., Digitalizzazione, data protection e tecniche di profilazione nell’attività di accertamento tributario: quali diritti per i contribuenti?, in Contrino A. – Marello E., a cura di, La digitalizzazione dell’amministrazione finanziaria tra contrasto all’evasione e tutela dei diritti del contribuente, Milano, 2023, II, 135; Dorigo S., L’intelligenza artificiale e i suoi usi pratici nel diritto tributario: Amministrazione finanziaria e giudici, in Cordeiro Guerra R. – Dorigo S., a cura di, Fiscalità dell’economia digitale, Pisa, 2022, 199 ss., specie 204 ss.), che si propone di innovare i processi di valutazione del rischio fiscale dei contribuenti attraverso strumenti di network science (rappresentazione di relazioni non immediatamente evidenti tra società, che possono far trasparire schemi di interposizione, evasione, o elusione fiscale); analisi visuale delle informazioni (adozione di interfacce innovative “uomo-macchina” con, ad esempio, modalità visuali fluide e intuitive di “navigazione” dei dati); e, appunto, intelligenza artificiale.

Così come l’applicativo Ve.Ra. – la cui introduzione è stata prevista in origine da una serie di disposizioni contenute nella Legge di Bilancio per il 2020 (art. 1, comma 682 ss., L. 27 dicembre 2019, n. 160), poi attuate nel giugno 2022 con un apposito decreto del MEF, a sua volta approvato in via preliminare dal Garante della privacy – che dovrebbe consentire all’Amministrazione finanziaria di incrociare ed elaborare, anche mediante l’utilizzo di tecniche di IA, tutte le informazioni contenute nell’Archivio dei rapporti finanziari e nelle altre banche dati (cfr. Consolo G., Sul trattamento dei dati personali nell’ambito delle nuove procedure automatizzate per il contrasto all’evasione fiscale, in Contrino A. – Marello E., a cura di, La digitalizzazione dell’amministrazione finanziaria tra contrasto all’evasione e tutela dei diritti del contribuente, cit., 179 ss.; Francioso C., Intelligenza artificiale nell’istruttoria tributaria e nuove esigenze di tutela, in Rass. trib., 2023, 1, 47 ss., specie 63-70), allo scopo di selezionare le liste di contribuenti da sottoporre a controllo e di rilevare anomalie fiscali da comunicare agli stessi mediante lettere di compliance.

Anche alla luce di tali precedenti, insomma, la linea d’azione pare dunque chiaramente tracciata. Si tratta di rendere operativi sistemi di intelligenza artificiale che consentano di “disincagliare” e di utilizzare (verrebbe da dire, finalmente) quella enorme mole di dati e informazioni già a disposizione dell’Amministrazione finanziaria (per più ampie considerazioni, cfr. Contrino A., Digitalizzazione dell’amministrazione finanziaria e attuazione del rapporto tributario: questioni aperte e ipotesi di lavoro nella prospettiva dei principi generali, in Riv. dir. trib., 2023, 2, I, 105 ss.; Farri F., Digitalizzazione dell’amministrazione finanziaria e diritti dei contribuenti, cit., 125 ss.).

Con una inevitabile nota a margine. L’acquisizione di dati è da tempo una realtà, il problema è stato finora il loro incrocio e l’utilizzo concreto, in ragione del fatto che fino a quando una simile attività di intelligence viene rimessa unicamente alla capacità del singolo funzionario emergono inevitabilmente i limiti dell’attività umana (così, in termini del tutto condivisibili, Paparella F., L’ausilio delle tecnologie digitali nella fase di attuazione dei tributi, in Riv. dir. trib., 2022, 6, I, 617 ss.).

Senza considerare i costi sin qui sostenuti e le risorse sin qui impiegate dagli intermediari finanziari, dai sostituti di imposta, dalla stessa Amministrazione finanziaria per raccogliere, inviare ed immagazzinare quei dati. In questo senso, allora, l’ausilio di sistemi intelligenti e il ricorso a meccanismi più efficienti dovrebbero essere salutati senz’altro con favore, in quanto consentirebbero finalmente un concreto utilizzo delle informazioni disponibili nelle varie banche dati (lo evidenzia in termini molto chiari Cordeiro Guerra R., L’intelligenza artificiale nel prisma del diritto tributario, in Dir. prat. trib., 2020, 3, 921 ss.).

2. Senonché, quella della maggiore efficacia dei controlli e, più in generale, della migliore efficienza dell’azione amministrativa, non può essere l’unica prospettiva nella quale collocare e studiare l’utilizzo delle nuove tecnologie, in particolare dell’intelligenza artificiale, nel diritto tributario.

Tra le questioni più interessanti che si profilano si deve ricordare anzitutto il tema della non esclusività della decisione algoritmica, peraltro già emerso in ambito amministrativo.

Il contributo della giurisprudenza amministrativa è in effetti di grande utilità per verificare se ed in che termini gli strumenti di intelligenza artificiale possano essere utilizzati in ambito tributario, muovendo proprio dal nucleo essenziale del concetto di algoritmo: risolvendosi quest’ultimo in una regola elaborata dall’uomo ed espressa in un linguaggio diverso da quello proprio del diritto (generalmente, attraverso una formula matematica contenente una sequenza finita di operazioni, dette anche istruzioni), che consente di risolvere una determinata tipologia di problemi utilizzando dati noti. Con la precisazione che lo sviluppo sempre più tumultuoso delle conoscenze informatiche e di sistemi computazionali sempre più efficienti ha permesso negli ultimi anni la sperimentazione di applicazioni algoritmiche tanto accurate da essere definite, appunto, “intelligenza artificiale”.

La casistica è piuttosto nota e riguarda il ricorso ad un algoritmo per le assegnazioni dei docenti di scuole pubbliche nelle varie sedi vacanti. Ebbene, in proposito il TAR del Lazio si è pronunciato nel senso che gli algoritmi, seppur costituiscono uno strumento idoneo e sempre più essenziale per garantire l’efficientamento dell’azione amministrativa, mantengono in ogni caso un carattere accessorio e strumentale in seno al procedimento e non possono mai soppiantare, sostituendola in modo integrale, «l’attività cognitiva, acquisitiva e di giudizio che solo un’istruttoria affidata ad un funzionario persona fisica è in grado di svolgere» (cfr. TAR Lazio, sez. III-bis, sent. 10 settembre 2018, n. 9224).

Decisione confermata, nella sostanza, dal Consiglio di Stato che, con la pronuncia resa dalla VI Sezione il 4 febbraio 2020, n. 881 ha da un lato ribadito la necessità di estendere quanto più possibile il ricorso ad uno strumentario informatico ed automatizzato sofisticato ed evoluto, al fine di snellire le procedure e di assicurare l’efficienza ed il buon andamento della Pubblica Amministrazione, ma dall’altro ha altresì evidenziato come l’impiego dell’intelligenza artificiale in sede decisoria pubblica incontri limiti precisi, che corrispondono a specifiche aspettative giuridiche degli interessati (oltre alla pronuncia appena citata si vedano, in senso conforme, Consiglio di Stato, sez. VI, 8 aprile 2019, n. 2270; Consiglio di Stato, sez. VI, 13 dicembre 2019, nn. 8472, 8473 e 8474).

In particolare, «anche alla luce della disciplina sovranazionale», secondo il Consiglio di Stato in caso di utilizzo di algoritmi da parte della Pubblica Amministrazione occorre garantire la piena riconducibilità della decisione all’organo titolare del potere, di modo che questo possa svolgere le necessarie verifiche in termini di «logicità e legittimità della scelta e degli esiti affidati all’algoritmo».

In altre parole, secondo la giurisprudenza amministrativa è necessario che l’esito finale dell’elaborazione algoritmica sia adeguatamente vagliato da un operatore umano, in quanto responsabile del procedimento. Il che implica poi, per forza di cose, anche la piena conoscibilità a monte dell’algoritmo utilizzato: solo in questo caso, infatti, sarà effettivamente possibile «verificare che i criteri, i presupposti e gli esiti del procedimento robotizzato siano conformi alle prescrizioni e alle finalità stabilite dalla legge e dalla stessa Amministrazione a monte di tale procedimento e affinché siano chiare – e conseguentemente sindacabili – le modalità e le regole in base alle quali esso è stato incorporato».

A quest’ultimo riguardo emerge, a ben vedere, un secondo profilo di notevole interesse, strettamente correlato al principio della non esclusività della decisione algoritmica, nel senso che, oltre all’intervento umano nell’assunzione della decisione finale, occorre altresì garantire la piena conoscibilità del modulo tecnico e dei criteri applicati per la definizione dell’algoritmo.

Si tratta, in sostanza, di conformare l’utilizzo delle procedure automatizzate ad una esigenza fondamentale di trasparenza, da riferire tanto alla stessa Pubblica Amministrazione titolare del potere per il cui esercizio viene previsto il ricorso alla strumentazione algoritmica, quanto ai soggetti interessati ed incisi dall’esercizio di tale potere.

L’algoritmo, in definitiva, deve risultare “conoscibile” secondo una declinazione rafforzata del principio di trasparenza, che implica la piena intelligibilità di una regola espressa in un linguaggio differente da quello giuridico. Conoscibilità dell’algoritmo che deve essere garantita in tutti gli aspetti: dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti.

In proposito, va ribadito che, la “caratterizzazione multidisciplinare” dell’algoritmo (costruzione che certo non richiede solo competenze giuridiche, ma tecniche, informatiche, statistiche, amministrative, ecc.) non esime dalla necessità che la “formula tecnica”, che di fatto rappresenta l’algoritmo, sia corredata da spiegazioni che la traducano nella “regola giuridica” ad essa sottesa e che la rendano leggibile e comprensibile.

3. Seguendo questa impostazione, nell’ottica che qui interessa si può dunque fissare un primo punto fermo, nel senso che l’esito dell’attività istruttoria svolta dall’Amministrazione finanziaria attraverso sistemi di intelligenza artificiale non dovrebbe mai condurre direttamente e automaticamente all’emanazione dell’atto impositivo: si tratterebbe, piuttosto, di una fase istruttoria interna, cui dovrebbe seguire un procedimento amministrativo fondato sul principio del contraddittorio, con l’intervento necessario del funzionario persona fisica (il punto è ampiamente condiviso dalla dottrina: si vedano, in proposito, Ragucci G., L’analisi del rischio di evasione in base ai dati dell’archivio dei rapporti con gli intermediari finanziari: prove generali dell’accertamento “algoritmico”?, in Riv. tel. dir. trib., 2019, 2, 261 ss.; Paparella F., Procedimento tributario, algoritmi e intelligenza artificiale: potenzialità e rischi della rivoluzione digitale, in Contrino A. – Marello E., a cura di, La digitalizzazione dell’amministrazione finanziaria tra contrasto all’evasione e tutela dei diritti del contribuente, Milano, 2023, II, 3 ss.; Guidara A., Accertamento dei tributi e intelligenza artificiale; prime riflessioni per una visione di sistema, in Dir. prat. trib., 2023, 2, 384 ss., specie 402 ss.).

Anche sulla scorta delle indicazioni provenienti dalla giurisprudenza del Consiglio di Stato, in sostanza, il ricorso all’algoritmo va correttamente inquadrato in termini di modulo organizzativo, di mero strumento procedimentale ed istruttorio, «soggetto alle verifiche tipiche di ogni procedimento amministrativo, il quale resta il modus operandi della scelta autoritativa, da svolgersi sulla scorta della legislazione attributiva del potere e delle finalità dalla stessa attribuite all’organo pubblico, titolare del potere». Con la conseguenza che, in campo tributario, l’ambito naturale di operatività degli algoritmi e dei sistemi di intelligenza artificiale non può che essere la fase istruttoria, come del resto è stato opportunamente confermato dal D.M. 15 luglio 2021 – nel quale i riferimenti ai big data, all’intelligenza artificiale e agli strumenti di machine learning sono espressamente limitati all’utilizzo delle banche dati nella fase dei controlli – e dalla più recente prassi amministrativa.

D’altra parte, in coerenza con quanto appena detto, le elaborazioni giurisprudenziali, dottrinali e legislative (si veda, tra l’altro, l’art. 14 dell’AI Act europeo, sul quale ci si soffermerà a breve, rubricato «Sorveglianza umana») degli ultimi tempi hanno già chiaramente individuato nel criterio della sorveglianza umana («human in the loop») l’elemento di garanzia in grado di assicurare il rispetto dei diritti e delle libertà fondamentali rispetto a decisioni basate esclusivamente sull’intelligenza artificiale e che possono incidere sulle posizioni giuridiche dei soggetti interessati.

In questo senso, il criterio «human in the loop» è stato inteso dalla dottrina quale possibile espressione di un vero e proprio principio generale, di derivazione europea, ma destinato ad avere una proiezione “globale”: il principio di non esclusività, appunto, in base al quale i sistemi di intelligenza artificiale non possono costituire l’unico elemento determinante nei processi decisionali di una autorità pubblica riguardanti i diritti e le libertà fondamentali della persona (cfr. Simoncini A., Verso la regolamentazione della Intelligenza Artificiale. Dimensioni e governo, in BioLaw Journal – Rivista di BioDiritto, 2021, 2, 411 ss., specie 416; Id., Il diritto ad un algoritmo “ragionevole”. Riflessioni su giustizia predittiva e Costituzione, in Mastroiacovo V., a cura di, Giocare con altri dadi. Giustizia e predittività dell’algoritmo, Torino, 2024, 37 ss.).

Impostazione che si rinviene, peraltro, molto chiaramente nell’art. 22 del GDPR, laddove si precisa che nel caso in cui una decisione automatizzata «produca effetti giuridici che riguardano o che incidano significativamente su una persona», questa ha diritto a che tale decisione non sia basata unicamente su tale processo automatizzato. Il che significa, detto in altre parole, che nel processo decisionale deve comunque esistere un contributo umano capace di controllare, validare ovvero smentire la decisione automatica (cfr. Simoncini A., L’algoritmo incostituzionale: intelligenza artificiale il futuro delle libertà, in BioLaw Journal – Rivista di BioDiritto, 2019, 1, 63 ss., specie 80).

Quanto alla seconda questione, ossia alle accennate esigenze di trasparenza, imparzialità e pubblicità – alla luce delle quali occorre riconoscere ed assicurare il requisito della conoscibilità dell’algoritmo – si tratta di profili che assumono un rilievo essenziale ai fini della motivazione dell’atto impositivo, nel senso che il contribuente deve essere messo nella condizione di comprendere appieno l’iter logico-giuridico attraverso il quale l’Amministrazione fiscale sia pervenuta ad una determinata ricostruzione, poi confluita nell’atto impositivo.

Pertanto, per riprendere la terminologia utilizzata dalla giurisprudenza amministrativa, la “formula tecnica” rappresentata dall’algoritmo dovrebbe essere sorretta e corredata da chiarificazioni ulteriori, che ne consentano la traduzione in una vera e propria “regola giuridica”, sulla quale fondare la legittimità dell’atto impositivo. Solo in tal modo, infatti, sarebbe possibile valutarne la razionalità intrinseca, tanto per il contribuente in vista del pieno esercizio del proprio diritto di difesa, quanto per il giudice nell’eventuale fase contenziosa, in quanto un controllo giudiziale compiuto deve poter far leva sulla razionalità della regola, sulla completezza dei dati acquisiti ed elaborati, sulla trasparenza delle informazioni raccolte e sulla loro rilevanza ai fini della definizione della fattispecie concreta.

Si consideri, al riguardo, lo scenario che si sta profilando in relazione all’applicativo Ve.Ra. Come detto, se ben poco si conosce a proposito delle caratteristiche operative e della programmazione sostanziale, alcuni importanti aspetti applicativi possono essere desunti dal D.M. 28 giugno 2022, dalla circ. 20 giugno 2022, n. 21/E, oltre che dalla valutazione di impatto del Garante della privacy del 30 luglio 2022.

Ora, senza indulgere in eccessivi tecnicismi, il sistema di intelligenza artificiale verrà applicato a regime ai soggetti titolari dei dati contenuti nell’Archivio dei rapporti finanziari e nelle altre banche dati a disposizione dell’Amministrazione finanziaria. L’analisi algoritmica consentirà di individuare le posizioni caratterizzate dalla presenza di uno o più fattori di rischio fiscale e le posizioni considerate “ad alto rischio” sulla base di questa specifica valutazione saranno incluse in apposite liste selettive da trasmettere agli Uffici territoriali per indirizzarne l’ordinaria attività di controllo.

L’inclusione nelle liste selettive potrà dunque determinare l’attivazione dei controlli tradizionali, con la possibilità che venga emesso un avviso di accertamento, o l’invito alla regolarizzazione della posizione fiscale mediante dichiarazione integrativa o ravvedimento operoso.

In ogni caso – ed è questo il punto che interessa maggiormente mettere a fuoco – ciascun atto indirizzato al contribuente dovrà illustrare «il profilo di rischio fiscale identificato e i dati che sono stati utilizzati per la sua individuazione», formula che sottintende (invero, piuttosto timidamente) la necessità di una motivazione adeguata, comprensiva tanto degli elementi informativi utilizzati, del processo di analisi compiuto e della metodologia seguita per individuare la specifica posizione da sottoporre a controllo, quanto di ogni altro elemento ulteriore di cui si sia avvalso l’Ufficio.

Con il rischio latente, semmai – già chiaramente evidenziato nella “valutazione di impatto” rilasciata dal Garante della privacy – che i funzionari delle Direzioni regionali, ai quali è riconosciuta la possibilità di «integrare le informazioni ricevute con quelle già in loro possesso e riesaminarle in base alla profonda conoscenza del territorio di riferimento», possano invece «ritenere più prudente non opporsi alle risultanze dei sistemi algoritmici, vanificando la garanzia connessa alla necessità dell’intervento umano nel processo decisionale» (così il Garante della privacy, nella valutazione di impatto resa il 30 luglio 2022, n. 276) e appiattendo così la motivazione degli atti impositivi su una mera reiterazione delle risultanze dei sistemi algoritmici.

4. Oltre ai profili appena citati, viene poi in considerazione il tema – emerso fragorosamente in tempi recenti proprio in ragione del sempre più incisivo ricorso alla tecnologia nel campo degli adempimenti tributari – della protezione dei dati personali acquisiti attraverso profilazioni di massa e immagazzinati nelle varie banche dati a disposizione dell’Amministrazione finanziaria.

La questione è ormai diventata centrale nel dibattito dottrinale (si vedano, per tutti, gli studi di Contrino A., Spinte evolutive [sul piano sovranazionale]e involutive [a livello interno]in tema di bilanciamento fra diritto alla protezione dei dati dei contribuenti ed esigenze di contrasto dell’evasione fiscale, in Riv. tel. dir. trib., 2023, 2, 533 ss.; Id., Banche dati tributarie, scambio di informazioni fra autorità fiscali e “protezione dei dati personali”: quali diritti e tutele per i contribuenti?, in Riv. tel. dir. trib., 2019, 1, I, 7 ss.; Marcheselli A. – RONCO S.M., Dati personali, Regolamento GDPR e indagini dell’amministrazione finanziaria: un modello moderno di tutela dei diritti fondamentali?, in Riv. dir. trib., 2022, 2, I, 98 ss.; Farri F., Digitalizzazione dell’amministrazione finanziaria e diritti dei contribuenti, cit., 115 ss.).

In questa sede, mi limito dunque a delineare il problema di fondo e a ricordare brevemente la traiettoria seguita dalla giurisprudenza, specie in ambito sovranazionale.

Il punto centrale è che il doveroso rispetto della privacy e la protezione dei dati personali pongono dei limiti all’acquisizione, alla conservazione e all’utilizzo delle informazioni da parte dell’Amministrazione finanziaria, nella prospettiva di un corretto bilanciamento tra esigenze di contrasto all’evasione fiscale e tutela della sfera personale del contribuente. In questo senso, il diritto del contribuente alla protezione dei dati può affermarsi, da un lato, come limite al massivo utilizzo di adempimenti che comportano l’acquisizione e la conservazione di grandi quantità di dati personali, non sempre di stretta rilevanza tributaria; dall’altro, come limite all’utilizzo di dati personali comunque acquisiti dall’Amministrazione per selezionare i contribuenti da assoggettare a controllo e ad accertamento (cfr. Contrino A., Protezione dei dati personali e pervasività delle banche dati fiscali: quale contemperamento?, in Contrino A. – Marello E., a cura di, La digitalizzazione dell’amministrazione finanziaria tra contrasto all’evasione e tutela dei diritti del contribuente, cit., 109 ss.; Pitruzzella G., Dati fiscali e diritti fondamentali, in Dir. prat. trib. int., 2022, 2, 666 ss.; Salanitro G., Amministrazione finanziaria e Intelligenza Artificiale, tra titolarità della funzione e responsabilità, in Aleo S., a cura di, Evoluzione scientifica e profili di responsabilità, Pisa, 2021, 414).

La questione del corretto bilanciamento tra il diritto alla riservatezza e alla protezione dei “dati personali” e i contrapposti interessi generali, peraltro, costituisce oggetto di approfondimento da parte della Corte Europea dei Diritti dell’Uomo e della Corte di Giustizia UE.

Come emerge dal recente caso L.B. c. Ungheria (riguardo al quale sia consentito rinviare a Marinello A., “Name and shame” e diritto al rispetto della vita privata: la Grand Chamber della Corte EDU censura la gogna mediatica per gli evasori fiscali, in Riv. dir. trib., 2023, 4, IV, 119 ss.; Id., Pubblicazione di dati personali dei contribuenti e rispetto della vita privata secondo la Corte EDU: la difficile ricerca di un equilibrio tra interesse fiscale e diritto alla riservatezza, in Riv. dir. trib., 2022, 1, IV, 12 ss.) e dalla giurisprudenza consolidata della Corte di Strasburgo, i “dati fiscali” del contribuente – compresi quelli bancari e finanziari – costituiscono infatti “dati personali”, i quali rientrano nell’ambito della tutela della riservatezza della vita privata assicurata dall’art. 8 CEDU, a prescindere dal fatto che questa disposizione non preveda propriamente ed in modo espresso la protezione di tali informazioni, bensì, testualmente, il rispetto della vita privata e familiare, nonché del domicilio e della corrispondenza.

E questa impostazione di fondo è condivisa anche dalla Corte di Giustizia UE, per la quale i dati fiscali del contribuente costituiscono a tutti gli effetti informazioni personali, con la conseguenza che la loro trasmissione da un’Amministrazione ad un’altra si configura senz’altro come un trattamento di dati protetti.

Per quanto detto, insomma, la raccolta, la conservazione ed il trattamento di dati personali, anche di carattere fiscale, da parte dell’Amministrazione finanziaria rilevano come una possibile ingerenza nella vita privata e nel diritto alla protezione delle informazioni personali, la cui legittimità deve essere valutata nel contesto dei principi sanciti dall’art. 8 CEDU e dagli artt. 7 e 8 della Carta dei diritti fondamentali dell’Unione Europea.

L’ingerenza deve trovare adeguata giustificazione in una precisa prospettiva teleologica, deve cioè essere motivata da uno o più scopi legittimi, tra i quali, per la Corte di Strasburgo, rientra l’interesse alla tutela del benessere dell’economia nazionale, oltre all’obiettivo della prevenzione e repressione dei reati e della tutela dei terzi. In quest’ottica, pertanto, possono essere giustificate le ingerenze nella riservatezza e nella protezione dei dati personali previste dalla legge e volte a verificare il corretto e tempestivo adempimento degli obblighi tributari, l’efficienza dei controlli dell’Amministrazione finanziaria, lo scambio di informazioni fiscali tra Stati, la prevenzione e il contrasto dell’evasione fiscale.

5. Ora, per chiudere il cerchio di queste considerazioni, risulta evidente quanto la prospettiva di un sempre più massiccio utilizzo dell’intelligenza artificiale sia suscettibile di incidere sul corretto bilanciamento fra tutela del diritto di protezione dei dati personali dei contribuenti ed esigenze di contrasto dell’evasione fiscale.

In questo senso, sarebbe stato lecito attendersi una adeguata considerazione di tale problematica da parte del legislatore europeo nel Regolamento sull’intelligenza artificiale (d’ora in avanti, anche AI Act), entrato in vigore il 2 agosto 2024. Come si vedrà subito, invece, la questione affiora soltanto tra le pieghe della (assai corposa) normativa europea e la soluzione che se ne ricava – per la verità in modo indiretto –non appare del tutto soddisfacente.

Cominciamo col dire che, in termini generali, la regolamentazione dell’intelligenza artificiale costituisce da tempo una priorità per il legislatore europeo e rappresenta altresì un banco di prova della capacità delle istituzioni continentali di trovare una collocazione adeguata alle nuove tecnologie all’interno della cornice dei valori, dei principi e delle regole comuni.

Da quest’ultimo punto di vista, come già avvenuto in occasione dell’approvazione del Regolamento europeo sulla protezione dei dati personali (“GDPR”), l’Unione Europea si è mossa con una indiscutibile (e forse eccessiva) rapidità, adottando un Regolamento che introduce una disciplina armonizzata sull’intelligenza artificiale, con l’intenzione di costituire un benchmark di riferimento per tutti i Paesi interessati ad accedere al mercato dell’Unione e con il chiaro obiettivo politico di presentarsi alla stregua un vero e proprio “regolatore globale” nell’ampio e variegato contesto della transizione tecnologica.

La proposta originaria della Commissione di adottare un Regolamento volto a stabilire «regole armonizzate sull’intelligenza artificiale» e a modificare conseguentemente alcuni importanti atti legislativi dell’Unione è stata pubblicata il 21 aprile 2021, seguita dall’orientamento conforme espresso dal Consiglio il 6 dicembre 2022, fino allo sbocco conclusivo, culminato nell’accordo politico raggiunto nel dicembre 2023 tra Parlamento Europeo e Consiglio sul testo dell’Artificial Intelligence Act, approvato con voto favorevole del Parlamento Europeo nel marzo del 2024.

Punto di partenza è naturalmente la definizione di “intelligenza artificiale”. Su richiesta del parlamento Europeo, la proposta originaria della Commissione è stata modificata nel corso delle diverse interlocuzioni, per avvicinarla quanto più possibile a quelle dell’OCSE. E così, per intelligenza artificiale si intenderà «un sistema basato su una macchina progettata per funzionare con diversi livelli di autonomia, che può mostrare adattività dopo l’implementazione e che, per obiettivi impliciti o espliciti, deduce, dagli input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali» (per un primo commento sulle nuove disposizioni e sulla portata della definizione, si veda Malaschini A., Il Regolamento europeo sull’intelligenza artificiale, l’orientamento italiano e i diversi indirizzi di Stati Uniti e Regno Unito, in Rassegna Parlamentare, 2024, 1, 35 ss.).

L’approccio seguito nel Regolamento europeo è di tipo sostanzialmente classificatorio, nel senso che il sistema di garanzie per gli utenti dei sistemi intelligenti viene ordinato in base a differenti “gradi di rischio” (cfr. Finocchiaro G., Intelligenza artificiale. Quali regole?, Bologna, 2024, 122 ss.).

Vengono così individuati sistemi di intelligenza artificiale caratterizzati da un livello di “rischio inaccettabile”; altri che presentano un livello di “rischio elevato”; altri ancora che sono classificati “a rischio moderato o minimo”.

I primi (sistemi di intelligenza artificiale che presentano un livello di rischio inaccettabile) sono vietati in modo assoluto, in quanto rappresentano una seria minaccia per i diritti fondamentali: si tratta, ad esempio, dei sistemi utilizzabili per scopi di manipolazione cognitivo-comportamentale dell’utente (ad esempio, giocattoli che utilizzano assistenti vocali per incoraggiare comportamenti pericolosi nei minori); dei sistemi c.d. di “social scoring” che assegnano un punteggio a ciascun individuo in base al suo comportamento, influenzando in questo modo l’accesso ai servizi, all’occupazione, o ad altre opportunità; dei sistemi di categorizzazione biometrica delle persone fisiche utilizzati per estrarre e elaborare dati sensibili (come l’orientamento sessuale o le credenze religiose) e dei sistemi finalizzati alla c.d. “polizia predittiva” e utilizzati per l’elaborazione di previsioni di crimini futuri.

I sistemi di IA “a rischio elevato” includono una vasta gamma di dispositivi, quali quelli utilizzati in infrastrutture critiche, dispositivi medici, nonché sistemi di identificazione biometrica, categorizzazione e riconoscimento delle emozioni. Alla luce del potenziale rischio associato a tali applicazioni, l’AI Act richiede che gli operatori di sistemi di intelligenza artificiale ad alto rischio effettuino una valutazione dell’impatto sui diritti fondamentali e che tale valutazione sia effettuata prima che tali sistemi siano immessi sul mercato.

Infine, la categoria residuale dei sistemi di IA che presentano rischi “moderati o minimi” comprende la maggior parte dei sistemi di intelligenza artificiale. Stando al Regolamento, la produzione e l’utilizzo di sistemi di IA che presentano solo un rischio limitato per i diritti e le libertà degli individui saranno soggetti a semplici obblighi di trasparenza (in pratica, l’obbligo di informare l’utente che sta interagendo con un sistema di intelligenza artificiale, o che un particolare contenuto è stato creato attraverso l’intelligenza artificiale).

Ebbene, per quanto qui interessa, i sistemi di intelligenza artificiale specificamente destinati ad essere utilizzati per procedimenti amministrativi dalle Autorità fiscali e doganali «non dovrebbero essere classificati come sistemi di IA ad alto rischio» (così, testualmente, il Considerando n. 59, ove si riconosce, peraltro, che l’impatto dell’utilizzo degli strumenti di IA sul diritto di difesa e sulla tutela giurisdizionale effettiva «non dovrebbe essere ignorato, in particolare la difficoltà di ottenere informazioni significative sul funzionamento di tali sistemi e la difficoltà che ne risulta nel confutarne i risultati»).

L’utilizzo di tali sistemi in ambito tributario, in sostanza, non è soggetto a particolari condizioni od obblighi, se non quelli riferibili all’area della trasparenza informativa, ossia, molto semplicemente, l’obbligo di informare l’utente (nel nostro caso, il contribuente sottoposto ai controlli fiscali) che sta interagendo con un sistema di intelligenza artificiale (e, dunque, che dati o informazioni che lo riguardano sono, o saranno utilizzati per una profilazione del rischio di evasione attraverso meccanismi di IA), o che un determinato contenuto (nel nostro caso, la comunicazione di irregolarità, la lettera di compliance, o qualunque altro atto di natura impositiva) è stato creato ricorrendo anche a sistemi di intelligenza artificiale.

Soluzione, invero, piuttosto minimalista, in quanto non considera in modo adeguato il possibile impatto dei più evoluti strumenti di intelligenza artificiale sul diritto fondamentale alla protezione dei dati personali dei contribuenti.

Anche in ragione di quanto affermato in altre parti del Regolamento – si veda, ad esempio, il Considerando n. 9, ove si legge che le norme «stabilite nel presente regolamento dovrebbero applicarsi in tutti i settori e, in linea con il nuovo quadro legislativo, non dovrebbero pregiudicare il vigente diritto dell’Unione, in particolare in materia di protezione dei dati, tutela dei consumatori, diritti fondamentali, occupazione e protezione dei lavoratori e sicurezza dei prodotti, al quale il presente regolamento è complementare (enfasi aggiunta)»; o, ancora, il Considerando n. 10, nel quale si afferma che il «presente regolamento non mira a pregiudicare l’applicazione del vigente diritto dell’Unione che disciplina il trattamento dei dati personali, inclusi i compiti e i poteri delle autorità di controllo indipendenti competenti a monitorare la conformità con tali strumenti» – in effetti, per garantire al meglio il rispetto di tale diritto fondamentale sarebbe stato certamente preferibile imporre l’obbligo di una valutazione preventiva dell’incidenza dei sistemi di IA (prima, cioè, della loro immissione sul mercato e del loro effettivo utilizzo da parte dell’Amministrazione), piuttosto che prevedere un semplice onere informativo a carico dell’Amministrazione, quando in realtà il sistema di intelligenza artificiale è già stato adottato ed è già entrato in funzione.

Vero è, per concludere queste notazioni, che entro diciotto mesi dall’entrata in vigore dell’AI Act la Commissione dovrà predisporre un elenco esemplificativo dei sistemi a rischio elevato e di quelli non considerati tali, elenco che potrà essere periodicamente sottoposto a revisione. Ciò lascia intendere che la classificazione attuale sulla base del livello di rischio non sia del tutto rigida e che, anzi, nel tempo possa essere aggiornata sulla base dell’esperienza applicativa dei vari sistemi e del loro impatto sui diritti fondamentali garantiti dall’Unione.

È dunque auspicabile che almeno in un prossimo futuro lo standard di tutela previsto per i contribuenti sotto il profilo della protezione dei dati sensibili possa essere innalzato, imponendo in via generalizzata nello spazio comune europeo una valutazione di impatto preventiva a carico dei sistemi di intelligenza artificiale destinati ad essere utilizzati nell’ambito dei controlli tributari.

BIBLIOGRAFIA ESSENZIALE

Adinolfi A., Evoluzione tecnologica e tutela dei diritti fondamentali: qualche considerazione sulle attuali strategie normative dell’Unione, in I Post di AISDUE n. 15, 14 marzo 2023, 321 ss.

Avanzini G., Decisioni amministrative e algoritmi informatici, Napoli, 2019

Avanzini G., Intelligenza artificiale e nuovi modelli di vigilanza pubblica in Francia e Olanda, in Giorn. dir. amm., 2022, 3, 316 ss.

Cassese S., Lo spazio giuridico globale, Roma-Bari, 2003

Cassese S., Il diritto globale. Giustizia e democrazia oltre lo Stato, Torino, 2009

Ciciriello M.C., Il principio di proporzionalità nel diritto comunitario, Napoli, 1999

Cirone E., L’AI Act e l’obiettivo (mancato?) di promuovere uno standard globale per la tutela dei diritti fondamentali, in Quaderni AISDUE, fasc. speciale 2/2024, La nuova disciplina UE sull’intelligenza artificiale, 2 ss.

Consolo G., Sul trattamento dei dati personali nell’ambito delle nuove procedure automatizzate per il contrasto all’evasione fiscale, in Contrino A. – Marello E. (a cura di), La digitalizzazione dell’amministrazione finanziaria tra contrasto all’evasione e tutela dei diritti del contribuente, vol. II, Milano, 2023, 179 ss.

Consolo G., Il nuovo applicativo di analisi del rischio fiscale “Ve.Ra.” nel processo di digitalizzazione dell’attività dell’Amministrazione finanziaria, in Il diritto dell’economia, 2023, 3, 153 ss.

Conte D., Digitalizzazione, data protection e tecniche di profilazione nell’attività di accertamento tributario: quali diritti per i contribuenti?, in Contrino A. – Marello E. (a cura di), La digitalizzazione dell’amministrazione finanziaria tra contrasto all’evasione e tutela dei diritti del contribuente, vol. II, Milano, 2023, 135 ss.

Contrino A., Banche dati tributarie, scambio di informazioni fra autorità fiscali e “protezione dei dati personali”: quali diritti e tutele per i contribuenti?, in Riv. tel. dir. trib., 2019, 1, I, 7 ss.

Contrino A., Digitalizzazione dell’amministrazione finanziaria e attuazione del rapporto tributario: questioni aperte e ipotesi di lavoro nella prospettiva dei principi generali, in Riv. dir. trib., 2023, 2, I, 105 ss.

Contrino A., Spinte evolutive (sul piano sovranazionale) e involutive (a livello interno) in tema di bilanciamento fra diritto alla protezione dei dati dei contribuenti ed esigenze di contrasto dell’evasione fiscale, in Riv. tel. dir. trib., 2023, 2, 533 ss.

Contrino A., Protezione dei dati personali e pervasività delle banche dati fiscali: quale contemperamento?, in Contrino A. – Marello E. (a cura di), La digitalizzazione dell’amministrazione finanziaria tra contrasto all’evasione e tutela dei diritti del contribuente, vol. II, Milano, 2023, 109 ss.

Contrino A. – Ronco S.M., Prime riflessioni e spunti in tema di protezione dei dati personali in materia tributaria, alla luce della giurisprudenza della Corte di giustizia e della Corte EDU, in Dir. prat. trib. int., 2019, 3, 599 ss.

Cordeiro Guerra R., L’intelligenza artificiale nel prisma del diritto tributario, in Dir. prat. trib., 2020, 3, 921 ss.

Dorigo S., Opportunità e limiti nell’impiego dell’intelligenza artificiale da parte del Fisco, in Corr. trib., 2022, 11, 965 ss.;

Dorigo S., L’intelligenza artificiale e i suoi usi pratici nel diritto tributario: Amministrazione finanziaria e giudici, in Cordeiro Guerra R. – Dorigo S., Fiscalità dell’economia digitale, Pisa, 2022, 199 ss.

Farri F., Digitalizzazione dell’amministrazione finanziaria e diritti dei contribuenti, in Riv. dir. trib., 2020, 6, V, 115 ss.

Fasola M., Le analisi del rischio di evasione tra selezione dei contribuenti da sottoporre a controllo e accertamento “algoritmico”, in Ragucci G. (a cura di), Fisco digitale. Cripto-attività, protezione dei dati, controlli algoritmici, Torino, 2023, 79 ss.

Ferrarese M.R., Le istituzioni della globalizzazione. Diritto e diritti nella società transnazionale, Bologna, 2000

Finocchiaro G., La giurisprudenza della Corte di giustizia in materia di dati personali da Google Spain a Schrems, in Il diritto dell’informazione e dell’informatica, 2015, 4/5, 779 ss.

Finocchiaro G., Intelligenza artificiale. Quali regole?, Bologna, 2024

Francioso C., Intelligenza artificiale nell’istruttoria tributaria e nuove esigenze di tutela, in Rass. trib., 2023, 1, 47 ss.

Galetta D.U., Algoritmi, procedimento ammnistrativo e garanzie: brevi riflessioni, anche alla luce degli ultimi arresti giurisprudenziali in materia, in Riv. it. dir. pubbl. com., 2020, 501 ss.;

Gallo F., Il futuro non è un vicolo cieco, Palermo, 2019

Guidara A., Accertamento dei tributi e intelligenza artificiale; prime riflessioni per una visione di sistema, in Dir. prat. trib., 2023, 2, 384 ss.

Junquera-Varela R.F. – Lucas-Mas C.O. – Krsul I. – Calderon V. – Arce P., Digital Transformation of Tax and Customs Administrations. EFI Insight – Governance Series. Washington, DC: World Bank, 2022, 6 ss.

Koche R., L’intelligenza artificiale a servizio della fiscalità: il sistema brasiliano di selezione doganale attraverso l’apprendimento automatico (SISAM), in Dorigo S. (a cura di), Il ragionamento giuridico nell’era dell’intelligenza artificiale, Pisa, 2020, 333 ss.

Kokott J. – Sabotta C., The distinction between privacy e data protection in the jurisprudence of the CJJEU and the ECtHR, in Int’l Data Privacy, 2013, 222 ss.

Lo Sapio G., La black box: l’esplicabilità delle scelte algoritmiche quale garanzia di buona amministrazione, in www.federalismi.it, 30 giugno 2021

Longo E., I processi decisionali automatizzati e il diritto alla spiegazione, in Pajno A. – Donati F. – Perrucci A. (a cura di), Intelligenza artificiale e diritto: una rivoluzione?, vol. II, Bologna, 2022, 349 ss.

Machado H., Artificial intelligence and tax administration: uses and challenges in Brazil, in Dorigo S. (a cura di), Il ragionamento giuridico nell’era dell’intelligenza artificiale, Pisa, 2020, 349 ss.

Maglione P.S., La Pubblica Amministrazione “al varco” dell’Industria 4.0: decisioni automatizzate e garanzie procedimentali in una prospettiva human oriented, in Amministrazione in cammino, 26 maggio 2020, 35

Malaschini A., Il Regolamento europeo sull’intelligenza artificiale, l’orientamento italiano e i diversi indirizzi di Stati Uniti e Regno Unito, in Rassegna Parlamentare, 2024, 1, 35 ss.

Marcheselli A. – Ronco S.M., Dati personali, Regolamento GDPR e indagini dell’amministrazione finanziaria: un modello moderno di tutela dei diritti fondamentali?, in Riv. dir. trib., 2022, 2, I, 98 ss.

Marinello A., Pubblicazione di dati personali dei contribuenti e rispetto della vita privata secondo la Corte EDU: la difficile ricerca di un equilibrio tra interesse fiscale e diritto alla riservatezza, in Riv. dir. trib., 2022, 1, IV, 12 ss.

Marinello A., “Name and shame” e diritto al rispetto della vita privata: la Grand Chamber della Corte EDU censura la gogna mediatica per gli evasori fiscali, in Riv. dir. trib., 2023, 4, IV, 119 ss.

Mondini A., Contributo allo studio del principio di proporzionalità nel sistema dell’IVA europea, Pisa, 2012

Moschetti G., Il principio di proporzionalità come “giusta misura” del potere nell’evoluzione del diritto tributario, Milano, 2015

Palumbo G., Fisco e privacy. Il difficile equilibrio tra lotta all’evasione e tutela dei dati personali, Pisa, 2021

Paparella F., L’ausilio delle tecnologie digitali nella fase di attuazione dei tributi, in Riv. dir. trib., 2022, 6, I, 617 ss.

Paparella F., L’ausilio delle tecnologie digitali nell’applicazione dei tributi, in Del Federico L. – Paparella F. (a cura di), Diritto tributario digitale, Pisa, 2023, 163 ss.

Paparella F., Procedimento tributario, algoritmi e intelligenza artificiale: potenzialità e rischi della rivoluzione digitale, in Contrino A. – Marello E. (a cura di), La digitalizzazione dell’amministrazione finanziaria tra contrasto all’evasione e tutela dei diritti del contribuente, vol. II, Milano, 2023, 3 ss.

Parente S.A., Le funzioni giurisdizionali e di accertamento tributario nell’epoca della data economy e dei sistemi di cloud computing: l’ausilio di intelligenze artificiali, big data e algoritmi informatici, in Euro-Balkan Law and Economics Review, 2023, 1, 92 ss.

Pitruzzella G., Dati fiscali e diritti fondamentali, in Dir. prat. trib. int., 2022, 2, 666 ss.

Ragucci G., L’analisi del rischio di evasione in base ai dati dell’archivio dei rapporti con gli intermediari finanziari: prove generali dell’accertamento “algoritmico”? in Riv. tel. dir. trib., 2019, 2, 261 ss.

Salanitro G., Amministrazione finanziaria e Intelligenza Artificiale, tra titolarità della funzione e responsabilità, in Aleo S. (a cura di), Evoluzione scientifica e profili di responsabilità, Pisa, 2021, 414 ss.

Sarin N. – Mazur M.J., The Inflation Reduction Act’s Impact on Tax Compliance and Fiscal Sustainability, in Tax Notes, 19 febbraio 2024

Scaccia G., Il principio di proporzionalità, in Mangiameli S. (a cura di), L’ordinamento europeo. Tomo II. L’esercizio delle competenze, Milano, 2006, 225 ss.

Simoncini A., L’algoritmo incostituzionale: intelligenza artificiale il futuro delle libertà, in BioLaw Journal – Rivista di BioDiritto, 2019, 1, 63 ss.

Simoncini A., Verso la regolamentazione della Intelligenza Artificiale. Dimensioni e governo, in BioLaw Journal – Rivista di BioDiritto, 2021, 2, 411 ss.

Simoncini A., Il diritto ad un algoritmo “ragionevole”. Riflessioni su giustizia predittiva e Costituzione, in Mastroiacovo V. (a cura di), Giocare con altri dadi. Giustizia e predittività dell’algoritmo, Torino, 2024, 37 ss.

Vanistendael F., Le nuove fonti del diritto ed il ruolo dei principi comuni nel diritto tributario, in Di Pietro A. (a cura di), Per una Costituzione fiscale europea, Padova, 2008, 104 ss.;

Viotto A., Il “diritto al rispetto della vita privata e familiare” nell’ambito delle indagini tributarie, nel quadro della giurisprudenza della Corte Europea dei Diritti dell’Uomo, in Riv. trim. dir. trib., 2019, 1, 153 ss.

(*) Relazione svolta dall’Autore al Convegno Internazionale “L’intelligenza artificiale nell’accertamento e nel processo tributario”, organizzato dall’AIPSDT e dall’Università degli Studi di Genova, Dipartimento di Giurisprudenza, svoltosi il 25 giugno 2024.

Scarica il commento in formato pdf

Tag:, , , , , , , ,