Una prima lettura sull’impatto della legge sull’intelligenza artificiale nel diritto tributario, tra consultazione semplificata e analisi del rischio

Di Guido Salanitro -

Abstract (*)

Il presente contributo analizza l’impatto nel diritto tributario della legge sull’intelligenza artificiale (L. 23 settembre 2025, n. 132), riservando una particolare attenzione alla disciplina sulla consultazione semplificata e sull’analisi del rischio fiscale.

A Preliminary analysis of the impact of the Artificial Intelligence Act on tax law: between simplified consultation and tax risk analysis – This paper examines the impact of the Artificial Intelligence Act (Law No. 132 of 23 September 2025) on tax law, with particular attention to the rules governing simplified consultation procedures and tax risk analysis.

Sommario: 1. La legge sull’intelligenza artificiale e la c.d. riserva di umanità. – 2. La consultazione semplificata. La c.d. Banca Dati. – 3. La c.d. analisi del rischio. – 4. Brevi conclusioni.

1. Il 17 settembre 2025 è stata approvata, su iniziativa governativa, la legge contenente “Disposizioni e deleghe al Governo in materia di intelligenza artificiale sull’intelligenza artificiale”, pubblicata con il n. 132 del 23 settembre 2025 sulla Gazzetta Ufficiale del 25 settembre 2025.

La legge, ispirata ad una logica antropocentrica (espressamente richiamata nell’art. 1), spazia tra vari temi, dalla riservatezza alla sanità, dallo sviluppo economico alla materia penale.

Non vi è un diretto riferimento al diritto tributario, ma rileva l’art. 14 per il quale «Art. 14 (Uso dell’intelligenza artificiale nella pubblica amministrazione). 1. Le pubbliche amministrazioni utilizzano l’intelligenza artificiale allo scopo di incrementare l’efficienza della propria attività, di ridurre i tempi di definizione dei procedimenti e di aumentare la qualità e la quantità dei servizi erogati ai cittadini e alle imprese, assicurando agli interessati la conoscibilità del suo funzionamento e la tracciabilità del suo utilizzo. 2. L’utilizzo dell’intelligenza artificiale avviene in funzione strumentale e di supporto all’attività provvedimentale, nel rispetto dell’autonomia e del potere decisionale della persona che resta l’unica responsabile dei provvedimenti e dei procedimenti in cui sia stata utilizzata l’intelligenza artificiale. 3. Le pubbliche amministrazioni adottano misure tecniche, organizzative e formative finalizzate a garantire un utilizzo responsabile dell’intelligenza artificiale e a sviluppare le capacità trasversali degli utilizzatori. 4. Le pubbliche amministrazioni provvedono agli adempimenti previsti dal presente articolo con le risorse umane, strumentali e finanziarie disponibili a legislazione vigente».

La norma è espressiva, tra l’altro, di un orientamento dottrinale che, partendo dall’art. 97, comma 3, della Costituzione («Nell’ordinamento degli uffici sono determinate le sfere di competenza, le attribuzioni e le responsabilità proprie dei funzionari»), ha affermato l’esistenza, nel sistema giuridico italiano, del principio di riserva di umanità, per il quale le decisioni della Pubblica amministrazione devono restare riservate all’essere umano, anche in presenza di sistemi automatizzati o intelligenti. La centralità dell’Uomo è ricavata anche dall’art. 2 della Costituzione («La Repubblica riconosce e garantisce i diritti inviolabili dell’uomo, sia come singolo, sia nelle formazioni sociali ove si svolge la sua personalità, e richiede l’adempimento dei doveri inderogabili di solidarietà politica, economica e sociale»), in particolare con riferimento all’insostituibilità del giudice (in merito al quale rilevano anche gli artt. 101 ss.).

La norma risulta applicabile alla materia tributaria dove il soggetto attivo è la Pubblica amministrazione (anche se sotto forma di Agenzia o di Ente locale).

Va, però, osservato che si tratta solo di una legge ordinaria (scritta secondo la tecnica della normazione per principi), non costituzionale (per il comma 1 dell’art. 1. «La presente legge reca princìpi in materia di ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e di modelli di intelligenza artificiale»). Sarà sempre quindi possibile una deroga, anche tacita, ad opera di leggi successive, e non è sicura l’abrogazione tacita delle leggi precedenti, che comunque andrà verificata e provata caso per caso, dimostrandone l’incompatibilità. Più una raccomandazione, che una norma vincolante. Anche se si potrà affermare l’invalidità, e precisamente l’annullabilità se seguiamo lo schema dello Statuto dei diritti del Contribuente (artt. 7-bis ss.), per quegli atti che di fatto si dimostrerà essere frutto esclusivamente dell’operato dell’IA. Inoltre, si discuterà se si applica alla materia tributaria, dove non si hanno provvedimenti discrezionali ma atti vincolati. E l’art. 14 si riferisce ai provvedimenti (e ai procedimenti). È pertanto possibile che le maggiori brecce sulla riserva di umanità si aprano proprio nella materia tributaria (dove il rapporto fra Uomo e algoritmo è particolarmente rilevante per le caratteristiche della materia).

Con riguardo al rapporto con il Regolamento UE sulla intelligenza artificiale (IA Act, Reg. UE 2024/1689), che sembra escludere dal suo campo di applicazione i procedimenti tributari, non considerati ad alto rischio (considerando 59), è possibile affermare che la legge appena approvata (le cui disposizioni si interpretano e si applicano conformemente al Regolamento UE, come dispone il comma 2 dell’art. 1) sembra colmare un vuoto. La legge, infatti, si applica ai procedimenti tributari che non risultano ad alto rischio.

Inoltre, l’art. 14 del Regolamento UE prescrive la sorveglianza umana affermando che «I sistemi di IA ad alto rischio sono progettati e sviluppati, anche con strumenti di interfaccia uomo-macchina adeguati, in modo tale da poter essere efficacemente supervisionati da persone fisiche durante il periodo in cui sono in uso».

Mi sembra che la nozione di sorveglianza, che va collocata nel contesto delle misure di prevenzione e mitigazione del rischio, sia nozione diversa dall’utilizzo dell’intelligenza artificiale che avviene in funzione strumentale e di supporto all’attività provvedimentale, previsto dalla legge in commento, che pone in risalto il ruolo dell’Uomo nelle decisioni amministrative. Dinanzi alle possibili declinazioni del principio di Human in the loop (anziché over the loop), il limite dell’uso strumentale è certamente più incisivo della semplice sorveglianza umana.

Va visto, anche, il rapporto con il Regolamento UE 2016/679, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, che prevede procedimenti decisionali senza l’intervento dell’Uomo proprio in materia tributaria. L’art. 22 del Regolamento UE 2016/679 recita che l’interessato ha il diritto di non essere sottoposto ad una decisione basata esclusivamente sul trattamento automatizzato, ma la stessa disciplina del GDPR consente una decisione esclusivamente automatizzata se è autorizzata dal diritto dello Stato membro, pur se ad alcune condizioni, e in particolare proprio quando si tratta di materia tributaria (art. 23, comma 1, lett. e)). La mancanza di una deroga nella nuova legge appena approvata potrà essere interpretata come scelta per non utilizzare la possibilità di cui all’art. 23.

La norma dell’art. 14 concerne gli atti che utilizzano l’intelligenza artificiale, la cui nozione è ricavata dal Regolamento IA Act per espresso rinvio (art. 2 della legge). Non riguarda quindi tutti gli atti automatizzati, o algoritmici, ma solo quelli nei quali è utilizzata l’IA.

Di particolare rilevanza il riferimento alla persona che resta unica responsabile e il riferimento alla conoscibilità e tracciabilità, in conformità al consolidato orientamento del Consiglio di Stato. Con ricadute sulla necessità o meno di fornire il c.d. codice sorgente (anche se non serve a molto avere i codici e le formule matematiche se poi non si sanno leggere, e di fatto non è in grado di capirle né il funzionario, né l’avvocato, né il commercialista).

Il riferimento alla persona che resta unica responsabile potrebbe, tra l’altro, incidere sul dibattito in ordine alla responsabilità da fatti illeciti derivanti da atti amministrativi. Se la decisione è ad opera solo del robot, la responsabilità non può ad oggi essere indagata in base ai classici parametri del dolo e della colpa, ma diventa una responsabilità oggettiva. Se, come dice l’art. 14, vi deve essere sempre una persona fisica responsabile, il problema è quanto meno ridotto nelle sue dimensioni giuridiche, anche se non in quelle fattuali perché forse sarà difficile trovare un funzionario che si discosti dal risultato dell’algoritmo.

Nella stessa logica antropocentrica si pone l’art. 15 della legge, relativo all’uso dell’IA nelle funzioni giudiziarie, per il quale «Art. 15. (Impiego dei sistemi di intelligenza artificiale nell’attività giudiziaria). 1. Nei casi di impiego dei sistemi di intelligenza artificiale nell’attività giudiziaria è sempre riservata al magistrato ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti». Il considerando 61 del Regolamento IA Act dell’Unione Europea sembra vietare una sentenza fatta dall’intelligenza artificiale. Infatti, vi è scritto che «the use of AI tools can support the decision- making power of judge or judicial independence, but should not replace it: the final decision-making must remain human-driven activity». Ma al di là dell’uso un po’ contraddittorio di should e di must, e dei vincoli discendenti dai consideranda, qualificare ad alto rischio tali sistemi non sembra essere risolutivo nel senso di escludere che i sistemi di IA possano sostituire il giudice. La norma italiana sembra in una certa misura colmare un vuoto ed eliminare ogni dubbio.

Gli amministrativisti si interrogano, infine, sull’opportunità di intervenire in modo puntuale sul testo della L. n. 241/1990, per mettere saldamente al centro riserva di umanità e trasparenza algoritmica; un simile dubbio potrebbe venire pure con riferimento allo Statuto dei diritti del contribuente, ma una legge generale che regola l’intelligenza artificiale nelle varie materie sembra utile al fine di evitare un eccesso di norme finanche in contraddizione tra loro.

La legge prevede anche una serie di deleghe al Governo, ma non sembrano interessare la materia tributaria.

2. In materia tributaria, attualmente possiamo individuare almeno due ipotesi nelle quali è espressamente previsto l’uso dell’IA.

La prima è la c.d. Banca Dati o consultazione semplificata, il cui uso è previsto nell’ambito dell’attività di interpello. L’interpello rientra in una di una sorta di consulenza che a prima vista dovrebbe prevedere sempre un intervento umano proprio perché non si tratta di applicare numeri ma ragionare sull’applicazione delle norme al caso concreto. Eppure, è proprio uno dei campi dove già oggi il legislatore sembra aver previsto un uso dell’IA che in una certa misura prescinda dall’Uomo.

Si tratta dell’art. 10-novies dello Statuto dei diritti del contribuente che disciplina la consultazione semplificata, per il quale le persone fisiche e i contribuenti di minori dimensioni, avvalendosi dei servizi telematici dell’Amministrazione finanziaria accedono gratuitamente, su richiesta relativa a casi concreti a una apposita banca dati che contiene i documenti di cui all’art. 10-sexies, le risposte a istanze di consulenza giuridica e interpello, le risoluzioni e ogni altro atto interpretativo; la Banca Dati consente l’individuazione della soluzione al quesito interpretativo o applicativo esposto dal contribuente. Quando la risposta al quesito non è individuata univocamente, la Banca Dati informa il contribuente che può presentare istanza di interpello. La risposta produce gli effetti di cui all’art. 10, comma 2, esclusivamente nei confronti del contribuente istante ed è condizione di ammissibilità ai fini della presentazione di istanze di interpello.

Più precisamente, lo schema di decreto legislativo recante disposizioni integrative di modifica, tra l’altro, dello Statuto dei diritti del contribuente (approvato in sede di esame preliminare dal Consiglio dei Ministri il 14 luglio 2025), ha aggiunto, alla fine del comma 4 dell’art. 10-novies, che resta ferma l’inammissibilità delle istanze di interpello nelle ipotesi in cui la banca dati non informi il contribuente che può presentare interpello sempreché il contribuente non dimostri che il documento di prassi richiamato nella risposta ricevuta non fornisce una soluzione univoca al quesito interpretativo.

La consultazione semplificata è riservata alle persone fisiche e ai soggetti che applicano il regime di contabilità semplificata. In dottrina si è osservato che la limitazione sia basata sulla considerazione che solo con riguardo a questi soggetti sia possibile proporre quesiti semplici. E sotto questo profilo si è sollevata una critica in quanto un quesito semplice potrebbe riguardare qualsiasi contribuente. In effetti, se di intelligenza artificiale si tratta (la norma espressamente non lo dice), non è corretto ritenere che possa rispondere solo a quesiti semplici di persone fisiche. Ma forse la spiegazione è un’altra. Il contribuente persona fisica o in contabilità semplificata è verosimilmente meno assistito da professionisti, mentre la grossa società ha sicuramente a sua disposizione specialisti in grado di risolvere i quesiti, oltre all’adempimento collaborativo. Lo strumento sembra posto proprio per sostituire il professionista, consentendo al “comune cittadino” di avere risposte senza pagare qualcuno. Ed infatti la facoltà di quesito non sembra essere concessa neppure al consulente (se non su delega), ma su questo punto vedremo cosa disporranno le disposizioni attuative

L’oggetto della consultazione dovrebbe coincidere con quello dell’interpello: la stessa bozza di relazione al suddetto schema di decreto legislativo ci avvisa che la disciplina attuativa coordinerà l’istituto della consultazione semplificata con quello dell’interpello, mutuandone alcuni aspetti essenziali, quali, ad esempio, la preventività, la riferibilità della questione interpretativa ad una fattispecie concreta e personale relativa al contribuente istante, la chiara individuazione del dubbio interpretativo che deve riguardare l’interpretazione di disposizioni tributarie, specificamente individuate, relative a tributi di competenza dell’Agenzia delle Entrate (e qui torna il dubbio sulla possibilità che la questione verta anche su norme non tributarie).

Gli effetti sono giuridicamente rilevanti sia perché è una procedura prodromica necessaria al fine dell’ammissibilità della “vera” procedura di interpello, sia perché rileva la tutela dell’affidamento, disciplinata dall’art. 10 dello Statuto, che dispone che non sono irrogate sanzioni né richiesti interessi moratori al contribuente, qualora egli si sia conformato a indicazioni contenute in atti dell’Amministrazione finanziaria.

La Banca Dati non può elaborare una risposta autonoma, ma valuta l’esistenza di una risposta individuabile univocamente, la riconosce come tale e la “impone” con gli effetti indicati.

In altri termini, qui siamo dinanzi ad un robot che dà le risposte in luogo dell’Uomo.

Manca ancora la disciplina attuativa e quindi non abbiamo ancora una casistica, né chiarezza circa le modalità concrete di esecuzione. A prima vista si avrebbe una risposta senza alcun intervento umano. Ma da notizie di stampa sembra che, in una logica antropocentrica, ci sarà un intervento del funzionario uomo al fine di controllo e verifica; non sappiamo, però, ad oggi quali saranno le modalità. Più precisamente, la nuova norma che sarà introdotta con il decreto correttivo (ove approvato definitivamente) sembra prevederlo, al solo fine di consentire l’interpello, dimostrando che il documento di prassi richiamato nella risposta ricevuta non fornisce una soluzione univoca al quesito interpretativo. Il menzionato decreto correttivo ha anche rimesso al decreto del Ministero dell’Economia e delle Finanze la definizione delle regole di funzionamento del servizio di consultazione semplificata, ivi compresi i presupposti e le modalità di accesso al medesimo servizio, anche ai fini del suo coordinamento con la disciplina dell’interpello. Nulla esclude che sarà previsto un controllo umano delle risposte, per evitare quelle palesemente errate e le c.d. allucinazioni.

L’intervento umano, peraltro, sembra necessario perché è difficile negare la natura di atto e in un certo senso di provvedimento (vi è una scelta valutativa tra le diverse opzioni disponibili nella banca dati) proprio perché produce l’effetto della tutela dell’affidamento e del passaggio procedimentale.

Lascia(va) perplessi la disciplina originaria che sembra(va) prevedere l’impossibilità di rivolgersi ad un funzionario umano se si riteneva errata la risposta; le nuove integrazioni sembrano dare spazio all’intervento del funzionario, anche se al solo fine di dimostrare che la risposta non fornisce una interpretazione univoca; in caso di ulteriore diniego, non dovrebbe escludersi la possibilità di ricorrere al giudice, anche perché il ricorso non è espressamente escluso, a differenza di quanto previsto nella disciplina dell’interpello. E preoccupa l’impossibilità di evoluzioni nel pensiero dell’Amministrazione. Il precedente, come letto dal robot (anche se con il controllo eventuale dell’Uomo, almeno in caso di reclamo del contribuente), diventa vincolante.

Non si può escludere che la Banca Dati sbagli (anche con l’eventuale controllo del funzionario). Anzi, circolano statistiche che riconoscono un margine importante di errori dovuti alle c.d. allucinazioni (rischio che potremmo ritrovare anche con riferimento ad ogni altro uso dell’IA nella materia tributaria). Peraltro, non si può negare l’effetto importante di semplificazione. Inutile sovraccaricare gli Uffici se la risposta esiste già.

3. Un’altra disciplina che fa espresso riferimento all’intelligenza artificiale è quella del c.d. rischio fiscale (art. 2 D.Lgs. 12 febbraio 2024, n. 13). Il rischio fiscale è definito come il rischio di operare, colposamente o dolosamente, in violazione di norme di natura tributaria, ovvero in contrasto con i principi o con le finalità dell’ordinamento tributario.

L’analisi del rischio è definita come il processo, composto da una o più fasi, che, al fine di massimizzare l’efficacia delle attività di prevenzione e contrasto all’evasione fiscale, alla frode fiscale e all’abuso del diritto in materia tributaria, nonché di quelle volte a stimolare l’adempimento spontaneo, tramite modelli e tecniche di analisi deterministica ovvero probabilistica, nel rispetto della normativa in materia di trattamento di dati personali, utilizza, anche attraverso la loro interconnessione, le informazioni presenti nelle basi dati dell’Amministrazione finanziaria, ovvero pubblicamente disponibili, per associare, coerentemente a uno o più criteri selettivi, ovvero a uno o più indicatori di rischio desunti o derivati, la probabilità di accadimento a un determinato rischio fiscale, effettuando, ove possibile, anche una previsione sulle conseguenze che possono generarsi dal suo determinarsi.

A tali scopi si può operare con un’analisi deterministica o con una probabilistica, dove entra in gioco l’intelligenza artificiale: i) analisi deterministica: insieme dei modelli e delle tecniche di analisi basati sul raffronto e sull’elaborazione di dati, riferiti a uno o più contribuenti ovvero a uno o più periodi d’imposta, volti a verificare, tramite criteri selettivi fondati su relazioni non probabilistiche, l’avveramento di un rischio fiscale, in tutto o in parte definibile prima dell’avvio dell’analisi; ii) analisi probabilistica: insieme dei modelli e delle tecniche di analisi che, sfruttando soluzioni di intelligenza artificiale ovvero di statistica inferenziale, consentono di isolare rischi fiscali, anche non noti a priori, che, una volta individuati, possono essere utilizzati per l’elaborazione di autonomi criteri selettivi, ovvero permettono di attribuire una determinata probabilità di accadimento a un rischio fiscale noto.

Nell’ambito dell’attività di analisi probabilistica è quindi possibile l’utilizzo di sistemi di IA e machine learning (ed anche in questo caso si è in attesa delle disposizioni attuative, con riferimento soprattutto alla privacy).

Fin qui siamo nell’ambito dell’attività conoscitiva, con l’introduzione nell’art. 31 D.P.R. n. 600/1973 della previsione che per le finalità di cui al primo comma (finalità appunto di controllo), l’Amministrazione finanziaria svolge le opportune attività di analisi del rischio. E infatti le istruzioni dell’Agenzia in materia affermano che il ricorso alla modellazione statistica dei dati non implica in alcun modo l’automatica emanazione di provvedimenti impositivi nei confronti dei contribuenti selezionati mediante procedure totalmente automatizzate. Al contrario, secondo la logica descritta, il ruolo dei modelli di analisi stocastica è puramente ancillare, essendo limitato al supporto delle strutture di controllo nella gestione di posizioni che sono venute all’attenzione dell’Amministrazione finanziaria per motivi indipendenti dall’applicazione dei modelli stessi. Tuttavia, i modelli così sviluppati consentono di fornire agli organi di controllo delle indicazioni che, in ultima analisi, potranno delineare con maggiore accuratezza i soggetti che presentano elevate probabilità di violazione di norme tributarie.

Ma con l’aggiunta del numero 8-quater) all’art. 32 D.P.R. n. 600/1973, e quindi con l’introduzione del potere di svolgere le opportune attività di analisi del rischio, l’analisi del rischio rientra tra i poteri istruttori i cui dati sono utilizzabili per l’accertamento. E non è certo che siano utilizzabili solo i dati derivanti dalle analisi di rischio deterministiche.

In dottrina si è scritto di posizione ambigua, una ambiguità già presente nella legge delega che permane per l’appunto in sede di attuazione, laddove in particolare si prevede che gli esiti dell’analisi automatizzata possano essere posti a fondamento di non meglio precisate “finalità di contrasto all’evasione fiscale”.

Va, però, precisato che siamo sempre dinanzi all’utilizzo di tali dati nell’ambito di atti di accertamento, al limite anche automatizzati come quelli parziali, ma dove comunque è previsto l’intervento dell’Uomo, rectius di un responsabile del procedimento e/o di un responsabile dell’adozione dell’atto. E non si può negare l’impatto positivo che tali strumenti possono avere nella c.d. lotta all’evasione. Certamente abbiamo un potenziamento dei mezzi a disposizione dell’Amministrazione, senza modifiche normative dei suoi poteri (e quindi del rapporto di forza funzionario – contribuente, che appare ulteriormente sbilanciato a favore dell’Erario), con possibili rischi di violazione della privacy e della libertà (e anche della capacità contributiva, se questi strumenti portano a pagare più del dovuto). Ma abbiamo pure la necessità di ridurre l’evasione (anche se Trilussa e Chesterton ci insegnano a usare la statistica con prudenza), non dimenticando che certe violazioni (di privacy, libertà ecc.) possono essere ricondotte anche a comportamenti esclusivamente umani.

4. In conclusione, se nella disciplina della banca dati e dell’utilizzo dei dati derivanti dall’analisi del rischio resta lo spazio per il funzionario – Uomo (anche se nel primo caso solo con funzione di controllo successivo e forse preventivo, qualcosa di meno di quanto richiesto dall’art. 14 dal quale siamo partiti), possiamo concludere che la logica antropocentrica e la lettera della legge sull’intelligenza artificiale sono in un certo senso rispettate, pur in una materia dove la tentazione di lasciar fare tutto all’Algoritmo è forte e agevolmente attuabile. Con un giusto contemperamento tra le esigenze dell’Erario e i diritti del contribuente. Alta deve però restare l’attenzione, prima della dottrina, e dell’Agenzia stessa, e successivamente della giurisprudenza, affinché il rispetto di detti principi, e in particolare della riserva di umanità, non sia aggirato, anche semplicemente di fatto.

(*) Il saggio riprende, con le opportune rivisitazioni e i necessari aggiornamenti, la relazione svolta dall’Autore al Convegno “I percorsi della riforma tributaria – IV Convegno Annuale AIPSDT”, svoltosi a Milano, 9 e 10 maggio 2025. Il saggio confluirà nel fascicolo n. 2/2025 (semestrale) della Rivista telematica di diritto tributario.

BIBLIOGRAFIA ESSENZIALE

Antonini L., L’intelligenza artificiale come newcomer nella relazione tra dovere tributario, interesse fiscale e diritti costituzionali, relazione al Convegno “I percorsi della riforma tributaria – IV Convegno Annuale AIPSDT”, svoltosi a Milano 9 e 10 maggio 2025, in corso di pubblicazione negli Atti del Convegno

Benanti P., Human in the loop. Decisioni umane e intelligenze artificiali, Milano, 2022

Carpentieri L. – Conte D., La digitalizzazione dell’Amministrazione finanziaria tra contrasto all’evasione e tutela dei diritti del contribuente, vol. I, Milano, 2023

Cimino F. – Cedro M., Intelligenza artificiale e accertamento tributario: opportunità e rischi di una rivoluzione in atto, in Dir. prat. trib., 2024, 1, 48 ss.

Consolo G., Decisioni amministrative algoritmiche e responsabilità nel procedimento tributario, in Riv. dir. trib., 2024, 5, I, 599 ss.

Contrino A. – Montanari F., La digitalizzazione dell’Amministrazione finanziaria tra contrasto all’evasione e tutela dei diritti del contribuente, vol. III, Milano, 2025

D’Angiolella R., Giustizia e intelligenza artificiale tra l’AI ACT e il disegno di legge italiano. L’insostituibilità del giudice, il metodo e l’argomentazione giuridica, in www.giustiziainsieme.it, 30 luglio 2025

Del Federico L. – Paparella F. (a cura di), Diritto tributario digitale, Pisa, 2023

Del Federico L., Sui diritti del contribuente nell’era della trasformazione digitale, in Dir. prat. trib. int., 2024, 1, 71 ss.

Dorigo S., L’Amministrazione finanziaria e l’uso dell’intelligenza artificiale: gli indirizzi della delega fiscale e gli approdi (poco rassicuranti) in sede attuativa, in Riv. dir. trib., 2024, 6, 761 ss.

Di Martino A., Tecnica e potere nell’amministrazione per algoritmi, Napoli, 2023

Previti L., La decisione amministrativa robotica, Napoli, 2023

Farri F., Digitalizzazione dell’amministrazione finanziaria e diritti dei contribuenti, in Riv. dir. trib., 2020, 6, 115 ss.

Farri F. – Marcheselli A., La digitalizzazione dell’Amministrazione finanziaria tra contrasto all’evasione e tutela dei diritti del contribuente, Milano, 2025

Fasola M., L’amministrazione algoritmica dei tributi, Milano, 2025

Francioso C., Automated decision making by tax authorities and the protection of taxpayers’ rights in a comparative perspective, in Riv. trim. dir. trib., 2023, 3, 541 ss.

Gallo F., Cyberspazio, diritti e tutela, in Uricchio A.F. – Caldarola C. (a cura di), L’intelligenza artificiale tra regolazione e esperienze applicative, Bari, 2025

Gallone G., Riserva di umanità e funzioni amministrative. Indagine sui limiti dell’automazione tra procedimento e processo, Milano, 2023

Gallone G., L’improcrastinabile esigenza di tracciare una via “italiana” per l’intelligenza artificiale nel procedimento amministrativo. Opportunità e legittimità di un intervento regolatorio nazionale a corredo dell’AI Act, in www.giustiziainsieme.it, 26 giugno 2025

Guidara A., Accertamento dei tributi e intelligenza artificiale: prime riflessioni per una visione di sistema, in Dir. prat. trib., 2023, 2, 384 ss.

Marchetti B., Amministrazione digitale, in Enc. dir., I tematici, vol. III, Funzioni amministrative, Milano, 2022, 75 ss.

Marello E. – Contrino A. (a cura di), La digitalizzazione dell’Amministrazione finanziaria tra contrasto all’evasione e tutela dei diritti del contribuente, vol. II, Milano, 2023

Marinello A., L’utilizzo dell’Intelligenza artificiale da parte del fisco: limiti e prospettive, anche alla luce dell’Artificial Intelligence Act dell’Unione Europea, in Riv. dir. trib. tel., 2024, 2, 625 ss.

Martin Caceres A.F., L’intelligenza artificiale nei procedimenti di accertamento e di ispezione nell’ordinamento giuridico tributario spagnolo, in Dir. prat. trib. int., 2024, 3, 700 ss.

Mastroiacovo V., Sulla giustizia predittiva ovvero di quel che accade quando il mito della calcolabilità del diritto incontra i pregiudizi sulla materia tributaria, in Riv. dir. trib., 2024, 1, 44 ss.

Mastroiacovo V. (a cura di), Giocare con altri dadi. Giustizia e predittività dell’algoritmo, Torino, 2024

Paparella F., L’ausilio delle tecnologie digitali nella fase di attuazione dei tributi, in Riv. dir. trib., 2022, 6, 617 ss.

Pierro M., Il dovere d’informazione dell’Amministrazione, in Giovannini A. (a cura di), La riforma fiscale, vol. II, I diritti e i procedimenti, Pisa, 2024

Pontillo M., Tecnologie digitali e contrasto all’evasione: riflessi sul diritto alla riservatezza del contribuente, in Riv. dir. trib., 2024, 4, IV, 97 ss.

Pontillo M., Automazione delle attività fiscali e profili di responsabilità civile dell’amministrazione finanziaria, in Responsabilità civile e previdenza, 2024, 4, 1334 ss.

Previti L., La decisione amministrativa robotica, Napoli, 2022

Quattrocchi A., Dall’Anagrafe tributaria all’interoperabilità delle banche dati: l’“analisi del rischio fiscale” e le ricadute sul procedimento di accertamento dei tributi, in Riv. trim. dir. trib., 2024, 4, 821 ss.

Rasi F., Nuove forme d’interlocuzione tra Amministrazione finanziaria e contribuenti: dall’interpello ordinario all’interpello speciale. Un sistema in fase di “rodaggio”, in Riv. trim. dir. trib., 2025, 1, 135 ss.

Ricci C., Intelligenza artificiale e procedimento tributario tra responsabilizzazione dell’Amministrazione finanziaria e principio di legalità, in Tax news, 3 luglio 2025

Salanitro G., Amministrazione finanziaria e Intelligenza Artificiale, in Aleo S. (a cura di), Evoluzione scientifica e profili di responsabilità, Firenze, 2021

Salanitro G. (a cura di), Scenari dell’Intelligenza artificiale. Uomo e Algoritmo nelle scienze sociali, Pisa, 2024

Tosi L., L’evoluzione digitale del sistema tributario, in Tax News, 18 aprile 2025

Versiglioni M., Il Codice Versiglioni. Un metodo matematico come regola di convivenza dell’essere umano con l’umanoide-mv, in Riv. tel. dir. trib., 2023, 2, 553 ss.

Scarica il commento in formato pdf

Tag:, , , , , , , , ,