Le prospettive di un impiego sempre più diffuso di sistemi algoritmici da parte dell'Amministrazione finanziaria lasciano intravedere una serie di vantaggi in termini di maggiore efficienza dell’azione amministrativa, ma, al contempo, la crescente sofisticatezza di tali sistemi solleva talune criticità che rendono ancora oggi discutibile la compatibilità delle nuove tecnologie con alcuni diritti dei contribuenti. Tra i profili più controversi, il contributo mira a illustrare il problema della discriminazione legata al funzionamento degli algoritmi, soffermandosi in particolare a considerare il modo in cui questo fenomeno si potrebbe declinare nella materia tributaria e quali implicazioni sulla tutela dei contribuenti, di conseguenza, possono da esso scaturire.
The prospects of an increasingly widespread use of algorithmic systems by the financial administration hint at a number of advantages in terms of greater efficiency of administrative action, but, at the same time, the growing sophistication of such tools raises certain critical issues that make the compatibility of the new technologies with certain taxpayer rights still questionable. Among the most controversial profiles, the contribution aims to illustrate the problem of discrimination linked to the functioning of algorithms, dwelling in particular on how this phenomenon could be declined in tax matters and what implications on the protection of taxpayers, consequently, may result from it.
Premessa - 1. Sistemi algoritmici ed efficientamento dell’azione amministrativa - 2. Prime criticità nell’impiego di algoritmi da parte dell’Amministrazione finanziaria - 3. La discriminazione in ambito tributario: brevi cenni - 4. Specificità della discriminazione algoritmica fiscale - 5. Discriminazione algoritmica e quadro giuridico - 6. Discriminazione algoritmica fiscale e tutela del contribuente - 7. Algoritmi fiscali e garanzie per il futuro - NOTE
La sperimentazione di sistemi algoritmici sempre più sofisticati, primi fra tutti quelli basati sull’Intelligenza artificiale, investe con crescente incidenza anche la pubblica amministrazione, impegnata – soprattutto in attuazione del PNRR [1] – a promuovere iniziative di ricerca e di sviluppo delle nuove tecnologie e a sperimentarne le potenzialità nel contesto della propria azione pubblica [2]. Tra i settori pubblici maggiormente interessati dall’innovazione, vi è anche quello fiscale, atteso come le peculiarità della materia tributaria – dove vengono in rilievo elementi numerici o dati da analizzare – si abbinino perfettamente alle caratteristiche con cui i nuovi sistemi si presentano (potenza di calcolo, capacità di operare su enormi quantitativi di dati, velocità di esecuzione, precisione, ecc.). Invero, l’esigenza di avvalersi di tecnologie che agevolino l’operato degli Uffici fiscali non è tipica dei nostri giorni, né è solo di recente che gli algoritmi abbiano fatto ingresso nell’Amministrazione finanziaria come strumento di supporto nello svolgimento delle relative attività. Esempio emblematico è quello dei controlli delle dichiarazioni tributarie – disciplinati dall’art. 36 bis del D.P.R. 29 settembre 1973, n. 600, per le imposte dirette, e dall’art. 54 bis del D.P.R. 26 ottobre 1972, n. 633, per l’IVA – in relazione ai quali il legislatore, a partire da 1979, ha previsto (anche se allora per le imposte dirette e solo dopo per l’IVA) che l’Amministrazione finanziaria procedesse a liquidare le relative imposte mediante appunto procedure automatizzate. Già in quegli anni, infatti, ci si era resi conto che, dato l’elevato numero delle dichiarazioni recapitate al Fisco, l’Amministrazione avrebbe potuto servirsi di strumenti informatici per la correzione rapida di errori emergenti dalla dichiarazione (incrociando i dati della dichiarazione stessa o in possesso dell’Anagrafe tributaria) e per una nuova determinazione dell’an e quantum debeatur. L’esempio dei controlli automatizzati, benché emblematicamente rappresentativo del modo in cui la tecnologia possa perfettamente innervarsi nelle attività degli Uffici fiscali – fino ad automatizzarne interi segmenti –, è espressione però di un [continua ..]
Volendo provare a individuare alcuni tra i possibili risvolti positivi per il Fisco derivanti dall’impiego di sistemi algoritmici, in particolare di quelli basati sull’Intelligenza artificiale, un primissimo immediato riscontro è di tipo economico [8]. Una gestione capillare e – artificialmente – razionalizzata dei dati elementari dei cittadini contribuisce certamente a identificare un maggior numero di violazioni poste in essere dagli stessi, dai meri errori alle vere e proprie frodi, ammesso però che, una volta individuate, i contribuenti versino effettivamente all’Erario quanto dovuto [9]. L’osservazione, inoltre, di una enorme quantità di dati può altresì consentire un miglioramento del rapporto tra Fisco e contribuente, poiché verrebbe più semplice all’Amministrazione identificare in quali situazioni il cittadino riscontri più difficoltà nell’adempimento degli obblighi tributari (ad esempio in relazione alla compilazione delle dichiarazioni) e porvi magari rimedio mediante l’indicazione di istruzioni più precise. Dei benefici potrebbero pure essere ravvisati in sede accertativa poiché, una volta sintetizzata la realtà economica e tributaria e resa maggiormente analizzabile tramite questi sistemi, agli Uffici verrebbe più agevole utilizzare le informazioni raccolte per selezionare e orientare meglio l’attività di accertamento verso i destinatari. Sotto questo profilo, il miglioramento dal punto di vista qualitativo dell’attività amministrativa fiscale potrebbe far conseguire un risparmio di risorse e, dal lato dei contribuenti, un beneficio per un’attività pubblica maggiormente mirata [10]. Andando ancora oltre, il ricorso all’IA vera e propria potrebbe far sorgere in capo all’Amministrazione una sorta di capacità “predittiva” [11] in ordine all’andamento delle condotte future dei contribuenti, risultato più difficile da raggiungere con i più tradizionali strumenti di monitoraggio [12]. Mediante l’addestramento sui big data, infatti, i sistemi di Intelligenza artificiale si rivelano in grado di evidenziare caratteri ricorsivi nel comportamento degli individui, con la conseguenza che i risultati di un’osservazione mirata possono anche servire per predisporre [continua ..]
2.1. Pur tuttavia, non ci si può fermare a considerare solo questi aspetti; per quanto significativi i vantaggi conseguibili dal Fisco, al punto che sarebbe già difficile immaginare un’azione amministrativa efficiente ed efficace che non contempli il ricorso alle nuove tecnologie, soprattutto se basate sull’Intelligenza artificiale, ad essi si contrappone una serie di criticità che rendono ancora oggi fortemente discutibile la loro compatibilità con alcuni diritti dei singoli, contribuenti o meno. Tra i risvolti più problematici, si è già cominciato a mettere in luce, ad esempio, quanto impervia sia divenuta la strada della tutela della privacy del contribuente a fronte del moltiplicarsi – grazie appunto alla tecnologia – delle occasioni di raccolta, di utilizzazione e di conservazione della grande massa dei suoi dati personali da parte delle agenzie fiscali, prevalentemente ai fini del contrasto all’evasione fiscale [13]. Nonostante i diversi rilievi critici di recente mossi dal Garante per la Protezione dei Dati Personali (noto anche come Garante della privacy), la delimitazione dell’esatto confine oltre il quale l’azione del Fisco si traduce in una ingerenza nella sfera privata del contribuente è una questione quanto mai aperta [14], rimanendo la protezione dei dati personali un diritto pressoché sistematicamente sacrificato in nome del perseguimento di finalità di interesse pubblico (ex art. 2-sexies, D.Lgs. 30 giugno 2003, n. 196). 2.2. Accanto a questo profilo, pare cominci però a intravedersene un altro, altrettanto significativo, che riguarda invece il rischio di discriminazioni dei contribuenti legato all’uso di algoritmi fiscali [15]. Quello della discriminazione è invero un problema non esclusivo dell’ambito tributario ma che si pone in generale per l’utilizzo di sistemi intelligenti, come testimoniato già dai diversi precedenti su questo tema [16] che hanno fatto emergere con evidenza la questione della mancanza di neutralità degli algoritmi [17]. Ritenere infatti che le macchine siano terze e imparziali è chiara espressione di un fraintendimento [18], giacché solo in apparenza esse si basano su calcoli oggettivi ma, proprio per il fatto di essere progettate da esseri umani, ne riflettono opinioni, costrutti valoriali e quindi anche [continua ..]
3.1. È certamente noto come, in assenza di un’autonoma definizione del principio di non discriminazione fiscale, il problema relativo all’individuazione dei precisi contorni che il fenomeno discriminatorio può assumere in ambito tributario sia stato generalmente studiato con riferimento agli articoli 3 e 53 della Costituzione. Delle due norme – e del delicato rapporto involgente i principi in esse contenuti – sono state date diverse interpretazioni, in buona parte influenzate dal grado di evoluzione del sistema tributario raggiunto nel momento in cui ciascuna di queste è stata concepita. È così che, poco dopo l’entrata in vigore della Costituzione, in un contesto in cui l’attività tributaria era in prevalenza orientata al perseguimento di fini quasi esclusivamente fiscali e dove ancora piuttosto limitati erano i compiti degli enti pubblici, l’art. 53 è stato interpretato come una mera applicazione del principio di uguaglianza al campo dei rapporti tributari [23]. In tale senso, si è sostenuto che nell’enunciato ivi contenuto secondo cui «tutti sono tenuti a concorrere alle spese pubbliche in ragione della loro capacità contributiva» troverebbe conferma la garanzia della parità di trattamento degli individui che versano nelle medesime situazioni di fatto, nonché dell’uniformità dei criteri di tassazione per i soggetti che si trovano in diverse condizioni. Di lì a breve, preso atto anche del crescente impiego dell’attività tributaria per fini extrafiscali e quindi della necessità di trovare una giustificazione teorica alla necessità di operare discriminazioni del trattamento fiscale per ragioni di politica economica, questa visione per così dire sottodimensionata del principio della capacità contributiva, è stata superata da altre impostazioni, che o avrebbero riconosciuto in esso – con argomentazioni non sempre coincidenti – qualcosa di più della specificazione del principio di uguaglianza, ovvero avrebbero nettamente distinto i relativi spazi di operatività dei due principi. Sicché, nella prima direzione, si è affermato, ad esempio, che il principio della capacità contributiva qualificherebbe ulteriormente il principio di uguaglianza, limitando in misura corrispondente la libertà [continua ..]
Delineati per sommi capi i tratti tipici della discriminazione tributaria, occorrerebbe allora provare a verificare se questo discorso possa essere esteso fino a ricomprendere le specificità fenomenologiche della discriminazione algoritmica, con quel che ne consegue in termini di tutelabilità del contribuente discriminato, ovvero se la differenziazione realizzata dalla macchina ridondi in una disparità di trattamento che, proprio per le peculiarità attraverso cui essa si manifesta, non è – ancora o del tutto – sanzionabile dall’ordinamento. Posto che l’interrogativo sulle potenzialità discriminatorie degli algoritmi è risolvibile in senso affermativo, per cercare di capire quali tratti contraddistinguono il fenomeno discriminatorio artificiale l’indagine andrebbe orientata non più tanto sul se la macchina discrimina, bensì su come lo fa, ai danni di chi e in base a che cosa [31]. Si sorvolerà sul profilo relativo al modo in cui un sistema intelligente restituisce risultati discriminatori; giacché rispondere a questa domanda significherebbe scendere nel dettaglio di nozione tecniche che esulano dalla conoscenza di chi scrive, ci si limiterà su questo punto a dire che il rischio di discriminazione algoritmica nasce da un difetto [32], essenzialmente legato all’impostazione dell’algoritmo, ma poco importa in questa sede approfondire oltre. Vale la pena invece occuparsi dell’individuazione dei soggetti e delle qualità in base alle quali avverrebbe la discriminazione algoritmica. Quanto ai soggetti, l’intermediazione della tecnologia non sembrerebbe così determinante quanto nella delimitazione della cerchia di persone o gruppi maggiormente esposti a subire le conseguenze pregiudizievoli della c.d. AI-derived discrimination. Si pensi ai sistemi utilizzati per raccogliere dati dei singoli da sottoporre a futuri controlli o, per fare un esempio concreto, all’algoritmo per la Verifica dei Rapporti Finanziari (Ve.R.A. l’acronimo), lo strumento di data analysis di recentissima introduzione finalizzato a contribuire alle analisi del rischio di evasione. Come spiegato nella Circolare n. 21/E del 20 giugno 2022, l’Agenzia delle Entrate usa il nuovo algoritmo per identificare anomalie [33] avvalendosi in maniera integrata dei dati presenti nella già nota Anagrafe [continua ..]
Gli aspetti appena esaminati impongono attente riflessioni e ponderazioni, non fosse altro perché, nel caso degli algoritmi fiscali, l’innesto della tecnologia avviene sull’esercizio di poteri pubblici [41], poteri cioè che, attribuiti sulla base di specifiche disposizioni, sono in grado di intervenire in modo autoritativo sulla sfera giuridica dei cittadini, sia pure con modalità ed entro i limiti parimenti stabiliti dall’ordinamento. Tradotto in campo fiscale, ciò significa che l’Amministrazione esplica le sue funzioni attraverso attività (o potestà) particolarmente incisive, che si estrinsecano in atti suscettibili di diventare definitivi in termini brevissimi se non impugnati, con conseguente possibilità di procedere da sé all’apprensione dei beni del contribuente (senza cioè che occorra una previa sentenza di un giudice affinché questo avvenga). È proprio tale caratterizzazione dell’attività amministrativa fiscale – nel senso della particolare sua incidenza sulla sfera giuridica del contribuente – a porre quanto meno in dubbio la legittimità, ad esempio, di un impiego dell’algoritmo “sostitutivo” del funzionario nell’adozione di un provvedimento o atto autoritativo, tanto più se vi sono ragioni per ritenere come probabile – o più probabile che in altri casi – che l’algoritmo possa non essere neutrale. Da questo punto vista, considerato che la direzione intrapresa è quella di un ampliamento dei margini di operatività autonoma degli algoritmi, preoccupa non poco l’assenza di una disciplina specifica sui limiti di tale impiego. Al momento, le uniche indicazioni utili provengono dal legislatore europeo, con il Regolamento generale sulla protezione dei dati, n. 679 del 27 aprile 2016, noto anche come GDPR (General Data Protection Regulation), e dalla giurisprudenza. Quanto al GDPR, il riferimento va in particolare al considerando 71) (ove si dice che «è opportuno che il titolare del trattamento utilizzi procedure matematiche o statistiche appropriate per la profilazione, metta in atto misure tecniche e organizzative adeguate al fine di garantire, in particolare, che siano rettificati i fattori che comportano inesattezze dei dati e sia minimizzato il rischio di errori e al fine di garantire la sicurezza dei dati [continua ..]
Andando ancora oltre, non sarebbe vano provare a individuare il modo in cui – de iure condito – si potrebbe articolare la tutela del contribuente qualora egli sia vittima di un trattamento discriminatorio da parte del Fisco, dovendo distinguerne tempi e modi a seconda delle diverse aree tipiche di azione amministrativa cui accede l’uso dell’algoritmo viziato [48]. È da escludere che il problema della discriminazione algoritmica si presenti in seno allo svolgimento dell’attività di indirizzo a rilevanza interna all’Amministrazione [49]. A meno che in futuro gli algoritmi non vengano impiegati, in ipotesi, nella redazione di quegli atti tipicamente deputati alla disciplina e all’organizzazione dell’azione amministrativa (circolari, note, risoluzioni, ecc.), la presenza per ora esclusiva di componenti umane dietro lo svolgimento di questo tipo di attività pone l’eventuale ipotesi di discriminazione al di fuori del perimetro dell’indagine che si sta qui conducendo. In termini sostanzialmente analoghi, sempre per ora, si atteggia il problema della discriminazione algoritmica in fase di riscossione e in fase sanzionatoria. Nel contesto della prima di queste attività amministrative, non consta un impiego significativo di sistemi automatizzati e, per quel che vi è, si tratta di software elementari, poco sofisticati e non basati sull’Intelligenza artificiale. Dunque, se l’agente della riscossione nel contesto della dilazione di pagamento si avvale di un algoritmo per predisporre, ad esempio, un piano di ammortamento sulla base degli indici di liquidità, è pressoché remota la possibilità che il sistema restituisca un risultato discriminatorio, considerata la semplicità dell’operazione – meramente di calcolo – richiesta alla macchina [50]. A conclusioni diverse si giungerebbe invece ove l’agente della riscossione ricorresse a un algoritmo per la valutazione circa la sussistenza, o meno, delle condizioni per la dilazione [51]: in questo caso, giacché al sistema si chiederebbe di mettere in relazione caratteristiche e categorie diverse, anche di difficile definizione, aumenterebbe di molto il rischio di distorsioni discriminatorie, nonché, con esso, le probabilità di annullamento del provvedimento di diniego di dilazione adottato in forza dei [continua ..]
In aggiunta alla tutela giurisdizionale invocabile dal contribuente avverso atti discriminatori dell’Amministrazione finanziaria, o comunque nell’ottica di un suo rafforzamento, non sarebbe vano, infine, considerare alcune garanzie a corredo dell’utilizzo di questi sistemi, valorizzando indicazioni ritraibili dalla normativa vigente o approntandone una specifica. Innanzitutto, bisognerebbe mettere il contribuente nelle condizioni di conoscere l’esistenza di processi decisionali automatizzati che lo riguardino (è il principio di conoscibilità [70], sancito sempre dal Consiglio di Stato accanto ai già citati principi di non esclusività della decisione algoritmica e di non discriminazione algoritmica), così come di comprendere in che termini lo riguardino. Al fine cioè di evitare un coinvolgimento inutile del contribuente, con esiti che possano poi rivelarsi discriminatori, occorrerebbe – una volta individuato il processo automatizzato – rendere sempre chiaro e trasparente ogni passaggio relativo all’impiego dell’algoritmo: dal tipo utilizzato (se deterministici, ad esempio, oppure più sofisticati come i machine learning), ai dati forniti (con indicazione specifica della fonte), alla spiegazione dei criteri di elaborazione dei dati seguiti dall’algoritmo [71]. Solo così ci si potrebbe avvedere di essere ingiustamente finiti in un cluster di rischio, ad esempio. Sembrerebbe necessario altresì dotare il contribuente di specifici strumenti che possano prevenire o rimediare all’eventualità che dati suoi inesatti o errati vengano utilizzati dall’Amministrazione, riconoscendogli ad esempio la possibilità di richiedere ed ottenere l’immediata rettifica o cancellazione. In attesa di una disciplina puntuale, si potrebbe inoltre pensare a valorizzare, come suggerito in dottrina [72], la prospettiva di cooperazione tra Fisco e contribuenti, al fine di delineare un uso meno problematico di tali sistemi da parte degli Uffici fiscali ed evitare, magari, fenomeni di discriminazione [73]. In tal senso, questi sistemi potrebbero essere utilizzati per individuare taluni contribuenti, i quali, eventualmente, vengono poi invitati dall’Ufficio a interloquire sui risultati della selezione automatizzata, rendendo magari noti errori, inesattezze o altri dati non conosciuti [continua ..]