Rivista Trimestrale di Diritto TributarioISSN 2280-1332 / EISSN 2421-6801
G. Giappichelli Editore

indietro

stampa articolo indice fascicolo leggi articolo leggi fascicolo


Intelligenza artificiale e sanzioni amministrative tributarie (di Daniele Cané)


L’intelligenza artificiale trova sempre più spazio nell’applicazione delle norme tributarie, soprattutto nelle grandi imprese. Tuttavia, un suo utilizzo non controllato può esporre impresa e consulenti al rischio, ineliminabile, di violazioni. Si esaminano qui i profili di responsabilità legati all’impiego di un prototipo di intelligenza artificiale, il Matching Database, creato dall’OCSE per l’applicazione della Convenzione multilaterale anti-BEPS. Il tema si inscrive nel generale dibattito, di straordinaria attualità, che attiene alla dimensione etica e giuridica del rapporto tra IA e uomo. Rapporto che occorre risolvere nel senso dell’asservi­mento della prima al secondo. Ne consegue la responsabilità dell’uomo, quale centro dell’ordinamento giuridico.

Lo scritto riproduce, con opportuni adattamenti e integrazioni, l’intervento al Convegno “Intelligenza artificiale e ragionamento giuridico”, tenuto presso l’Università degli Studi di Firenze il 15 novembre 2018 e pubblicato in DORIGO (a cura di), Intelligenza artificiale e ragionamento giuridico, Pisa, 2020, p. 317.

Artificial intelligence and tax administrative penalties

Artificial intelligence is finding more and more room in the application of tax rules, especially in large companies. However, its uncontrolled use may expose businesses and consultants to an unavoidable risk of infringements. This paper examines the profiles of liability related to the use of a prototype of artificial intelligence, the Matching Database, created by the OECD for the application of the Multilateral Anti-BEPS Convention. The topic relates to the relevant debate concerning the ethical and legal dimension of the relationship between AI and humans. Such relationship must be resolved in the sense that the first shall be subjugated to the needs of the latter. It follows that only humans shall be deemed liable for legal violations made by AI.

SOMMARIO:

1. La sostituzione dell’intelligenza umana con quella artificiale nell’attuazione dei tributi - 2. Intelligenza artificiale e diritto tributario. La Convenzione multilaterale per l’attuazione delle misure anti-BEPS, il Matching Database e il suo impatto sul ragionamento giuridico - 3. Peculiarità degli illeciti fiscali commessi su indicazione della IA. Il problema della black box - 4. L’attuazione partecipata dell’imposta e i doveri strumentali, non delegabili, di conoscenza della legge tributaria - 5. Applicabilità delle cause esimenti: obiettiva incertezza della legge ed errore di diritto incolpevole - 6. Culpa in vigilando e culpa in eligendo. Speculazioni sugli algoritmi intelligenti - 7. Segue: legittimo affidamento e scusabilità dell’errore - 8. Precisazioni sulla posizione del consulente che si avvale della IA - 9. Conclusioni e spunti operativi - NOTE


1. La sostituzione dell’intelligenza umana con quella artificiale nell’attuazione dei tributi

Le sanzioni tributarie non penali sembrano un buon terreno per sperimentare le applicazioni del ragionamento giuridico ai casi di sostituzione dell’in­telligenza umana con quella artificiale (IA). L’instabilità e la cronica incertezza del diritto tributario giustificano una sempre maggiore esternalizzazione delle attività necessarie all’attuazione dell’im­posta. Questa esigenza è particolarmente avvertita dalle grandi imprese, oggi più che mai invischiate nel tecnicismo esasperato della determinazione degli imponibili [1]. Per queste imprese, l’impiego della IA nell’applicazione della legge tributaria può rivelarsi opportuna, per i notevoli risparmi che assicura, e finanche necessaria, per alcuni modelli di business. Occorre dunque chiedersi come la sostituzione dell’intelligenza umana con quella artificiale impatti sulla sanzionabilità delle violazioni indotte da un errore dell’IA. Qui si considera l’errore nell’interpretazione della Convenzione multilaterale per l’implementazione delle misure anti-BEPS, per la cui applicazione l’OCSE ha predisposto un prototipo di IA, il Matching Database. Va tenuto presente che, a differenza del diritto civile e penale, quello tributario non si è ancora occupato della responsabilità per illeciti commessi con l’impiego di IA. Di recente, i tributaristi si sono interessati ad altri problemi: in particolare, all’opportunità di istituire un’imposta ad hoc in relazione all’u­ti­lizzo della IA; e ai limiti all’utilizzo di algoritmi e Big Data a fini accertativi, da parte del fisco [2]. Eppure, il tema è di sicuro interesse teorico e pratico: dal punto di vista teorico, esalta la specificità del diritto sanzionatorio tributario, come settore giuridico autonomo rispetto al diritto punitivo generale, del quale comunque mutua i princìpi fondamentali (ss. la personalità e la colpevolezza); dal punto di vista pratico, pone agli operatori seri interrogativi sull’opportunità di adeguare i processi di gestione del rischio fiscale in relazione all’utilizzo dell’intelligenza artificiale. Vi è, infine, un terzo profilo, di grande attualità, che attiene alla dimensione etica e giuridica del rapporto tra IA e uomo. [continua ..]


2. Intelligenza artificiale e diritto tributario. La Convenzione multilaterale per l’attuazione delle misure anti-BEPS, il Matching Database e il suo impatto sul ragionamento giuridico

Occorre premettere che l’espressione “intelligenza artificiale” ha un significato molto ampio e non ne esiste una definizione generalmente condivisa [5]. Essa indica quella «scienza intesa a sviluppare modelli computazionali del comportamento intelligente, e quindi a far sì che gli elaboratori possano eseguire compiti che richiederebbero intelligenza da parte dell’uomo [6]»; oppure, più in generale, l’attività volta a sviluppare macchine intelligenti, ossia dotate delle qualità proprie dell’intelletto umano: percezione, ragionamento razionale, interpretazione dei dati esterni, auto-apprendimento e autonomia decisionale [7]. Le applicazioni dell’intelligenza artificiale, e dei suoi surrogati, sono oggi numerose – tanto da aver fatto parlare di “quarta rivoluzione industriale” [8] – e interessano molti settori economici: dalle auto e moto driverless al prodigioso “Watson”, un “super-computer” impiegato anche nelle diagnosi mediche, sino agli algoritmi machine-learning, che hanno rimpiazzato gli operatori umani nel trading finanziario. Anche in campo giuridico l’IA trova oggi numerose applicazioni [9]. Una recente applicazione al diritto tributario di un prototipo di IA, intesa in senso lato, è il Matching Database, un algoritmo predisposto dall’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) per l’applicazione della Convenzione multilaterale anti-BEPS [10]. Per capire come funziona il Matching Database, e quale sia il suo impatto sul ragionamento giuridico, occorre comprendere il funzionamento della Convenzione multilaterale. In pochissime parole, essa consiste in un trattato di diritto internazionale pubblico che modifica i trattati contro le doppie imposizioni conclusi tra ciascuno degli Stati che vi (alla Convenzione) aderiscono, per inserirvi le misure anti-Base Erosion and Profit Shifting. È, tecnicamente, un “fascio di trattati”, che consente agli Stati aderenti di modificare tutti o alcuni dei trattati bilaterali, senza rinegoziarli uno ad uno. La Convenzione bilancia dunque due esigenze, l’una generale, comune a tutti gli Stati, l’altra particolare, propria di ciascuno di essi: aggiornare e uniformare i trattati contro le [continua ..]


3. Peculiarità degli illeciti fiscali commessi su indicazione della IA. Il problema della black box

Il Matching Database riproduce il risultato di specifiche attività umane, non l’attività in sé. Esemplificando: se il sottomarino va sott’acqua come l’uomo, ma non nuota come l’uomo, così il Matching Database “calcola” le norme della Convenzione multilaterale, ma non le interpreta come farebbe l’uomo. Il Matching Database è, insomma, uno strumento di ausilio, non sostitutivo dell’attività umana. Non può perciò commettere materialmente una violazione fiscale. Non potrà, cioè, presentare una dichiarazione infedele, dovendo questo adempimento e le operazioni ad esso preliminari, come la qualificazio­ne, classificazione e determinazione del reddito, essere materialmente compiuti da una persona. Il Matching Database potrà ad esempio indicare quali norme della Convenzione multilaterale si applichino a un certo trattato, o se e come la Convenzione abbia modificato la norma di un trattato secondo cui un determinato reddito è imponibile anche nello Stato della fonte. A ben vedere, il contribuente che si avvale del Matching Database si trova in una situazione simile a quella di chi vìoli una norma tributaria particolarmente complessa su parere del consulente. Con due importanti peculiarità, però: a) che la IA non può essere considerata colpevole dell’illecito, come il consulente in carne ed ossa, poiché non può replicare l’intenzionalità e la coscienza, presupposto della colpevolezza [19]; quindi, non può essere consapevole dell’anti-giuridicità del proprio comportamento [20]; b) che l’operato della IA non è sempre verificabile dall’utilizzatore, il quale è in grado di conoscere l’input (ss. le relazioni tra le norme della Convenzione multilaterale, oggetto dell’algoritmo), e il risultato (output), ma non il processo – il contenuto del ragionamento, diremmo per l’uomo. È il noto problema della black box. Possono servire ad esempio i casi di spoofing, verificatisi negli Stati Uniti. Si tratta di pratiche illecite di manipolazione dei prezzi degli strumenti finanziari, realizzate da algoritmi intelligenti di trading automatico che gestiscono un elevatissimo [continua ..]


4. L’attuazione partecipata dell’imposta e i doveri strumentali, non delegabili, di conoscenza della legge tributaria

L’attuazione della norma tributaria è oggetto di una funzione amministrativa [22] diretta all’equa ripartizione dei carichi pubblici. Specie nelle imposte sui redditi e nell’IVA, l’estensione e l’articolazione del­l’attività amministrativa sono cambiate nel tempo e si è progressivamente ampliata la partecipazione del contribuente, modificandosi corrispondentemente anche la disciplina formale dei tributi. Rispetto agli anni ’50, quando l’attuazione della normativa tributaria era quasi interamente rimessa all’Amministrazione e i contribuenti erano tenuti a collaborare, al più, nella fissazione degli imponibili, nell’odierna fiscalità di massa, la determinazione degli imponibili è fatta – in prima battuta – dal contribuente, mentre all’Amministrazione spettano compiti di controllo e sanzionatori [23]. La funzione amministrativa si colloca, oggi, a monte e a valle della fissazione della ricchezza tassabile, arricchendosi, rispetto al passato, di nuove attività e poteri: attività conoscitive, dirette all’acquisizione di informazioni fiscalmente rilevanti; di indirizzo degli uffici; di informazione del contribuente; di riscossione coattiva dei tributi; infine, d’irrogazione di sanzioni di carattere non penale, per prevenire e reprimere l’evasione fiscale. Alla funzione impositiva il contribuente partecipa a sua volta in vario modo: ora adempiendo a obblighi (per es., presentando la dichiarazione), ora assolvendo ad oneri (rispondendo alla richiesta di chiarimenti), ora esercitando facoltà, diritti e poteri (attivando ad esempio il contraddittorio endoprocedimentale). Soprattutto, è tenuto a parteciparvi – ora a “cooperarvi”, ora a “collaborarvi” – con diligenza e buona fede, come stabilisce, tra gli altri, l’art. 10, L. 27 luglio 2000, n. 212 (Statuto dei diritti del contribuente) [24]. Ciò in quanto l’equa ripartizione dei carichi pubblici, che è lo scopo del­l’at­tività impositiva, è sì un diritto del singolo alla giusta imposizione, ossia ad essere tassato secondo la propria capacità contributiva, ma anche un suo dovere inderogabile di solidarietà sociale, in quanto realizza il suo concorso alla ripartizione delle spese indivisibili [continua ..]


5. Applicabilità delle cause esimenti: obiettiva incertezza della legge ed errore di diritto incolpevole

Anche in materia tributaria, l’errore di diritto esclude la punibilità della violazione solo se è incolpevole. Spetta al contribuente provare l’assenza di colpa, che, per le violazioni tributarie, si presume [34]. In linea di principio, l’errore di diritto si considera incolpevole, quindi scusabile, solo se non è oggettivamente possibile conoscere e applicare correttamente la norma tributaria; cioè quando, oltre ad essere involontario, l’agente abbia osservato le regole della diligenza che gli imponevano di scegliere un consulente qualificato (assenza di culpa in eligendo); e abbia correttamente vigilato sul consulente, vagliandone con cura motivazione e svolgimento logico – ovviamente, nei limiti di quanto si poteva pretendere dall’agente modello, ossia da quel soggetto dotato di un livello culturale e impiegato in una professione o attività analoghi a quelli dell’agente (assenza di culpa in vigilando) [35]. L’errore sul precetto può dipendere sia dall’ignoranza assoluta della legge – caso evidentemente diverso dal nostro – sia dalla sua errata comprensione sia, ancora, dall’obiettiva incertezza della normativa [36]. Le prime due situazioni (ignoranza assoluta ed errata comprensione della norma) si distinguono dall’obiettiva incertezza soprattutto perché implicano una valutazione soggettiva di esigibilità della condotta, che è estranea alla terza. L’obiettiva incertezza che scusa la violazione è disciplinata dagli artt. 6, com­ma 2, D.Lgs. n. 472/1997, e 10, comma 2, L. n. 212/2000, e si verifica quando la norma non è oggettivamente conoscibile con certezza nel suo esatto significato, se non dal giudice. Ciò accade quando la disposizione non è completamente oscura – sennò, sarebbe probabilmente incostituzionale per indeterminatezza – ma l’interprete non è comunque in grado di pervenire a una sicura conoscenza del precetto che essa esprime, per cause esterne e oggettive, come l’esistenza di contrasti in giurisprudenza o tra questa e l’Amministrazione [37]. Obiettiva incertezza è, insomma, conoscenza insicura – non già errata – del “vero contenuto” della norma. In questi casi, la mediazione [continua ..]


6. Culpa in vigilando e culpa in eligendo. Speculazioni sugli algoritmi intelligenti

Se si escludono l’ignoranza assoluta e l’obiettiva incertezza (e tolto il fatto del terzo, che qui non ricorre), il contribuente risponderà della violazione commessa su (errata) indicazione della IA in caso di colpa in vigilando o in eligendo. Non sembrano infatti esservi valide ragioni per discostarsi qui dal principio, che ha solide giustificazioni, per cui il contribuente è tenuto a fare tutto ciò che ci si può attendere per prendere conoscenza della norma tributaria; deve quindi usare la necessaria diligenza tanto nella scelta quanto nella sorveglianza della IA. Oltre che sul principio di colpevolezza, che presuppone appunto la conoscenza del precetto violato, questo principio riposa – come detto – sul dovere di buona fede nell’adempimento degli inderogabili doveri di solidarietà sociale, quali sono quelli tributari. Ora, il dovere-potere di vigilare presuppone la controllabilità del vigilato, ossia la concreta verificabilità del suo operato. Ma, come si accennava, il ragionamento della IA – il processo di elaborazione degli input per arrivare al­l’output – non è conoscibile né verificabile; le correlazioni con le quali essa opera non sono conoscibili dall’utilizzatore medio. Che l’algoritmo possa essere in alcuni casi comprensibile [40], poiché esistono professionisti in grado di spiegarlo, non cambia il fatto che l’utilizzatore medio non ha comunque – a causa di esso – conoscenza diretta del precetto, la quale è presupposto della colpevolezza. Anche escludendo la culpa in vigilando, però, si potrebbe rimproverare all’agente scarsa diligenza nella scelta del consulente; scelta che, per giurisprudenza pacifica, deve cadere su soggetti professionalmente qualificati [41]. La culpa in eligendo risiederebbe nell’essersi ciecamente fidati della IA, pur essendosi rappresentati la possibilità dell’errore. Più precisamente, consisterebbe nell’imprudenza, o avventatezza, di affidare la soluzione di questioni di speciale difficoltà a un “consulente” il cui parere si sa non essere verificabile, usando la diligenza dell’agente modello di riferimento (che è privo delle conoscenze che può possedere [continua ..]


7. Segue: legittimo affidamento e scusabilità dell’errore

Sebbene il Matching Database non sia, propriamente, un mezzo d’interpre­tazione della Convenzione, nel senso inteso dagli artt. 31 e 32 della Convenzione di Vienna del 1969, non essendo stato propriamente oggetto di alcun accordo tra i firmatari, esso è comunque un aiuto qualificato per l’interprete. Ciò, sia per l’autorevolezza dell’organismo che l’ha predisposto (l’OCSE) sia per l’importante funzione che assolve, quella di garantire un’uniforme applicazione della Convenzione multilaterale, che è la sua vera ragion d’essere e il motivo per cui l’OCSE stesso ne raccomanda l’utilizzo [44]. Sorge allora il dubbio che possano pur sempre escludersi le sanzioni, in base all’art. 10, comma 2, L. n. 212, nei riguardi di chi si sia in buona fede affidato al Matching Database (che vi abbia cioè riposto affidamento nella convinzione che le sue indicazioni fossero corrette). Oltre al principio di collaborazione e buona fede tra fisco e contribuenti, lo richiederebbe il principio della certezza del diritto, per il quale le norme tributarie – comprese quelle di rango pattizio – devono essere chiare e prevedibili [45]. Del resto, già la nostra giurisprudenza ha chiarito che l’affidamento legittimo – degno di tutela – può essere ingenerato anche da enti diversi dall’Am­ministrazione Finanziaria, purché siano qualificati e attendibili [46]. E riesce difficile negare che tra questi rientri l’OCSE – anche considerato che alla preparazione dei materiali OCSE partecipano le Amministrazioni dei Paesi membri.


8. Precisazioni sulla posizione del consulente che si avvale della IA

Il problema si pone in termini in parte diversi per il consulente che si avvale del Matching Database nell’interpretare la Convenzione multilaterale. Anche costui può rispondere delle violazioni tributarie, in concorso o in via esclusiva, come autore mediato [47]. Per i consulenti, tuttavia, le violazioni commesse nella soluzione di questioni «di speciale difficoltà» sono punibili solo per dolo o colpa grave, ai sensi dell’art. 5, comma 1, D.Lgs. n. 472/1997 (com’è del resto previsto dall’art. 2263 c.c. per la responsabilità civile del prestatore d’opera). Ferma la nozione penalistica di dolo, secondo il comma 3, la colpa è grave quando «l’imperizia o la negligenza del comportamento sono indiscutibili e», riguardo all’errore di diritto, «non è possibile dubitare ragionevolmente del significato e della portata della norma violata». Come ha rilevato la dottrina [48], questa disposizione limita al massimo le ipotesi di colpa grave e finisce per escludere la responsabilità del consulente alle prese con problemi «di speciale difficoltà», in relazione ai quali difficilmente può aversi colpa grave, perché la loro soluzione dipende, di solito, da norme il cui significato è dubbio. Residua quindi un’area d’impunità (anche per il consulente che usi la IA) in situazioni come queste; un vuoto difficilmente accettabile in un sistema informato al principio di colpevolezza. Si deresponsabilizzano infatti comportamenti che possono ben superare la soglia della colpa lieve: si pensi all’errore dipendente da colpa volontaria, come quella del professionista che, privo di specifiche competenze in materia internazionale, si affidi ciecamente al Matching Database, pur consapevole del rischio di cadere in errore, anziché ricorrere a un consulto specialistico. È questa, forse, anche la conseguenza di un’inaccurata definizione della colpa grave, che è stata ricollegata alla prova del grado della colpa e non, come sarebbe stato più corretto, alla sua intensità (che va misurata con riferimento alla condotta che era lecito pretendere dal consulente, tenuto conto delle sue speciali capacità e competenze). Con l’infausto risultato di servire ben poco alla determinazione [continua ..]


9. Conclusioni e spunti operativi

L’impiego non controllato della IA ostacola una piena e corretta conoscenza della legge tributaria e, di conseguenza, pregiudica l’imparziale attuazione della funzione impositiva. Può quindi comportare ineliminabili rischi sanzionatori per il contribuente, considerata anche la presunzione di colpa a suo carico (che lo impegna in una spesso difficile prova contraria). Le imprese di maggiori dimensioni, che utilizzano la IA, potrebbero allora aderire al regime di adempimento collaborativo, introdotto dal D.Lgs. 5 agosto 2015, n. 128, che prevede appunto un sistema di gestione del rischio fiscale nella sostanza simile a un modello organizzativo ex D.Lgs. n. 231/2001. L’adempimento collaborativo impone un elevato livello di trasparenza nel rapporto con l’Amministrazione, ma consente di monitorare il rischio di violazioni fiscali e di ridurre alla metà del minimo le sanzioni amministrative [51]. In quella sede, occorrerebbe adottare le misure necessarie a prevenire malfunzionamenti ed errori della IA, come, ad esempio, aggiornamenti periodici o la revisione delle decisioni sulle questioni più delicate (il doppio parere, per intenderci). Prendendo spunto dalle proposte avanzate nel diritto civile, si potrebbe poi forse riconsiderare un’assicurazione contro i danni da impiego della IA, che copra anche le conseguenze economiche delle violazioni tributarie. L’assicurabilità delle sanzioni tributarie è stata ampiamente dibattuta in passato, come strumento di tutela di amministratori e legali rappresentanti dalle gravose sanzioni per violazioni commesse nell’esercizio delle loro funzioni. Il dibattito è però scemato dopo che la giurisprudenza e le autorità di vigilanza hanno ritenuto nullo, per illiceità della causa, il contratto di assicurazione avente ad oggetto il rischio delle sanzioni [52]; ed ha comunque perso pressoché ogni interesse per amministratori e legali rappresentanti delle persone giuridiche, i quali, dopo l’art. 7, D.Lgs. n. 269/2003, non rispondono più delle violazioni riferibili al rapporto tributario dell’ente [53]. Nel nostro caso, però, non si tratterebbe di assicurare propriamente la sanzione, bensì, più genericamente, il danno economico da malfunzionamento della IA, incluso soprattutto il recupero del tributo [54]. Per inciso, quantomeno per [continua ..]


NOTE