E -ADMINISTRACIÓN TRIBUTARIA: VALORACIÓN CRÍTICA DE OPORTUNIDADES Y RETOS (*)

Pilar Martín Palacios

Graduada en Derecho
Graduada en Administración y Dirección de Empresas
Universidad CEU San Pablo

Recibido: Julio, 2022
Aceptado: Septiembre, 2022

https://dx.doi.org/10.47092/CT.23.2.2

 

RESUMEN

Este trabajo tiene por objetivo analizar el proceso de digitalización de la Administración tributaria española. Reconociendo el carácter transformador de las nuevas tecnologías y su transversalidad en toda la sociedad, nuestro cometido es valorar los retos y oportunidades que éstas ofrecen a las Administraciones tributarias. Se analiza el cambio de paradigma experimentado por la Administración, evaluando la inserción de las tecnologías disruptivas (Inteligencia Artificial, Big Data y Blockchain ) en su funcionamiento. Por último, se resalta la necesaria protección, en este contexto, de los derechos y garantías de los contribuyentes.

Palabras clave: digitalización, Administración tributaria, tecnologías disruptivas, derechos y garantías de los contribuyentes.

(*) El presente trabajo tiene su origen en la investigación realizada en el marco del Trabajo de Fin de Grado dirigido por la Dra. Marta Villar Ezcurra que fue galardonado con el Primer Premio de Iniciación de la Investigación “San Raimundo de Peñafort” por la Facultad de Derecho de la Universidad CEU San Pablo celebrado el 22 de febrero de 2022.

 

 

E -TAX ADMINISTRATION: CRITICAL APPRAISAL OF OPPORTUNITIES AND CHALLENGES

Pilar Martín Palacios

 

ABSTRACT

The aim of this paper is to analyse the digitisation process of the Spanish tax Administration. Recognising the transformative nature of new technologies and their transversal nature throughout society, our task is to assess the challenges and opportunities they offer to tax Administrations. We analyse the paradigm shift experienced by the Administration, assessing the insertion of disruptive technologies (Artificial Intelligence, Big Data and Blockchain) in its functioning. Finally, it highlights the necessary protection, in this context, of taxpayers’ rights and guarantees.

Keywords: digitalisation, tax Administration, disruptive technologies, taxpayers’ rights and guarantees.

 

SUMARIO

1. Hacia una Administración tributaria 4.0. 1.1. La Inteligencia Artificial. 1.1.1. Segmentación de los contribuyentes por algoritmos en la prevención y lucha contra el fraude: alusión al principio de transparencia y de no discriminación. 1.2. Big Data y asistencia al contribuyente: compliance by design . 1.3. Blockchain: especial referencia a su uso en la lucha contra el fraude en el Impuesto sobre el Valor Añadido. 2. Derechos y garantías de los contribuyentes en la era digital. 2.1. Las decisiones automatizadas y la motivación administrativa. 2.2. El valor algorítmico en el ordenamiento jurídico-tributario. 3. Conclusiones. Bibliografía.

 

1. HACIA UNA ADMINISTRACIÓN TRIBUTARIA 4.0

La utilización de tecnologías disruptivas por parte de la Administración tributaria española persigue la plasmación efectiva de una Administración tributaria 4.0, es decir, una Administración acorde al fenómeno conocido como “cuarta revolución industrial”[1].

La digitalización se presenta como medio idóneo para el desempeño por parte de la Administración tributaria de sus funciones en la medida en que permite el acopio de manera masiva de datos. Se pone de este modo de manifiesto la tradicional idea –que no por ello menos importante– de que sin datos no existe la Hacienda Pública. Y es que, sin una cultura administrativa orientada al dato, muy difícilmente la Administración tributaria podría ejercer sus potestades de información, asistencia, gestión, inspección, recaudación (art. 83.1 LGT), así como la potestad revisora y sancionadora. Esta idea es clave en una Administración tributaria que se convierte, en el marco de aplicación de los tributos del siglo XXI, en facilitadora ex antey controladora ex post de la actuación del contribuyente.

La Administración tributaria estatal, como pionera del fenómeno digital, tiene a su alcance las tecnologías más avanzadas. En este apartado, trataremos de examinar las implicaciones de dichas tecnologías desde una perspectiva multidisciplinar (fundamentalmente, desde el ámbito de la ciencia tecnológica y jurídica). Con tal fin, se partirá de una delimitación conceptual de las herramientas tecnológicas que se van a analizar, para con posterioridad adentrarnos en algunas de sus utilidades jurídicas en el marco de la aplicación de los tributos.

1.1. La Inteligencia Artificial

La Inteligencia Artificial (también denominada IA) es una disciplina científica cuyo origen data del siglo XX. Tras la Conferencia de Dartmouth en 1956 fue definida la Inteligencia Artificial como «la ciencia e ingeniería de crear máquinas inteligentes» (Geetha y Bhanu Sree Reddy, 2018: 65), esencialmente programas computacionales inteligentes. Si bien es cierto que se le atribuye a este autor la invención del concepto de Inteligencia Artificial, ya en el año 1950 Turing formuló el interrogante de si las máquinas podían pensar.

A raíz de las aportaciones de estos autores se pretendió alcanzar un concepto consensuado de IA. Desde un punto de vista teórico, las principales conclusiones extraídas y esquematizadas fueron las siguientes:

- La IA consiste en que las máquinas actúen de forma humana: esta idea aparece en el Test de Turing, que concibe que la IA debe actuar humanamente. Con posterioridad, en el año 1990 será definida como «el arte de desarrollar máquinas con capacidad para realizar funciones que, cuando son realizadas por personas, requieren de inteligencia» (López Takeyas, 2007: 2).

- La IA consiste en que las máquinas piensen como un ser humano: esta concepción de la IA se sitúa en un estadio superior al anterior. Las máquinas ya no solo actúan con apariencia humana, sino que son capaces de pensar como las personas. Así se pone de manifiesto: «el nuevo y excitante esfuerzo de hacer que los computadores piensen […] máquinas con mente, en el más amplio sentido literal» (Iglesias Solano e Iglesias Carbonell, 2011: 34).

- La IA consiste en que las máquinas piensen de forma racional: definen la IA como el análisis de las capacidades mentales por medio del empleo de modelos computacionales. De igual modo, se afirma que es «el estudio de los cálculos que hace posible percibir, razonar y actuar»(Winston, 1992: 5). Por medio de la implantación de patrones e instrumentos matemáticos, como la inferencia estadística, extraerá la máquina conclusiones particulares lógicas.

- La IA consiste en que las máquinas actúen de forma racional: la Inteligencia Artificial se configura como el estudio del diseño de agentes inteligentes. En ese sentido, la configuración de la IA debe articularse en torno a las «conductas inteligentes en artefacto» (Nilsson, 1998: 1).

A pesar de que el avance de la IA dificulta su delimitación conceptual, partiendo de la IA fuerte[2], podemos definirla siguiendo a Barrio Andrés (2020: 57) como la posibilidad «para razonar, representar el conocimiento, planificar, aprender, comunicarse en lenguaje natural e integrar todas estas habilidades hacia un objetivo común». Definición que coincide con la formulada por la Comisión Europea (2018: 2) en su Plan Coordinado sobre IA para Europa: «el término Inteligencia Artificial (IA) se aplica a los sistemas que manifiestan un comportamiento inteligente, pues son capaces de analizar su entorno y pasar a la acción –con cierto grado de autonomía– con el fin de alcanzar objetivos específicos».

Los objetivos específicos que la IA persigue, en el marco de la Administración tributaria, pueden ser sintetizados en dos: la asistencia e información al contribuyente y la prevención y lucha contra el fraude. Si bien es cierto que con carácter general la digitalización de la Administración tributaria donde mayores avances ha experimentado es en el ámbito de la asistencia al contribuyente[3], en la lucha contra el fraude la IA se presenta como una herramienta útil. En consecuencia, en el siguiente apartado se procede al análisis de sus posibles aplicaciones en el marco de la prevención y lucha contra el fraude.

1.1.1. Segmentación de los contribuyentes por algoritmos en la prevención y lucha contra el fraude: alusión al principio de transparencia y de no discriminación

Dentro de las posibles aplicaciones de la IA en el ámbito tributario, encontramos la posible segmentación de los contribuyentes por algoritmos. Como se ha mencionado anteriormente, los algoritmos pueden resultar de gran utilidad para la Administración tributaria en el marco de la prevención y lucha contra el fraude fiscal. Esto es debido a diversas razones, entre las que cabe destacar, la existencia en las Administraciones tributarias de recursos limitados (incluyendo los recursos humanos) [4] y la característica algorítmica de la predictibilidad.

Los algoritmos predictivos permiten pronosticar un comportamiento futuro en base a conocimientos presentes. En el marco de la inspección tributaria, los algoritmos de la IA pueden servirnos para predecir por medio del análisis de infracciones tributarias acontecidas en el pasado características o patrones comunes que presentan las actuaciones infractoras o incluso perfiles de contribuyentes que son más propensos a cometer fraude. De este modo la Administración tributaria podría concentrar todos sus esfuerzos en esos sectores o grupos de contribuyentes con esos perfiles[5]. Así, a modo de ejemplo, los algoritmos permiten predecir la concurrencia de los criterios de residencia fiscal, sobre todo en relación con los sujetos que figuren en las bases de datos tributarias como no residentes.

También se ha evidenciado que, por medio de los algoritmos más sofisticados, es posible descubrir manifestaciones de capacidad económica oculta. La propia Administración tributaria española, en el Plan de Control Tributario y Aduanero de 2021 [6] confirma la posibilidad de identificar patrimonios encubiertos a través de un entramado de empresas. Se trata de empresas que, en la mayoría de las ocasiones, suelen ser no cotizadas precisamente para evitar el control al que la Comisión Nacional del Mercado de Valores somete a las sociedades cotizadas y a los deberes de información societaria y transparencia más elevados.

Asimismo, por medio de los algoritmos se ha podido apreciar la vinculación entre el acrecimiento de la riqueza y la constitución de sociedades vinculadas que ocultan la verdadera titularidad patrimonial. En estos supuestos los algoritmos permiten combatir el fraude mediante la predicción de relaciones familiares no declaradas.

Del mismo modo, la Administración tributaria española utiliza la IA en la prevención del fraude a través del empleo de técnicas predictivas [también denominadas behavioural insights[7]] para alcanzar una mejor comprensión del comportamiento del contribuyente[8]. En particular, se prevé su utilización en el IRPF en relación con los contribuyentes que han presentado su declaración con algunos errores. A través de un algoritmo se calcula el tipo de retención a cuenta del IRPF para los rendimientos del trabajo personal. En este mismo sentido, el Plan de Control Tributario y Aduanero 2022 prevé avanzar en las técnicas de predicción para la mejora del cumplimiento voluntario de los contribuyentes, tanto en el marco de la comunicación con el contribuyente (a partir de las cartas aviso a sectores de contribuyentes seleccionados que incurran en determinados parámetros de riesgo de incumplimiento) como en las aplicaciones informáticas empleadas por la Administración tributaria[9].

En conclusión, podemos apreciar cómo, en los supuestos mencionados, la Administración se sirve de algoritmos predictivos para segmentar a los contribuyentes y, en el marco de la actuación de prevención y lucha contra el fraude, enfocarse en los grupos que han sido considerados por los algoritmos con mayor propensión a la comisión de fraude fiscal. Esta segmentación permite que la Administración tributaria sea más eficaz a la hora de combatir el fraude, pero esta praxis también puede generar disfuncionalidades. En este punto se deben mencionar los principios de transparencia y de no discriminación que deben erigirse como principios rectores de la actuación algorítmica de la Administración tributaria digital.

El principio de transparencia en el marco de las relaciones Administración-contribuyente debe regir, con carácter general, en su máxima extensión. No obstante, dadas las especificidades que presenta la materia tributaria se debe hacer una reflexión sobre las limitaciones que el mismo presenta en el ámbito de la investigación tributaria.

En relación con la transparencia que puede ser solicitada por parte del obligado tributario en relación con los algoritmos utilizados en el marco de un procedimiento inspector, debe tenerse en cuenta que si se conocieran cuáles son las características o criterios usados por los algoritmos para identificar a los presuntos infractores, todos eludirían esos requisitos y por tanto la utilidad de esta herramienta se desvirtuaría. Así pues, resulta necesario alcanzar unas garantías de transparencia que puedan casar con el sigilo de la inspección tributaria en sus labores de investigación[10].

La dificultad irradia en determinar cuáles deben ser dichas garantías mínimas que, en el marco de la inspección de tributos se deban otorgar al contribuyente. Esta dificultad de delimitación no debe suponer, en ningún caso, la relajación de la búsqueda de concreción de las mismas. Como afirma Martín López (2022: 86), «la máquina es un elemento coadyuvante y no sustitutivo de las personas, pero, aun así, no parece que la aplicación de la inteligencia artificial en el ámbito de la inspección tributaria deba quedar excluida de unas exigencias mínimas –rectius, suficientes– en materia de sesgos y transparencia». Esta cuestión, que no es baladí, ha dado lugar a un pronunciamiento del Tribunal de la Haya de 5 de febrero de 2020 en el que el uso de algoritmos para luchar contra el fraude laboral y fiscal por medio de la herramienta Sy RI fue declarado [11] contrario al derecho a la intimidad y a la vida familiar del art. 8 del Convenio Europeo de Derechos Humanos.

En cuanto al principio de no discriminación, desde el plano de la sociología y de la psicología económica (behavioral economics), se hace referencia a la teoría de la profecía autocumplida (self-fulfilling prophecy) o el efecto Pigmalión. Esta teoría explica cómo, partiendo de una definición errada de la realidad, se puede provocar un nuevo comportamiento que consigue que la falsa concepción de partida se convierta en verdadera[12]. Si trasladamos esta concepción al ámbito de la inspección tributaria, en el lugar donde más se inspecciona se encontrarán más infracciones y, en ese sentido, parece que se corrobora lo que planteó el algoritmo, es decir, que esas personas tienen un patrón defraudador y merecen ser objeto de reiteradas inspecciones. Por lo que parece ser susceptible de poder generar discriminaciones entre los distintos contribuyentes.

En relación con este tratamiento diferenciador a los contribuyentes cabe hacer una matización. Al igual que existen discriminaciones positivas en el marco de la IA prestacional, es decir, en el marco de información y asistencia a los contribuyentes con el ánimo de dar un trato más personalizado al obligado tributario, parece aceptable que cuando existe una mayor probabilidad de fraude se justifique esta discriminación, siempre y cuando se establezcan las debidas precauciones.

En este contexto cabe afirmar que no solo existen discriminaciones algorítmicas, sino que también existen sesgos humanos. Además, los sesgos humanos pueden ser menos controlables que los algorítmicos en la medida en que seamos capaces de establecer un sistema eficaz de rendición de cuentas.

Los sesgos pueden surgir bien por la introducción al algoritmo de criterios o datos sesgados o bien porque la decisión tomada sea por medio de datos erróneos o imprecisos. Dichos sesgos están vinculados con la idea de la algocracia o tiranía de los algoritmos. Un ejemplo de discriminación algorítmica fue declarado por el Tribunal Ordinario de Bolonia en una sentencia de 31 de diciembre de 2020 relativa al conocido caso del algoritmo Frank, empleado por la empresa Deliveroo para sus procesos selectivos y de ajuste de la demanda y servicios[13].

No obstante, con carácter general, los sesgos provienen de la información que se proporciona al algoritmo. Por tanto, podemos afirmar que los algoritmos no son discriminatorios, sino que pueden existir discriminaciones algorítmicas. Sin embargo, en el ámbito de la Administración tributaria esta afirmación puede en cierta medida matizarse. La razón es que en este ámbito la información suele suministrarse por agentes de confianza. En el marco de las obligaciones de información (art. 93 LGT) encontramos a notarios, fedatarios públicos, entidades bancarias, registros públicos, entre otros. En ese sentido, en el caso de que se produjera un supuesto de discriminación algorítmica, provendría probablemente de los criterios introducidos en el código fuente más que de la información por medio de la cual se extraen las conclusiones particulares lógicas.

Uno de los problemas relativos a los algoritmos y que será analizado posteriormente es cuál es el valor que otorgamos a los algoritmos en el ordenamiento jurídico. Dicha cuestión es de profunda actualidad y está siendo analizado por los distintos expertos de las diferentes ramas jurídicas. Una primera aproximación al problema es partir de la consideración del algoritmo como una herramienta, es decir, de carácter meramente instrumental. En ese sentido, habrá que analizar en qué área concreta va a ser utilizado y los efectos que en dicha rama genera. En el caso de los algoritmos predictivos, cuyo uso determina unos resultados que, en el caso de que no hubiera habido algoritmo, se hubieran alcanzado otros resultados distintos, la naturaleza de éstos presenta una evidente relevancia y dimensión jurídica que será necesario precisar.

1.2.Big Datay asistencia al contribuyente: compliance by design

Si la IA está suponiendo una auténtica revolución tecnológica en la Administración tributaria el instrumento que lo hace posible es precisamente el Big Data. En ese sentido no es lo mismo una Administración asistida por algoritmos que una Administración estructurada a partir de Inteligencia Artificial.

El Big Data, como sistema de información emergente, no presenta una definición unívoca. Desde un punto de vista etimológico podemos aproximarnos a su significado. El término Data hace referencia a datos y Big a su volumen, en particular al tamaño inconmensurable de éstos. En ese sentido, puede ser definido el Big Data (Datos masivos o Macrodatos) como la ciencia que «identifica conjuntos de datos extremadamente grandes que pueden analizarse computacionalmente para extraer inferencias sobre los interesados, tendencias y correlaciones» (Mantelero, 2018: 171). En definitiva, supone un sistema de recopilación y procesamiento de un gran volumen de datos. Si bien es cierto que estamos en la era del Big Data la tendencia actual parece enfocarse progresivamente en un fenómeno denominado Smart Data que persigue, más que el uso de una ingente cantidad de datos, una mayor calidad en la información [14] cumpliendo además las 4 “V” del Big Data: volumen, variedad, velocidad y veracidad.

El Big Data no solo puede emplearse, al igual que la IA, para combatir el fraude fiscal, sino también para asistir al contribuyente. La concepción históricamente imperante han sido las relaciones conflictivas entre la Administración y el contribuyente, al perseguir intereses contrapuestos. Esta mentalidad todavía sigue existiendo tal y como señala Hurtado Puerta (2020: 172), en la medida en que los ciudadanos perciben que Hacienda «desea tomar para sí el dinero de los contribuyentes, mientras que estos se defienden de la acción de la Administración contra su propiedad con las armas fácticas y jurídicas a su alcance».

Ahora bien, es indudable que las nuevas tecnologías están permitiendo un acercamiento de posturas mediante la instauración de una nueva mentalidad en el marco de la relación Administración-contribuyente: la relación cooperativa. Como afirma Soto Bernabeu (2020: 34) «su propósito es mejorar la aplicación del sistema tributario mediante la consecución de un incremento de la seguridad jurídica, de la cooperación entre la AEAT y los contribuyentes, basada en la buena fe y confianza legítima».

La Administración data-driven española está avanzando en el tax compliance by design impulsado por la OCDE. El cumplimiento por diseño es definido por Hurtado Puerta (2020: 178) como el «proceso de desarrollo de los sistemas de software que gestionan el proceso empresarial de modo tal que se alcancen las habilidades necesarias para obtener los requerimientos específicos de cumplimiento fiscal». El Big Data se presenta por esa razón como la herramienta idónea para fomentar la asistencia y el cumplimiento de los contribuyentes en la medida en que se diseñan conjuntamente por el sector público y privado los sistemas de flujo de información, adaptándose los sistemas de gestión contables de las empresas a las aplicaciones informáticas de la Agencia Tributaria.

De ese modo, se reducen los esfuerzos de los contribuyentes en convertir sus datos en formatos distintos a la par que supone un menor esfuerzo por parte de la Administración tributaria a la hora de gestionarlos. Se evitarían, además, los problemas de fraude derivados de la conversión del dato por parte de los contribuyentes antes de transmitir el mismo a la Administración tributaria. Incluso es posible el desarrollo futuro de una contabilidad que pueda estar conectada digitalmente a la sede de la Administración tributaria. Esta circunstancia ha sido bautizada bajo el nombre de “contabilidad colaborativa”, sistema que viene a sustituir a la tradicional contabilidad que se caracteriza por ser lineal.

Dicho modelo contable permite, en suma, la interacción instantánea entre todos los que intervienen, ya sea de manera directa o indirecta, en el proceso contable de la empresa. Este sistema resulta lógico ya que como afirma el Real Decreto 596/2016, de 2 de diciembre, para la modernización, mejora e impulso del uso de medios electrónicos en la gestión del Impuesto sobre el Valor Añadido, «parece razonable pensar que el progreso sustancial que se ha producido en el uso de nuevas tecnologías para la llevanza de los libros registro permita transformar el sistema de llevanza de los mismos en un sistema más moderno que acerque el momento del registro o contabilización de las facturas al de la realización efectiva de la operación económica que subyace a las mismas».

Esta es la ruta trazada y que a mi juicio resulta la más acertada para alcanzar una Administración Digital Integral que persigue reducir los costes indirectos de los contribuyentes mediante la implementación de sistemas informáticos homogéneos y por medio de una asistencia personalizada al contribuyente. No obstante, se deben tener en cuenta los costes de transición a este nuevo modelo que deberán ser asumidos en aras de una mayor simplificación de las cargas tributarias.

1.3.Blockchain : especial referencia a su uso en la lucha contra el fraude en el Impuesto sobre el Valor Añadido

La tecnología Blockchain o cadena de bloques es una de las tecnologías más novedosas cuyo máximo potencial es todavía incierto. De manera sucinta, puede ser definida como aquella tecnología cuyo funcionamiento descansa en la conjugación de elementos computacionales. En primer lugar, contiene una base de datos descentralizada [15] (registro de contabilidad distribuida o distributed ledger tecnology ) en la que la información es almacenada en nodos o participantes (servidores u ordenadores) que comparten los datos de igual a igual (peer-to-peer)[16]. En segundo lugar, está conformada por un conjunto de bloques encadenados (de ahí su denominación), integrando cada uno de un código criptográfico o hash que obtiene información de datos anteriores, siendo posible a través de éste el establecimiento de una nueva secuencia criptográfica.

La tecnología Blockchain suele ser frecuentemente relacionada con el uso de criptomonedas (especialmente el Bitcoin), pero su campo de actuación excede de éstas. Además, esta tecnología puede ser una importante aliada para la Administración tributaria en aras de combatir el fraude fiscal, especialmente en el IVA. El fraude fiscal en este impuesto es una cuestión que preocupa no solo a la Administración tributaria española sino al resto de Administraciones de los Estados miembros, al ser un impuesto armonizado. La Comisión Europea ha puesto de manifiesto que en el año 2019 los países padecieron una pérdida recaudatoria del IVA en torno a 134.000 millones de euros, cifra que se vaticina que aumente por la crisis económica y sanitaria derivada de la COVID-19 [17] y por la crisis en Ucrania.

Por esta razón, la Unión Europea pretende fomentar el uso de Blockchain por medio del empleo de contratos inteligentes o smart contracts en el tráfico comercial. Los smart contracts no son más que contratos autoejecutables [18] basados en la tecnología Blockchain. Este tipo de contratos serían óptimos en el marco de operaciones intracomunitarias de bienes.

Una de las características de la tecnología Blockchain es precisamente su inmutabilidad, esto es, la dificultad de ser manipulada la información que opera en la cadena de bloques, al ser una tecnología descentralizada en la cual existe una copia de todos los datos en cada uno de los nodos de la cadena[19]. Así se garantizaría la veracidad de las transacciones registradas en la cadena de bloques por parte de los agentes económicos sujetos a IVA.

A modo de ejemplo, cabe mencionar el supuesto de distribución de mercancías intracomunitarias donde se produce el denominado fraude carrusel[20]. Con frecuencia, los contratos de compraventa de mercancías suelen estar vinculados con un contrato de transporte[21]. Si se le dotara al contrato de transporte de naturaleza inteligente por medio de una cadena de bloques sería posible conocer la ubicación en tiempo real de las mercancías transportadas, lo cual proporcionaría una mayor seguridad, además de una mayor prevención no solo contra el fraude en el IVA sino del fraude aduanero. Por medio de la tecnología Blockchain las autoridades aduaneras, al tener acceso a la información de una operación desde el origen hasta su destino, podrán analizar los valores declarados en origen al igual que los lugares de procedencia pudiendo incluirse alertas e incluso mecanismos de control específicos. Esta medida puede ser extendida también al marco de las operaciones con terceros Estados, en la medida en que colaboraran los distintos países implicados por medio de una cadena de bloques que garantizara la trazabilidad de las mercancías.

No solo serviría la tecnología Blockchain para controlar la ubicación de la mercancía, sino también permitiría un conocimiento de las características del contrato inteligente, de tal modo que la Administración tributaria pudiera apreciar si concurren o no las circunstancias de exención o de no sujeción al impuesto. A su vez, el conocimiento de la propia naturaleza del contrato y de sus prestaciones características (y de su consiguiente ejecución) dificultaría la simulación de negocios jurídicos (art. 16 LGT).

A pesar de las posibilidades que ofrece el Blockchain, lo cierto es que la Administración tributaria española aún no lo ha instaurado en su modus operandi. Sin embargo, en cierta medida el Suministro Inmediato de Información (SII) del IVA de la Agencia Tributaria participa de la filosofía del Blockchain, pues mediante el suministro electrónico de los registros de facturación se aproxima el momento de contabilización de las facturas con el de realización de la operación sobre la que se fundamenta la emisión de la misma[22][23].

Uno de los motivos por los cuales aún no se ha implantado, deriva precisamente de la ausencia de un marco regulatorio tanto a nivel europeo como nacional. A nivel nacional, el primer intento de integración del Blockchain en las Administraciones tributarias fue en el año 2018 a través de la Proposición no de Ley sobre la introducción de tecnología Blockchain en la Administración pública en España[24]. Posteriormente en el año 2021, también se propuso la introducción de la tecnología Blockchain en la Administración pública en aras de reducir las cargas burocráticas y la simplificación administrativaa partir de la Proposición no de Ley sobre la utilización de Blockchain [25]. Más concretamente, en el marco de las actuaciones de control se plantea la necesidad de implementar esta tecnología para el establecimiento de mecanismos para detectar con una mayor celeridad el fraude.

A pesar de las dos propuestas de ley anteriormente mencionadas, la respuesta del legislador fue la introducción mediante el RDL 14/2019, de 31 de octubre, por el que se adoptan medidas urgentes por razones de seguridad pública en materia de administración digital, contratación del sector público y telecomunicaciones, de la Disposición adicional sexta de la Ley 39/2015, de 1 de octubre, del Procedimiento Administrativo Común de las Administraciones Públicas (en adelante, LPAC), la cual establece en su primer apartado que «en las relaciones de los interesados con los sujetos sometidos al ámbito de aplicación de esta Ley, no serán admisibles en ningún caso y, por lo tanto, no podrán ser autorizados, los sistemas de identificación basados en tecnologías de registro distribuido y los sistemas de firma basados en los anteriores, en tanto que no sean objeto de regulación específica por el Estado en el marco del Derecho de la Unión Europea». Continúa diciendo el segundo apartado que «en todo caso, cualquier sistema de identificación basado en tecnología de registro distribuido que prevea la legislación estatal a que hace referencia el apartado anterior deberá contemplar asimismo que la Administración General del Estado actuará como autoridad intermedia que ejercerá las funciones que corresponda para garantizar la seguridad pública».

De lo anterior se desprende en primer lugar la existencia de un vacío legal en esta materia. Y, en tanto no exista una regulación ad hoc europea o española, no están permitidos, en las relaciones de los interesados (art. 4 LPAC) con la Administración pública Española, los sistemas de identificación basados en Blockchain.

Esta decisión obedece a razones de seguridad pública. Uno de los riesgos que encierra esta tecnología es el problema de la identidad de los sujetos[26]. Los participantes en la cadena de bloques suelen operar con identificadores numéricos, pudiendo tener una misma persona varios identificadores. Cuando se efectúa una transacción económica se pone de manifiesto la firma electrónica del sujeto. El problema consiste en que podría no haber conexión entre la persona que opera y el sujeto que es registrado (piénsese, por ejemplo, en un contrato de mandato en el cual el mandatario efectúa un negocio jurídico a través de la clave del mandante actuando de manera negligente). Este problema puede verse agravado en determinados supuestos en los que no hubiera una delegación de funciones, sino que se produzca una suplantación de identidad o una pérdida de las claves de acceso a la red.

Asimismo, en cuanto sea regulada la clase de Blockchainque debería ser de utilización son la de redes privadas o permisionadas. Entendemos por una red privada aquella en la que existe una autoridad o gestor en la red, que controla quienes participan en la misma, de modo que los usuarios que operan en la red son conocidos (lo cual eliminaría en cierta medida el problema mencionado anteriormente de la identidad del sujeto).

La decisión de optar en un futuro por la adopción de una red privada frente a una red pública resulta a mi juicio acertada, en la medida en que una Blockchain pública se caracteriza por ser una cadena en la que no hay restricciones de acceso y uso y en la que no existe ninguna autoridad central que controle el funcionamiento de la cadena[27]. Sobre todo, porque es un sistema de Blockchain privada el que mejor se ajusta a la normativa de protección de datos. Además, la Administración tributaria actuaría como un garante del sistema, gestionando el acceso de los distintos participantes a la red lo que revertiría en mayor seguridad jurídica (art. 9.3 CE) e informática. Otro importante papel que podría desempeñar sería el de asegurar la legalidad de la información arrojada por los participantes a la cadena de bloques. Precisamente porque los nodos a la hora de verificar la veracidad de la información que opera en la cadena se basan simplemente en la validez otorgada a dicha información por los usuarios, sin mayores comprobaciones.

En consecuencia, la equiparación de la Administración tributaria con tecnología Blockchain debe suponer correlativamente el fortalecimiento de sistemas de ciberseguridad [28] en aras de evitar ataques (acceso sin autorización, alteración de la información, sustracción de datos) en los sistemas de información.

 

2. DERECHOS Y GARANTÍAS DE LOS CONTRIBUYENTES EN LA ERA DIGITAL

Como se ha señalado anteriormente, la digitalización ofrece un conjunto de oportunidades a las Administraciones tributarias. No obstante, la revolución tecnológica no deja de ser un arma de doble filo. Si bien es cierto que en el ámbito tributario las nuevas tecnologías permiten facilitar el cumplimiento de las obligaciones de los contribuyentes, también pueden incidir en los derechos y garantías de los ciudadanos.

En palabras de Martín Delgado (2018: 181): «este es el principal reto que se plantea en relación con el proceso de digitalización de la Administración: lograr una mayor eficacia en el ejercicio de la función de administrar sin restringir el ámbito de protección de los ciudadanos frente al poder público». La digitalización supone, pues, remontarse a la tradicional idea de la lucha contra las inmunidades del poder.

En el presente apartado se persigue formular alguna de las problemáticas existentes en el marco de la utilización de las tecnologías por parte de la Administración tributaria desde el punto de vista de los contribuyentes.

2.1. Las decisiones automatizadas y la motivación administrativa

Es una realidad el incremento de actuaciones automatizadas en el seno de los procedimientos jurídico-tributarios. De cualquier posible proceder por la Administración en su relación con el contribuyente debemos prestar atención en este apartado a aquellos que se encuentren en un ámbito decisional y que supongan la imposición de una carga o el reconocimiento de un derecho al interesado.

La LGT recoge en su artículo 96 bajo la rúbrica “utilización de tecnologías informáticas y telemáticas” el empleo de estos medios de actuación siempre y cuando sean respetuosos con «las limitaciones que la CE y las leyes establezca» [29] (apartado primero). El tercer apartado del mismo precepto establece la exigencia de identificar a la Administración tributaria actuante (en el mismo sentido, art. 83 RGGI), los órganos encargados de programar y supervisar el sistema informático y los órganos competentes a efectos impugnatorios (de igual modo, art. 84.1 RGGI). Esta previsión supone un avance pues permite identificar los órganos ante los que se puede reclamar responsabilidad por los efectos derivados de la decisión adoptada por la Administración tributaria[30]. Se aprecia que el artículo citado no hace mención alguna acerca de la exigencia de explicar los criterios, valoraciones y datos suministrados por el órgano programador a través del cual el agente inteligente adopta una determinada decisión. Tampoco está previsto en el artículo 100.2 LGT que introduce la resolución automatizada como forma de terminación de los procedimientos tributarios.

Una de las dificultades que plantean las nuevas tecnologías, y en particular la IA, es la dificultad existente para los ciudadanos a efectos de impugnar una decisión al no conocer cuáles han sido los criterios empleados para adoptarla, pudiendo quedar afectado el derecho a la tutela judicial efectiva (art. 24.1 CE). Precisamente, el concepto de “black box” (cajas negras) tiene su origen en el desconocimiento acerca de cómo se produce la toma de decisiones por los agentes que aprenden de manera autómata.

La necesidad de garantías en la toma de decisiones autómatas ha sido bautizada por la doctrina bajo el paraguas del denominado “derecho a una explicación”[31], recogido en el precepto 22.1 del Reglamento General de Protección de Datos (RGPD) el cual afirma lo siguiente: «todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado[32], incluida la elaboración de perfiles, que produzcan efectos jurídicos en él o le afecte significativamente de modo similar».

El mencionado precepto persigue a través de la intervención humana ex post asegurar el acierto de las decisiones automatizadas. No obstante, resulta más importante en mi opinión la necesaria fundamentación de los parámetros que han llevado al agente a adoptar una determinada decisión. Esta exigencia, que es básica en nuestro sistema democrático y de Derecho, no deja de suponer una manera de asegurar el cumplimiento del precepto constitucional de evitar la arbitrariedad de los poderes públicos (art. 9.3 CE).

Tal y como subraya Martín Queralt (2019: 354), la motivación administrativa (art. 103.3 LGT en materia de aplicación de tributos y art. 35 LPAC) «no es una mera cortesía del acto, sino una exigencia que permite al propio órgano administrativo garantizar el acierto de su decisión, de la que debe dar cuenta, y a los tribunales de justicia verificar si esa decisión se acomoda al ordenamiento jurídico o si, por el contrario, incurre eventualmente en arbitrariedad». La automatización, por tanto, no puede implicar bajo ningún concepto “opacidad” ni afectación a la rendición de cuentas por la Administración tributaria.

No hay ninguna especificación en la normativa tributaria acerca de qué elementos debe llegar a conocer el contribuyente acerca del algoritmo. Dada la supletoriedad del Derecho administrativo en esta materia (art. 7.2 LGT), sería aplicable el artículo 41.2 de la Ley de Régimen Jurídico del Sector Público (LRJSP), que establece en relación a la actuación administrativa automatizada [33] que «deberá establecerse en su caso, auditoría del sistema de información y de su código fuente».

Del tenor del citado precepto se desprende la ausencia de exigencia en todos los supuestos de acceso por parte del administrado de la auditoría del sistema de información y de su código fuente. En el mismo sentido, Boix Palop (2020: 243) afirma que «no es necesario dar los detalles exactos de cómo y en qué sentido opera la programación, no se reconoce el derecho a acceder al código fuente ni se prevé en ningún caso la necesaria publicación del mismo».

Esta cuestión puede suscitar dudas acerca de la validez del acto fruto de una decisión automatizada no publicitada. El código fuente del algoritmo no deja de ser una vía de conocimiento de los motivos a través de los cuales el agente ha alcanzado un determinado razonamiento. Esto se debe a que los sistemas de información basados en el empleo de IA simulan el proceso de razonamiento de un experto humano por medio del empleo de un sistema de codificación del conocimiento basado en reglas de producción combinadas con algún proceso de inferencia deductiva o inductiva. Por tanto, el conocimiento de la codificación de estos sistemas sofisticados parece ser una vía de conocimiento de los criterios a través de los cuales el agente ha alcanzado una determinada decisión.

La pregunta que nos surge en relación con esta cuestión es la siguiente: ¿debería ser necesaria la publicidad del código fuente del algoritmo para que el acto se considere suficientemente motivado? En relación con esta cuestión, merece la pena hacer alusión a un litigio relativo a la aplicación de Bosco, un programa encargado de la adjudicación de un bono social energético. En dicho programa se detectaron fallos a la hora de adjudicar el bono energético a aquellas personas que reunían los requisitos para ser adjudicatarios del mismo y, ante la negativa por parte del Consejo de Transparencia y Buen Gobierno de obligar a hacer público el código fuente e incluso de acceder al mismo, fue interpuesto un recurso contencioso-administrativo por la Asociación Civio.

Este recurso fue desestimado por el Juzgado Central de lo Contencioso Administrativo n.º 8 en su Sentencia de 30 de diciembre de 2021 (n.º 143/2021)[34]. La denegación del acceso al código fuente del algoritmo se fundamenta en el artículo 14.1 letras d), g), i), j) y k) de la Ley 19/2013, de 9 de diciembre, de transparencia, acceso a la información pública y buen gobierno que afirma en relación con el acceso a la información pública lo siguiente: «1. El derecho de acceso podrá ser limitado cuando acceder a la información suponga un perjuicio para: d) la seguridad pública; g) las funciones administrativas de vigilancia, inspección y control; i) la política económica y monetaria; j) el secreto profesional y la propiedad intelectual e industrial; k) la garantía de la confidencialidad o el secreto requerido en procesos de toma de decisión». En este caso concreto, se hizo alusión a que el conocimiento del código fuente podría afectar a la seguridad pública, en la medida en que «la revelación del código fuente aumenta de una manera objetiva la severidad de las vulnerabilidades de cualquier aplicación informática. Si esta además maneja información clasificada o sensible de la administración, el conocimiento del código fuente aumenta el riesgo de que la explotación de las vulnerabilidades pueda afectar a la seguridad nacional, la seguridad pública o la seguridad de los administrados».

En el caso de los procedimientos de inspección, el precepto de la Ley de Transparencia y de Buen Gobierno anteriormente citado debe conectarse con lo dispuesto en el artículo 170.7 Reglamento General de Actuaciones y Procedimientos de Gestión de Inspección Tributaria (RGGI): «los planes de inspección, los medios informáticos de tratamiento de información y los demás sistemas de selección de los obligados tributarios que vayan a ser objeto de actuaciones inspectoras tendrán carácter reservado, no serán objeto de publicidad o de comunicación ni se pondrán de manifiesto a los obligados tributarios ni a los órganos ajenos a la aplicación de los tributos». En consecuencia, la limitación de la publicidad del código fuente en el ámbito del control tributario parece estar suficientemente fundamentado en virtud de los dos preceptos anteriores. No obstante, fuera del ámbito de control tributario, la Administración tributaria también podría ampararse en virtud del mismo artículo de la Ley de Transparencia y Buen Gobierno en base a la seguridad pública (apartado d) para restringir el acceso al código fuente del algoritmo.

En virtud de lo anterior, el control por medio de tecnologías de información deberá fundamentarse a través de otros mecanismos distintos a la exigencia de publicitar el código fuente del algoritmo. Algunos países como Francia establecen la exigencia de comunicar el carácter de decisión adoptada por medio de IA al contribuyente[35]. Otros como Alemania han considerado que la IA en las Administraciones tributarias debería limitarse a la adopción de decisiones mecánicas[36]. Esta última posibilidad parece la menos acertada si se quiere aprovechar el máximo potencial de las tecnologías de la información. De este modo, resulta necesario abordar jurídicamente con mayor precisión e intensidad cuáles son las garantías que deben amparar a los contribuyentes en este actual marco de constante incertidumbre.

2.2. El valor algorítmico en el ordenamiento jurídico-tributario

La dificultad a la hora de articular un sistema de garantías al contribuyente frente a la Administración tributaria basada en algoritmos reside en la ausencia de delimitación acerca de cuál es el valor que debe conferirse en el ordenamiento jurídico tributario a los algoritmos. Nos surgen dudas, por ejemplo, acerca de cuál es el valor que se debe otorgar en el ordenamiento jurídico a un algoritmo que incoa un expediente inspector. Esta cuestión acerca de la naturaleza jurídica que debe ser conferida al algoritmo es controvertida, siendo objeto de discusión tanto por parte de administrativistas como los fiscalistas.

Dentro de las fuentes del Derecho Público, algún sector doctrinal plantea la posible consideración de las decisiones adoptadas por los agentes artificiales como normas reglamentarias. Desde ese punto de vista, Boix Palop (2020: 235) afirma que «los algoritmos y programas que componen, cuando son empleados por los poderes públicos para evaluar situaciones de las que luego se deducirán la aplicación de consecuencias jurídicas o, directamente, para determinar esta a partir de la concurrencia o no de ciertas condiciones o hechos, se comportan materialmente como las normas jurídicas».

Se podría barajar la cuestión de su posible categorización dentro de las clases de reglamentos existentes al tipo de reglamentos de ejecución. Pero dicha duda es despejada por el Tribunal Supremo, el cual recuerda en su Sentencia de 10 de julio de 2001 que «el reglamento (de ejecución) puede ir más allá de ser puro ejecutor de la ley, a condición de que el comportamiento de la Administración sea acorde con la CE y con el resto del ordenamiento jurídico» (Sánchez Morón, 2018: 192). Tampoco parece probable su consideración como reglamento independiente puesto que al poder quedar afectados derechos fundamentales de los contribuyentes debería ser necesario contar con un habilitante legal previo. Lo mismo ocurre con los reglamentos independientes, pues la materia que regulan está generalmente vinculada con cuestiones de naturaleza organizativa de la Administración y en el marco de las relaciones especiales de sujeción[37]. Del mismo modo, no resulta adecuado subsumir los algoritmos a la categoría de los reglamentos de necesidad ya que se prevén para circunstancias de carácter excepcional, relacionadas con catástrofes naturales[38].

En consecuencia, parece asumible considerar que las decisiones adoptadas por los algoritmos no ostentan una única naturaleza jurídica. Por ende, no puede atribuirse per sea las decisiones algorítmicas la condición de reglamentos. En primer lugar, porque no todos los algoritmos que utiliza la Administración pública producen efectos jurídicos y, por lo tanto, no todos constituyen fuente de Derecho. Coincido con el sector doctrinal que considera que «no cabe aludir a una única naturaleza jurídica de los algoritmos empleados por la Administración, debido entre otras cuestiones a que las funciones de dichos algoritmos varían en función del procedimiento y del ámbito de actuación» (De la Sierra Morón, 2021: 353).

Por lo tanto, habrá que atender a cada caso concreto para poder corroborar la participación de la decisión del algoritmo en la innovación o no del ordenamiento jurídico. En ese sentido, habrá que analizar si el algoritmo contribuye activamente en la innovación del ordenamiento (tal y como harían las normas reglamentarias) o si, por el contrario, simplemente se limita a sustituir al humano.

No obstante, aunque su naturaleza no haya sido todavía clarificada, no impide que se le puedan extender las garantías establecidas para los reglamentos[39]. En síntesis y sin ánimo de exhaustividad, las garantías que podrían ser extendidas a los algoritmos son las siguientes:

- Límites materiales: se debe hacer especial referencia al artículo 9.3 de la Carta Magna que recoge «el principio de legalidad, de jerarquía normativa (debiendo hacerse mención al principio de jerarquía reglamentaria, art. 128.2 LPAC), la publicidad de las normas, la irretroactividad de las disposiciones sancionadoras no favorables o restrictivas de derechos individuales, la seguridad jurídica, la responsabilidad y la interdicción de la arbitrariedad de los poderes públicos».

- Inderogabilidad singular “algorítmica” (art. 37.1 LPAC): «las resoluciones administrativas de carácter particular no podrán vulnerar lo establecido en una disposición de carácter general, aunque aquéllas procedan de un órgano de igual o superior jerarquía al que dictó la disposición general».

- Procedimiento administrativo específico para su adopción (límite formal): es lo que autores como Ponce Solé (2019: 37) han denominado como “procedimiento debido tecnológico”. La aplicación del procedimiento de elaboración de los reglamentos contenido en la Ley 50/1997, de 27 de noviembre, del Gobierno (la cual fue objeto de modificación por la LPAC) resulta idóneo puesto que garantizará la vigilancia de los siguientes aspectos (art. 26 LPAC): planificación normativa, consulta pública, “elaboración de memoria del análisis de impacto algorítmico”, informes y dictámenes preceptivos, participación ciudadana y publicación oficial en el boletín correspondiente.

- Nulidad de pleno derecho (art. 47 LPAC) y revisión de oficio de actos nulos (art. 106 LPAC), en el caso de que se den las circunstancias previstas en las leyes administrativas y tributarias.

- Inaplicación judicial de los reglamentos ilegales (art. 6 LOPJ).

- Recurso contencioso-administrativo (art. 112.3 LPAC): en concordancia con el artículo 106.1 CE, los ciudadanos podrán interponer recurso directo (art. 25 LJCA) siendo el propio algoritmo objeto de impugnación o bien de recurso indirecto (art. 26 LJCA) frente a las decisiones adoptadas por el agente artificial fundado en la ilegalidad del algoritmo.

 

3. CONCLUSIONES

Del presente trabajo se pueden extraer las siguientes reflexiones:

Primero. La Administración tributaria debe articularse conforme a las exigencias de nuestra sociedad actual, globalizada y que se encuentra constantemente en evolución, tendiendo hacia una “Administración líquida”. En esa línea, la Administración tributaria española está haciendo un esfuerzo considerable por implementar las tecnologías de la información más avanzadas. De modo que, debe seguir por la senda de la digitalización, mejorando sus equipos informatizados e introduciendo el uso de estas tecnologías en el conjunto del sistema tributario, no solo enfocándose en las principales figuras impositivas del sistema.

Segundo. La adecuada inserción de las tecnologías de la información en la Administración tributaria puede suponer (si no está ya suponiendo) un cambio en las relaciones con los ciudadanos. En la medida en que la asistencia al contribuyente y la colaboración entre ambas partes de la relación jurídica-tributaria (art. 17 LGT) se configure por medio de tecnologías transparentes, que ahorren costes y que generen sinergias, es posible la consecución de una mentalidad fundada en la famosa idea de que “Hacienda somos todos”. Aunque esta perspectiva puede ser todavía considerada como algo “idílico”, lo cierto es que un primer paso es la consideración por parte de la sociedad del sistema impositivo como una realidad inevitable a la vez que necesaria, pues permite sostener la actividad administrativa prestacional. Merece la pena traer a colación la idea relativa a que la relación Administración tributaria-ciudadano se funda en la Teoría del Contrato Social que formuló Rousseau en el siglo XVIII. En ese sentido, los impuestos pertenecen al contrato social y como contraprestación la Administración configura servicios en beneficio de los ciudadanos.

Tercero. Se debe advertir que de no guardarse las debidas garantías en la aplicación de las nuevas tecnologías de la información por parte de la Administración tributaria se podrían producir vulneraciones no deseadas de los derechos de los contribuyentes. En consecuencia, ha sido reiterada la importancia de la debida observancia de los derechos y garantías de los contribuyentes en el marco de la actividad administrativa automatizada. No debe obviarse que la digitalización debe ser considerada como un medio en aras del servicio con objetividad de los intereses generales (art. 103.1 CE), fin que legitima la actuación administrativa en formato digital. No obstante, resulta paradójico que, si bien es cierto que un inadecuado uso de las tecnologías puede suponer una vulneración de los derechos de los contribuyentes, su utilización para combatir el fraude fiscal origina una restauración del principio de justicia tributaria, en la medida en que todos contribuyamos de conformidad con nuestra capacidad económica (art. 31.1 CE).

Cuarto. Para abordar con mayor precisión la protección de los contribuyentes en el marco de la actividad administrativa automatizada, resulta necesaria una regulación que aborde desde un triple enfoque (ético, jurídico y tecnológico) las garantías de los contribuyentes frente a la adopción de decisiones por parte de la Administración tributaria a través de las nuevas tecnologías. En este punto se debe recordar el importante avance que en esta materia supone a nivel comunitario la propuesta de Reglamento del Parlamento Europeo y del Consejo, por el que se establecen normas armonizadas en materia de Inteligencia Artificial[40].

Esta nueva normativa debe de ser, en la medida de lo posible, lo más comprensible para el ciudadano en general y para el contribuyente en particular. De no ser así, será más difícil instaurar una relación con los contribuyentes basada en el principio de confianza legítima. A pesar de encontrarnos en la época de la sociedad de la información, el funcionamiento de las nuevas tecnologías es todavía de difícil comprensión para el contribuyente. En ese sentido, se debe velar por el derecho del ciudadano a comprender la actividad administrativa en el nuevo escenario digital.

Quinto. En relación con la naturaleza algorítmica y las garantías que deberían serles exigidas, algunos autores plantean la necesidad de garantizar la intervención humana para asegurar el acierto de la decisión. No obstante, a nuestro juicio el acierto de una decisión administrativa no se garantiza por la mera intervención humana sino por el hecho de que la citada decisión sea acorde a Derecho. En relación con la garantía del derecho a la transparencia algorítmica, la Administración tributaria bajo el paraguas de la Ley de Transparencia y Buen Gobierno puede hacer valer el derecho a no publicitar el algoritmo en aras de salvaguardar la seguridad pública. De ahí que el sistema de rendición de cuentas debe establecerse a través de una motivación administrativa reforzada sin que suponga la publicidad del código fuente del algoritmo.

Parece plausible establecer como solución a corto plazo que sean las empresas que desarrollan sistemas de información, que posteriormente utiliza la Administración tributaria, las que otorguen un certificado de calidad acreditativo de que el algoritmo cumple con unos estándares. Esta alternativa ha sido actualmente prevista en la Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación, la cual puede considerarse la primera regulación positiva de la IA en España[41]. Esta solución se podría ajustar incluso a aquellos supuestos en los que el algoritmo sirve para combatir contra el fraude fiscal.

Sexto. En virtud de lo anterior, no parece asumible coartar la libertad de la ciencia y de la tecnología, en la medida en que se respeten los derechos y principios de los contribuyentes. El Derecho debe permitir el desarrollo tecnológico a la par que establece un sistema reforzado de responsabilidad pública y rendición de cuentas derivado de los daños producidos por la utilización por parte de la Administración tributaria de tecnologías de la información. El papel, por tanto, de la Administración tributaria ante los retos de la digitalización parece evidente: «por una parte el de potenciar al máximo, siempre en beneficio de los ciudadanos, el desarrollo, uso y empleo de la sociedad digital con todos sus medios e instrumentos. Por otra el de garantizar sin desfallecimiento todos los principios y valores fundamentales» (De la Quadra-Salcedo, 2018: 66).

 

BIBLIOGRAFÍA

Arribas Sánchez, B. (2020): “Problemática legal de la tecnología blockchain y de los smartcontracts, en E. Ortega Burgos (dir.): Nuevas tecnologías ,Tirant lo Blanch, Valencia: 303-322.

Barrio Andrés, M. (2020): Manual de Derecho Digital, Tirant lo Blanch, Valencia.

Boix Palop, A. (2020): “Los algoritmos son reglamentos: la necesidad de extender las garantías propias de las normas reglamentarias a los programas empleados por la Administración para la adopción de decisiones”, en Revista de Derecho Público: Teoría y Método , Vol. 1: 223-270.

Collosa, A. y Carbajo Vasco, D. (2022): La digitalización en las Administraciones Tributarias , Tirant lo Blanch, Valencia.

Comisión Europea (2021): Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de Inteligencia Artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión [COM (2021) 206 final].

Comisión Europea (2022): Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen medidas destinadas a garantizar un elevado nivel común de ciberseguridad en las instituciones, los órganos y los organismos de la Unión [COM (2022) 122 final].

Comunicación de la Comisión al Parlamento Europeo, al Consejo Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones: Plan coordinado sobre la inteligencia artificial[COM(2018) 795 final].

Cordero Valdavida, M. (2019): “Blockchain en el sector público. Una perspectiva internacional”, en Instituto Vasco de Administración Pública , n.º 16: 16-34.

De la Quadra Salcedo, T. (2018): “Retos, riesgos y oportunidades de la sociedad digital”, en J. L. Piñar Mañas, T. de la Quadra Salcedo (dir.): Sociedad Digital y Derecho, Boletín Oficial del Estado, Madrid: 21- 85.

De la Sierra Morón, S. (2021): “La regulación de los algoritmos”, en Revista de Administración Pública , n.º 214: 352-356.

Fernández Badía, Y. (2020): “Blockchain y Administración Pública”, en E. Ortega Burgos (dir.): Derecho Administrativo 2020, Tirant lo Blanch, Valencia: 201-220.

García-Herrera Blanco, C. (2020): “El uso del big data y la inteligencia artificial por las Administraciones tributarias en la lucha contra el fraude fiscal. Particular referencia a los principios que han de regirla y a los derechos de los contribuyentes”, en F. Serrano Antón (coord.): Fiscalidad e Inteligencia Artificial: Administración tributaria y contribuyentes en la era digital , Thomson Reuters Aranzadi, Navarra: 297-317.

Geetha, J. y Bhanu Sree Reddy, D. (2018): “Recruitment Through Artificial Intelligence: a conceptual study”, en International Journal of Mechanical Engineering and Technology , n.º 7: 63-70.

Hurtado Puerta, J. (2020): “Big Data y la gestión tributaria”, en F. Serrano Antón (coord.): Fiscalidad e Inteligencia Artificial: Administración tributaria y contribuyentes en la era digital , Thomson Reuters Aranzadi, Navarra: 167-180.

Iglesias Solano, M. A. e Iglesias Carbonell, A. B. (2011): “La computación evolutiva y sus paradigmas”, en Investigación y Desarrollo en TIC, n.º 1: 29-38.

López Calvo, J. (2019): “Inteligencia Artificial y Derecho de explicación en RGPD”, en López Calvo, J. (dir.): La adaptación al nuevo marco de protección de datos tras el RGPD y la LOPDGDD , Wolter Kluwer, Madrid: 1033-1040.

López Takeyas, B. (2007): “Introducción a la Inteligencia Artificial”, en Instituto Tecnológico de Nuevo Laredo, n.º 2: 1-3.

Mantelero, A. (2018): “Ciudadanía y gobernanza digital. Entre Política, Ética y Derecho”, en J. L. Piñar Mañas y T. de la Quadra Salcedo (dir.): Sociedad Digital y Derecho,Boletín Oficial del Estado, Madrid: 159-178.

Martín Delgado, I. (2018): “El acceso electrónico a los servicios públicos: hacia un modelo de Administración digital auténticamente innovador”, en J. L. Piñar Mañas y T. de la Quadra Salcedo (dir.): Sociedad Digital y Derecho , Boletín Oficial del Estado, Madrid: 179- 201.

Martín López, J. (2022): “Inteligencia Artificial, sesgos y no discriminación en el ámbito de la inspección tributaria”, en Crónica Tributaria , n.º 182: 51-89.

Martín López, J. y Pérez Bernabeu, B. (2021): “Inteligencia Artificial, Machine Learning e inclusión de contribuyentes en los procedimientos comprobatorios”, en F. Serrano Antón (dir.): Inteligencia Artificial y Administración tributaria: eficiencia administrativa y defensa de los derechos de los contribuyentes , Thomson Reuters Aranzadi, Navarra: 441-456.

Martín Queralt, J. (2019): Curso de Derecho Financiero y Tributario , Tecnos, Madrid.

Matías Clavero, G. (2020): “Utilidad práctica del método de análisis estructural. De la estadística a la IA con blockchain”, en U. Nieto Carol (dir.): Libro homenaje al profesor Ubaldo Nieto de Alba, Tirant lo Blanch, Valencia: 1078-1092.

Merton, K. (1948): Teoría Social y Estructura Social, Fondo de Cultura Económica, Madrid.

Nilsson, N. L. (1998): Artificial Intelligence, A New Synthesis, Morgan Kaufmann Publishers, Burlington.

Ponce Solé, J. (2019): “Inteligencia artificial, Derecho administrativo y reserva de humanidad: algoritmos y procedimiento administrativo debido tecnológico”, en Iustel, n.º 50.

Sánchez Morón, M. (2018): Derecho Administrativo. Parte General, Tecnos, Madrid.

Soto Bernabeu, L. (2020): Los programas de cumplimiento voluntario como estímulo a la regularización tributaria , Tirant lo Blanch, Valencia.

Soto Bernabeu, L. (2021): “La importancia de la transparencia algorítmica en el uso de la inteligencia artificial por la Administración tributaria”, en Crónica Tributaria, n.º 179: 93-129.

Winston, P. H. (1992): Artificial Intelligence, Addison-Wesley Publishing, Massachusetts.

 



[1]  La cuarta revolución industrial es un término nacido en Alemania que consiste en la disrupción tecnológica producida por la introducción de las nuevas tecnologías en los procesos de fabricación y proceder del funcionamiento y gestión de las distintas Administraciones públicas. Este fenómeno también ha recibido el nombre de “la cuarta ola”, término acuñado por Alvin Toffler.

[2]  La IA puede ser clasificada en IA débil o IA fuerte. La IA débil es aquella que no puede actuar de manera racional, destinada a la mecanización de tareas. En cambio, la IA fuerte es aquella que excede a la inteligencia humana.

[3]  Los autores Collosa y Carbajo Vasco ponen de manifiesto la difusión de los asistentes virtuales en las distintas Administraciones tributarias de los países. Véase Collosa y Carbajo Vasco (2022: 61-112).

[4]  Soto Bernabeu (2021: 121).

[5]  En relación con esta cuestión la primera pregunta que podríamos formularnos es: ¿verdaderamente existe un perfil de infractor? Si bien es cierto que no podemos hablar de un único perfil infractor sí que es cierto que existen determinados comportamientos o patrones que pueden repetirse o ser usuales en los distintos infractores.

[6]  Resolución de 19 de enero de 2021, de la Dirección General de la Agencia Estatal de Administración Tributaria, por la que se aprueban las directrices generales del Plan Anual de Control Tributario y Aduanero de 2021.

[7]  El concepto behavioural insights hace alusión a un enfoque inductivo para el desarrollo de políticas que conjuga elementos de la sociología y de la ciencia del comportamiento para conocer de manera empírica cómo los humanos en general y, los contribuyentes en particular, adoptan decisiones.

[8]  Esta técnica predictiva ha sido incorporada en otras Administraciones tributarias además de en la Administración tributaria española. A modo de ejemplo se puede citar el caso de la Administración tributaria de Polonia que usa como principal herramienta el algoritmo STIR (System Teleinformatyczny Izby Rozliczeniowej). Éste identifica transacciones sospechosas o de alto riesgo de evasión impositiva en el sector financiero gracias a la información empresarial recopilada (como direcciones IP que se utilizaron para efectuar las operaciones, las fechas y lugares donde dichas transacciones se produjeron o los vínculos entre los lugares y personas que emplean las direcciones IP). Para más ejemplos de técnicas predictivas de las Administraciones tributarias de otros países de nuestro entorno en Derecho comparado véase Martín López y Pérez Bernabeu (2021: 446-447).

[9]  Resolución de 26 de enero de 2022, de la Dirección General de la Agencia Estatal de Administración Tributaria, por la que se aprueban las directrices generales del Plan Anual de Control Tributario y Aduanero de 2022.

[10]  Resolución de 26 de enero de 2022, de la Dirección General de la Agencia Estatal de Administración Tributaria, por la que se aprueban las directrices generales del Plan Anual de Control Tributario y Aduanero de 2022.

[11]  El texto íntegro de la sentencia del Tribunal de Primera Instancia de La Haya de 5 de febrero de 2020 puede consultarse en el siguiente enlace: [https://uitspraken.rechtspraak.nl/inziendocument?id=ECLI:NL:RBDHA:2020:1878&showbutton=true&keyword=ECLI%3aNL%
3aRBDHA%3a2020%3a1878p] (consulta 2 de septiembre de 2022).

[12]  Merton, K. (1948: 505-518).

[13]  La Sentencia considera que se ha producido una discriminación indirecta contra los trabajadores de Deliveroo al valorar de manera uniforme cualquier ausencia o falta de puntualidad de cada rider, sin entrar en consideración si dicha falta al trabajo es debida a ausencias de trabajo justificadas (ejercicio del derecho a huelga, enfermedad, etc.) o causas injustificadas. Esta discriminación se producía porque el algoritmo únicamente consideraba dos únicos supuestos de falta al trabajo: que el rider sufriera un accidente durante el reparto y que surgiera un problema técnico en la plataforma por causas no imputables al rider que le imposibilitaran continuar con el reparto. El texto íntegro de la Sentencia del Tribunal Ordinario de Bolonia de 31 de diciembre de 2020 puede consultarse en la siguiente dirección web: [https://www.bollettinoadapt.it/wp-content/uploads/2021/01/Ordinanza-Bologna.pdf] (consulta 12 de junio de 2022).

[14]  Los datos no son información sino solamente elementos en bruto que representan la realidad del entorno en el que la Administración tributaria opera. La información son los datos ya depurados, presentados en un formato apto para la toma de decisiones por parte de la Administración tributaria.

[15]  Ha recibido también debido a su descentralización el nombre de “Internet del Valor”, puesto que permite la realización de transacciones sin la necesidad de intervención de terceros intermediarios.

[16]  La creación de la tecnología Blockchain puede ser atribuida a Satoshi Nakamoto, quien también acuñó el término “criptomoneda” en el año 2008 en un artículo denominado “A Peer-to Peer Electronic Cash System”. En ese sentido, véase Cordero Valdavida (2019: 19).

[17]  En el siguiente enlace se puede acceder a las manifestaciones de la Comisión Europea en torno a las pérdidas recaudatorias en el IVA: [https://ec.europa.eu/commission/presscorner/detail/es/ip_21_6466] (consulta 1 de junio de 2022).

[18]  A pesar de su calificación de “contrato”, su característica de contrato autoejecutable hace que su naturaleza jurídica sea discutida. Desde la dogmática del Derecho civil contractual, las características que deben concurrir en un contrato son: consentimiento, objeto y causa (art. 1261 CC). Para alguna parte de la doctrina, la característica de auto ejecución del contrato es querida por las partes, de manera que se integra dentro del consentimiento de los contratantes. En cambio, para otros los contratos inteligentes no son contratos, sino que son más bien un mecanismo de ejecución. Para más información puede consultarse Arribas Sánchez (2020: 303-332).

[19]  Matías Clavero (2020: 1078 y ss.).

[20]  Fraude que consiste en crear una corriente de facturación ficticia (a veces por medio de sociedades pantalla) con la posterior repercusión del IVA en las ventas. Suelen ser tramas organizadas cuyo punto de partida se encuentra precisamente en la exención aplicable a las entregas intracomunitarias de bienes (art. 25 Ley del IVA), que permite la introducción de los bienes en el país de destino sin haber satisfecho el IVA y sin control administrativo.

[21]  Este fenómeno se conoce en el ordenamiento jurídico mercantil en el marco de las compraventas especiales como las “ventas de plaza a plaza”.

[22]  Se puede acceder a una breve explicación del SII en el siguiente enlace: [https://www.agenciatributaria.es/static_files/AEAT/Contenidos_Comunes/La_Agencia_Tributaria/Modelos_y_formularios/Suministro_inmediato_informacion/folleto_informativo_SII_es_es.pdf] (consulta 13 de junio de 2022).

[23]  Cabe mencionar la iniciativa pionera TicketBAI (TBAI) de las Haciendas Forales y el Gobierno Vasco la cual es el establecimiento de un conjunto de obligaciones legales y técnicas en el software de facturación de los contribuyentes que facilite a la Administración tributaria el control de los ingresos derivados de su actividad económica y, en especial, de aquellas actividades relativas a las entregas de bienes o prestaciones de servicios a consumidores finales. Para más información se puede acceder al siguiente enlace: [https://www.gipuzkoa.eus/es/web/ogasuna/-/-que-es-ticketbai-] (consulta 13 de junio de 2022).

[24]  Presentada por el Grupo Parlamentario Popular en el Congreso de los Diputados el 3 de julio de 2018.

[25]  Presentada por el Grupo Parlamentario Popular en el Congreso de los Diputados el 17 de mayo de 2021.

[26]  Este problema relativo a la identidad del sujeto que opera en la cadena de bloques está siendo abordado por la Fábrica Nacional de Moneda y Timbre en España y el grupo de trabajo European Blockchain Partnership que persiguen desarrollar una plataforma basada en Blockchain e integrada con diferentes certificados de firma electrónica. También se implantará en España un nodo de la European Blockchain Services Infraestructure a través de la iniciativa “Shaping Europe´s digital future”. Para más información consulte el siguiente enlace: [https://ec.europa.eu/info/sites/default/files/communication-shaping-europes-digital-future-feb2020_en_4.pdf] (consulta 13 de junio de 2022).

[27]  Fernández Badía (2020: 201 y ss.).

[28]  Esta necesidad de fortalecer los sistemas de información ha sido puesta de manifiesto recientemente por la Comisión Europea. Para más información véase Comisión Europea (2022): Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen medidas destinadas a garantizar un elevado nivel común de ciberseguridad en las instituciones, los órganos y los organismos de la Unión [COM (2022) 122 final].

[29]  Este límite no deja ser un recordatorio del artículo 18.4 CE, plasmado en la derogada Ley 30/1992, de 26 de noviembre, de Régimen Jurídico de las Administraciones Públicas y del Procedimiento Administrativo Común: «las Administraciones Públicas impulsarán el empleo y aplicación de las técnicas y medios electrónicos, informáticos y telemáticos, para el desarrollo de su actividad y el ejercicio de sus competencias, con las limitaciones que a la utilización de estos medios establecen la Constitución y las Leyes» (art. 45.1).

[30]  Cuestión que se garantiza mediante el empleo por el órgano competente de un sello electrónico o código de verificación (art. 84.2 RGGI).

[31]  López Calvo (2019: 1033 y ss.).

[32]  Debe entenderse por “tratamiento automatizado” de conformidad con el artículo 2 apartado c del Convenio n.º 108 del Consejo de Europa: «las operaciones que a continuación se indican efectuadas en su totalidad o en parte con ayuda de procedimientos automatizados: Registro de datos, aplicación a esos datos de operaciones lógicas aritméticas, su modificación, borrado, extracción o difusión».

[33]  Entendemos por actuación administrativa automatizada «cualquier acto o actuación realizada íntegramente a través de medios electrónicos por una Administración Pública en el marco de un procedimiento administrativo y en la que no haya intervenido de forma directa un empleado público» (art. 41.1 LRJSP, anexo de la derogada LCS).

[34]  El texto completo de la sentencia del Juzgado Central de lo Contencioso Administrativo n.º 8 puede consultarse en el siguiente enlace: [https://www.consejodetransparencia.es/dam/jcr:80688e50-c994-4850-8197-4f19dc46a6ad/R128_S143-2021_CIVIO.pdf] (consulta 29 de agosto de 2022).

[35]  García-Herrera Blanco (2020: 312).

[36]  La Ley del procedimiento administrativo alemán (Verwaltungsverfahrensgesetz) prohíbe, en su artículo 35, la adopción de resoluciones discrecionales automatizadas, es decir, aquellas decisiones que permiten la elección entre “indiferentes” jurídicos.

[37]  A ello se refiere la Sentencia del Tribunal Supremo, de 11 de abril de 1981 (Roj: STS 1981/5405), Sentencia del Tribunal Supremo, de 27 de marzo de 1985 (Roj: STS 1985/1668), Sentencia del Tribunal Supremo, de 19 de junio de 1985 (Roj: 1985/3146) y Sentencia del Tribunal Supremo, de 31 de octubre de 1986 (Roj: STS 1986/5823).

[38]  El ejemplo más común en nuestro ordenamiento jurídico es el previsto en el artículo 21.1 apartado m) de la Ley 7/1985, de 2 de abril, Reguladora de las Bases del Régimen Local que establece que: «El Alcalde es el Presidente de la Corporación y ostenta las siguientes atribuciones: Adoptar personalmente, y bajo su responsabilidad, en caso de catástrofe o de infortunios públicos o grave riesgo de los mismos, las medidas necesarias y adecuadas dando cuenta inmediata al Pleno».

[39]  Sobre esta cuestión se puede acceder al post del blog Almacén de Derecho con el siguiente enlace: [https://almacendederecho.org/algoritmos-y-reglamentos] (consulta 20 de julio de 2022).

[40]  Comisión Europea (2021): Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de Inteligencia Artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión [COM (2021) 206 final].

[41]  El artículo 23 de la Ley 15/2022, de 12 de julio, integral para la igualdad de trato y no discriminación establece lo siguiente: «Artículo 23. Inteligencia Artificial y mecanismos de toma de decisión automatizados. 1. En el marco de la Estrategia Nacional de Inteligencia Artificial, de la Carta de Derechos Digitales y de las iniciativas europeas en torno a la Inteligencia Artificial, las administraciones públicas favorecerán la puesta en marcha de mecanismos para que los algoritmos involucrados en la toma de decisiones que se utilicen en las administraciones públicas tengan en cuenta criterios de minimización de sesgos, transparencia y rendición de cuentas, siempre que sea factible técnicamente. En estos mecanismos se incluirán su diseño y datos de entrenamiento, y abordarán su potencial impacto discriminatorio. Para lograr este fin, se promoverá la realización de evaluaciones de impacto que determinen el posible sesgo discriminatorio. 2. Las administraciones públicas, en el marco de sus competencias en el ámbito de los algoritmos involucrados en procesos de toma de decisiones, priorizarán la transparencia en el diseño y la implementación y la capacidad de interpretación de las decisiones adoptadas por los mismos. 3. Las administraciones públicas y las empresas promoverán el uso de una Inteligencia Artificial ética, confiable y respetuosa con los derechos fundamentales, siguiendo especialmente las recomendaciones de la Unión Europea en este sentido. 4. Se promoverá un sello de calidad de los algoritmos».