Laura Soto Bernabeu
Profesora Ayudante Doctora del Área de Derecho Financiero y Tributario
Universidad Miguel Hernández
Recibido
: Octubre, 2020
Aceptado
: Diciembre, 2020
https://dx.doi.org/10.47092/CT.21.2.4
RESUMEN
El presente trabajo tiene por objeto examinar la utilización de la inteligencia artificial por las Administraciones tributarias y realizar un breve análisis de recientes pronunciamientos administrativos o jurisprudenciales dictados en España, Francia, Italia y Holanda sobre dicho uso. Esto nos permitirá realizar un estudio sobre la incidencia del uso de la inteligencia artificial sobre el derecho a la intimidad de los contribuyentes y el derecho a la protección de datos. Igualmente, analizaremos la falta de transparencia respecto del funcionamiento de dichos algoritmos y su posible incidencia en el principio de seguridad jurídica en su manifestación de interdicción de la arbitrariedad.
Palabras clave : inteligencia artificial, transparencia algorítmica, Administración tributaria, cumplimiento voluntario.
(*) Este trabajo se enmarca en el Proyecto de Investigación PID2019-109167RB-I00, concedido por el Ministerio de Ciencia e Innovación, cuyas investigadoras principales son la Dra. Eva Aliaga Agulló y la Dra. Paula Vicente-Arche Coloma.
Laura Soto Bernabeu
SUMMARY
The present article is aimed at examining the use of artificial intelligence by Tax Administrations and to briefly analyse different judicial or administrative pronouncements published in Spain, France, Italy and Holland about it. This will allow us to study the implications of the artificial intelligence’s use regarding the right to respect for private and family life and the right to data protection. At the same time, we will point out that the opacity about the functioning of these algorithms has a negative impact on the legal certainty principle in its expression of interdiction of arbitrariness.
Keywords : artificial intelligence, algorithmic transparency, Tax Administration, voluntary tax compliance.
SUMARIO
1.Introducción. 2. La eficacia de la actuación administrativa y la adopción de un enfoque responsivo como fundamento para la utilización de la inteligencia artificial en la relación jurídico-tributaria. 3. El recurso a la inteligencia artificial por diferentes Administraciones tributarias y la importancia de la comprensibilidad del sistema como requisito para su fiabilidad. 3.1. Decisión del Consejo Constitucional francés de 27 de diciembre de 2019. 3.2. Sentencias del Consejo de Estado italiano de 8 de abril y de 13 de diciembre de 2019. 3.3. Sentencia del Tribunal de Primera Instancia de La Haya de 5 de febrero de 2020. 3.4. Resolución del Consejo de Transparencia y Buen Gobierno español de 13 de febrero de 2020. 4. La protección de la intimidad y de la gestión de los datos personales en los sistemas de inteligencia artificial empleados por las Administraciones tributarias. 5. La opacidad del funcionamiento de los sistemas de inteligencia artificial utilizados por la Administración tributaria y su incidencia en la garantía del principio de seguridad jurídica. 5.1. La interdicción de la arbitrariedad como fundamento para garantizar la publicidad parcial del funcionamiento de los mecanismos de inteligencia artificial utilizados por la Administración tributaria. 5.2. El Plan Anual de Control Tributario como ejemplo de publicidad para garantizar el control de la discrecionalidad administrativa en el acto de inicio del procedimiento inspector. Bibliografía.
1. INTRODUCCIÓN
En uno de sus números del año 2017, The Economist afirmaba que el recurso más valioso del mundo ya no era el petróleo sino los datos. Este hecho posiblemente explique que, desde el año 2014, la Comisión Europea haya abogado por el desarrollo de una economía ágil en el manejo de los datos. Ejemplo de ello es la entrada en vigor del Reglamento sobre la libre circulación de datos no personales [Reglamento (UE) 2018/1807 del Parlamento Europeo y del Consejo, de 14 de noviembre de 2018] o el Reglamento General de Protección de Datos [Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016].
Posteriormente, en diciembre de 2018, la Comisión Europea presentó un Plan coordinado sobre el desarrollo y uso de la inteligencia artificial firmado por los Estados miembros de la Unión Europea, Noruega y Suiza. Según lo establecido por la Comisión Europea (2018: 1), el objetivo del citado Plan «es que Europa se convierta en la región líder del mundo para el desarrollo y despliegue de una inteligencia artificial vanguardista, ética y segura, promoviendo un enfoque centrado en el ser humano en el contexto global». A este respecto, considera la Comisión Europea (2018: 14) que la actual expansión de la inteligencia artificial «es impulsada por la disponibilidad de grandes conjuntos de datos combinados con incrementos de potencia informática y conectividad».
En línea con lo anterior, en abril de 2019, el Grupo Independiente de Expertos de Alto Nivel sobre la Inteligencia Artificial creado por la Comisión Europea publicó las Directrices éticas para una inteligencia artificial fiable. En dicho documento, el citado grupo (2019: 5) considera que es necesario que los sistemas de inteligencia artificial se centren en las personas y se fundamenten en el compromiso de utilizarlos al servicio de la humanidad y del bien común, debido a que, a pesar de que ofrecen infinitas oportunidades, estos sistemas también conllevan determinados riesgos a los que hay que hacer frente de manera adecuada y proporcionada. A tal efecto se establece una lista no exhaustiva con los requisitos para una inteligencia artificial fiable y que son: acción y supervisión humanas; solidez técnica y seguridad; gestión de la privacidad y de los datos; transparencia; diversidad, no discriminación y equidad; bienestar social y ambiental; y rendición de cuentas.
Finalmente, en febrero de 2020, la Comisión Europea presentó su libro blanco sobre la inteligencia artificial y éste estuvo en consulta pública hasta el 31 de mayo de 2020. Al mismo tiempo, se presentó la Estrategia Europea de Datos «cuya ambición es permitir que la UE se convierta en la economía ágil en el manejo de los datos más atractiva, más segura y más dinámica del mundo, y empoderar así a Europa con datos para mejorar las decisiones que se toman y la vida de todos sus ciudadanos» (Comisión Europea, 2020: 30). Como señala García-Herrera Blanco (2020: 301), el éxito de los resultados de la inteligencia artificial se encuentra fundamentalmente en los datos que se poseen y en su volumen, añadiendo que, «en este sentido, las Administraciones fiscales tienen una posición privilegiada por la inmensa cantidad de datos que tienen, así como por la calidad de esta información».
Según los datos publicados por la OCDE (2019: 41) en su informe “Tax Administration 2019: Comparative Information on OECD and other Advanced and Emerging Economies”, en la actualidad, más de 40 Administraciones tributarias han introducido o están introduciendo el uso de la inteligencia artificial en el desarrollo de sus actividades. Entre ellas se encuentra la Agencia Estatal de la Administración Tributaria.
Por todo ello, el presente trabajo tiene como objeto examinar la utilización de la inteligencia artificial por la Administración tributaria española y realizar un breve análisis de la situación en Francia, Italia y Holanda, debido a que en todos estos Estados miembros de la Unión Europea se ha publicado recientemente un pronunciamiento administrativo o jurisprudencial en relación al uso de la inteligencia artificial por parte de las Administraciones Públicas y su adecuación al ordenamiento jurídico vigente.
No debemos perder de vista que el uso de la inteligencia artificial por las Administraciones tributarias encuentra su fundamento en el logro de una mejora en el nivel de eficiencia y eficacia de la gestión de los recursos materiales y humanos que éstas poseen para garantizar la efectiva aplicación del sistema tributario. A nuestro modo de ver, siendo una consecuencia directa de la evolución de las tecnologías de la información, dicha situación tiene su encaje en lo que se conoce como la adopción de un enfoque responsivo por parte de las Administraciones tributarias.
Una vez que hayamos explicado brevemente en qué consiste la adopción de un enfoque responsivo en el seno de la relación jurídico-tributaria realizaremos un análisis de diferentes resoluciones administrativas y jurisprudenciales dictadas en las jurisdicciones mencionadas anteriormente sobre la utilización de algoritmos con el propósito de incidir posteriormente sobre la importancia de la transparencia y de la comprensibilidad de un sistema de inteligencia artificial en su uso por parte de las Administraciones Públicas.
Esta visión general nos permitirá presentar nuestras conclusiones respecto de la incidencia del uso de la inteligencia artificial sobre el derecho a la intimidad de los contribuyentes y el derecho a la protección de datos de carácter personal. Igualmente, explicaremos por qué consideramos que la falta de transparencia sobre el contenido y funcionamiento de los algoritmos utilizados por las Administraciones tributarias puede suponer una merma del principio de seguridad jurídica, en concreto, en su manifestación de interdicción de la arbitrariedad.
2. LA EFICACIA DE LA ACTUACIÓN ADMINISTRATIVA Y LA ADOPCIÓN DE UN ENFOQUE RESPONSIVO COMO FUNDAMENTO PARA LA UTILIZACIÓN DE LA INTELIGENCIA ARTIFICIAL EN LA RELACIÓN JURÍDICO-TRIBUTARIA
A finales de los años 90, la Administración tributaria australiana (Australian Taxation Office) introdujo por primera vez en el ámbito tributario el modelo piramidal en que se fundamenta el concepto de regulación responsiva y que ha sido posteriormente desarrollado por la doctrina australiana [1]. Mediante el llamado “modelo de cumplimiento”, el legislador pretendía que la respuesta de la Administración tributaria al comportamiento de los contribuyentes fuera proporcionada, respetando siempre los límites legales establecidos al efecto (Freedman, 2012: 641).
Con posterioridad, la idea de regulación responsiva fue introducida por otras Administraciones tributarias tales como elInland Revenue Department de Nueva Zelanda o la Her Majesty´s Revenue and Customs (HMRC) de Reino Unido y, más tarde, promovida por la OCDE mediante la implementación del cumplimiento cooperativo y la introducción de sistemas de gestión del riesgo fiscal para identificar el comportamiento de los contribuyentes (OECD, 2013: 42).
De esta forma, siguiendo a Ayres y Braithwaite (1992: 4-6), la idea fundamental sobre la que se asienta el concepto de regulación responsiva consiste en que las normas deben ser elaboradas y aplicadas mediante la adopción de un enfoque que se adecúe al comportamiento de quienes se encuentren dentro de su ámbito subjetivo de aplicación.
Para ello, la Administración tributaria debe implementar una política de gestión del riesgo fiscal (tax risk management) que conlleve una correcta evaluación del riesgo y que garantice una respuesta proporcionada. En la actualidad, esta actividad de gestión del riesgo fiscal de incumplimiento de las obligaciones tributarias se lleva a cabo por la Administración tributaria española mediante el empleo de la aplicación informática HERMES que consiste en un sistema para el análisis de riesgos que produce informes de riesgo estandarizados y que permite la selección de contribuyentes para llevar a cabo actuaciones de gestión, inspección y recaudación. Esta aplicación se nutre de otra herramienta informática llamada ZUJAR que facilita el tratamiento de la información mediante la verificación cruzada de datos de contribuyentes para desarrollar actuaciones en los diferentes procedimientos de aplicación de los tributos [2].
A nuestro modo de ver, el principio de eficacia en el actuar administrativo constituye el fundamento para la introducción de sistemas de inteligencia artificial que permitan una gestión más eficaz de los limitados recursos materiales y humanos de que disponen las Administraciones tributarias para garantizar la efectiva aplicación del sistema tributario (Bal, 2019: 1159). No debemos olvidar que el artículo 103.1 de la Constitución española establece que «la Administración Pública sirve con objetividad los intereses generales y actúa de acuerdo con los principios de eficacia, jerarquía, descentralización, desconcentración y coordinación, con sometimiento pleno a la ley y al Derecho». Por ello, siguiendo a Sánchez Morón (2018: 456), podemos concluir que la eficacia administrativa «requiere adecuar los medios a los fines y una permanente atención a las condiciones en que se desenvuelve la acción administrativa y la labor de sus agentes».
En este sentido, sobre la base de lo establecido en el artículo 96.1 de la Ley General Tributaria, tanto el Plan Estratégico de la Agencia Tributaria 2020-2023, como el Plan Anual de Control Tributario y Aduanero de 2020 destacan la importancia de la inteligencia artificial y de su adecuado desarrollo en las actuaciones llevadas a cabo por la Administración Tributaria y en el logro de una mejora en el cumplimiento voluntario de las obligaciones tributarias.
En el Plan Estratégico se resalta la creciente importancia de los sistemas de análisis de información en el seno de la Administración tributaria y se anuncia que, en los próximos años, se aprovechará «el potencial que ofrece la tecnología para culminar el proceso de automatización en la tramitación de procedimientos iniciado hace años». En relación con este proceso de automatización se precisa que serán claves el tratamiento del lenguaje natural, el tratamiento avanzado de datos y la inteligencia artificial.
Por su parte, en el Plan Anual de Control Tributario y Aduanero de 2020 se determinan las líneas de actuación prioritarias en la investigación y desarrollo de actuaciones de comprobación del fraude tributario y aduanero. Entre dichas líneas de actuación se encuentra el empleo de fuentes de información y de los avances tecnológicos en el análisis de riesgos.
A este respecto, se anuncia que en 2020 se completará la implantación de una herramienta de gestión de riesgos que sistematizará todos los riesgos existentes y que la Administración tributaria continuará trabajando en el desarrollo de modelos de análisis de riesgo que permitan anticipar y optimizar el uso que se vaya a dar a la información internacional recibida. De esta forma, «se pretende continuar potenciando tanto la diversidad como la calidad de los servicios de información y asistencia prestados a los contribuyentes, priorizando el uso de las nuevas tecnologías frente a los medios tradicionales de asistencia presencial, para conseguir una mayor eficacia y permitir una asignación más eficiente de los recursos materiales y humanos disponibles».
De lo expuesto hasta el momento, no sin antes poner de manifiesto la escasa información publicada al respecto, podemos concluir que la inteligencia artificial se emplea por parte de la Administración tributaria con el propósito de elaborar perfiles de riesgo de los contribuyentes y de generalizar la automatización de ciertas actuaciones en el seno de los procedimientos de gestión, inspección y recaudación tributaria.
En nuestra opinión, la utilización de la inteligencia artificial por la Administración tributaria como herramienta para mejorar la eficacia administrativa puede ayudar a la implementación de un enfoque responsivo. Mediante el empleo de algoritmos en los sistemas de gestión del riesgo fiscal de los contribuyentes se permite realizar esta tarea de forma más eficaz y eficiente, reduciendo los costes asociados tradicionalmente a la misma. Así, una vez que a cada contribuyente se le asigna un determinado nivel de riesgo fiscal (entendiéndose por tal el riesgo de incumplimiento con sus obligaciones tributarias), la Administración tributaria procederá a determinar las actuaciones a desarrollar frente a cada contribuyente con el objetivo de lograr una mejora en el cumplimiento voluntario de las obligaciones tributarias.
No cabe duda de que uno de los mayores desafíos a los que se enfrentan las Administraciones tributarias en la actualidad tiene que ver con la gestión eficaz de sus recursos materiales y humanos. Por ello, compartimos la postura del CIAT (2020: 140) cuando afirma que «la gestión integral de los riesgos de cumplimiento tributario es un proceso fundamental, cuya implementación requiere un gran esfuerzo económico y operativo, así como un cambio en la cultura institucional. Dicho enfoque, si se implementa en forma adecuada, aporta mejoras significativas al índice de cumplimiento voluntario, así como la satisfacción del contribuyente respecto de la atención de la administración tributaria».
3. EL RECURSO A LA INTELIGENCIA ARTIFICIAL POR DIFERENTES ADMINISTRACIONES TRIBUTARIAS Y LA IMPORTANCIA DE LA COMPRENSIBILIDAD DEL SISTEMA COMO REQUISITO PARA SU FIABILIDAD
La inteligencia artificial se define en el glosario de las Directrices éticas para una inteligencia artificial fiable como sistemas de software (y en algunos casos también de hardware) diseñados por seres humanos que actúan en la dimensión física o digital mediante la percepción de su entorno a través de la obtención de datos, la interpretación de los datos estructurados o no estructurados que recopilan, el razonamiento sobre el conocimiento o el procesamiento de la información derivados de esos datos, y decidiendo la acción o acciones óptimas que deben llevar a cabo para lograr el propósito establecido. De forma más breve, la inteligencia artificial se define por la Comisión Europea como «una combinación de tecnologías que agrupa datos, algoritmos y capacidad informática» (Comisión Europea, 2020: 2).
Como señala Borja Tomé (2020: 203), el objetivo de los proyectos de inteligencia artificial y análisis de información desarrollados en la Agencia tributaria está alineado con su doble misión: ayudar a los ciudadanos a cumplir voluntariamente con sus obligaciones tributarias y contribuir en la lucha contra el fraude fiscal. En esta línea, compartimos la opinión de Bilbao Estrada (2020: 114) cuando defiende que la utilización de sistemas de inteligencia artificial por parte de las Administraciones tributarias debe considerarse como una nueva herramienta «para garantizar la contribución al sostenimiento de los gastos públicos, en aras de la consecución de una mayor equidad fiscal y de la efectividad de los principios de justicia tributaria», logrando así una aplicación más eficaz y eficiente del sistema tributario.
No obstante, a pesar de que la utilización de la inteligencia artificial por las Administraciones tributarias en el ejercicio de sus funciones suponga una garantía en la aplicación del sistema tributario mediante la consecución de una mejora en el cumplimiento voluntario de las obligaciones tributarias, debemos tener presente que su funcionamiento debe producirse de conformidad con los principios constitucionales que ordenan el sistema tributario y, también, con los derechos y garantías de los contribuyentes.
Entre la lista de requisitos para una inteligencia artificial fiable elaborada por el Grupo Independiente de Expertos de Alto Nivel sobre la Inteligencia Artificial se encuentran, por un lado, la privacidad y gestión de los datos y, por otro lado, la transparencia.
A nuestro modo de ver, el funcionamiento de los sistemas de inteligencia artificial empleados por las Administraciones tributarias puede conllevar, en ciertos supuestos, un riesgo de vulneración del derecho a la intimidad y del derecho a la protección de los datos personales de los contribuyentes. Por ello, los sistemas de inteligencia artificial utilizados por la Administración tributaria deben ser configurados de una manera adecuada para garantizar la protección de estos derechos en aquellos ámbitos en los que resultan de aplicación.
Por otro lado, el uso de la inteligencia artificial por parte de las Administraciones tributarias puede plantear ciertos interrogantes en relación a la necesaria motivación de los actos administrativos y, por tanto, puede implicar una vulneración del principio de seguridad jurídica en su manifestación de interdicción de la arbitrariedad. Al menos en relación al uso de la inteligencia artificial por parte de la Administración tributaria española, en el Webinar sobre Fiscalidad e Inteligencia Artificial [3], celebrado el 23 de julio de 2020 y organizado por el Instituto Complutense de Estudios Internacionales, se precisó que éste era un uso instrumental y que, en cualquier trámite, interviene siempre un funcionario público. A pesar de ello, con vistas a una futura utilización automatizada de los sistemas de inteligencia artificial relacionados con la gestión del riesgo fiscal de los contribuyentes, defendemos que la necesaria motivación «resulta esencial para controlar posibles excesos o arbitrariedades en la determinación de los destinatarios de las actuaciones comprobatorias» (García Berro, 2004: 54).
Como advertimos en la introducción, la Administración tributaria española no es la única que está implementando determinados sistemas de inteligencia artificial para mejorar la eficiencia de sus procedimientos de aplicación de los tributos. Por ello, antes de analizar los problemas enunciados en relación a la posible vulneración del derecho a la intimidad, del derecho a la protección de datos de carácter personal y del principio de seguridad jurídica derivada de la aplicación de estas nuevas herramientas, estimamos oportuno realizar un breve comentario de determinadas resoluciones administrativas y jurisprudenciales dictadas en los Estados miembros de la Unión Europea mencionados con anterioridad.
En todas ellas, a pesar de que los órganos que las dictan asumen la importancia y los beneficios del uso de las nuevas tecnologías por las Administraciones Públicas, entienden que dicho uso debe someterse a determinados límites y que el principio de transparencia se torna indispensable para garantizar la protección de los derechos de los ciudadanos/contribuyentes y de los principios constitucionales que ordenan nuestro ordenamiento jurídico en general y el sistema tributario en particular.
3.1. Decisión del Consejo Constitucional francés de 27 de diciembre de 2019
El 27 de diciembre de 2019, el Consejo Constitucional dictó una decisión [Décision n.º 2019-796 DC[4]] en relación con determinados preceptos de la Loi de finances pour 2020. Entre sus preceptos se encuentra el artículo 154 que autoriza, a título experimental y por una duración de tres años, a que la Administración tributaria pueda recopilar y explotar de manera automatizada los contenidos accesibles públicamente que están disponibles en ciertas plataformas a través de internet, con el objetivo de investigar la comisión de infracciones tributarias y aduaneras.
Considera el Consejo Constitucional que, aunque el artículo 154 permite a la Administración tributaria hacer uso de medios informáticos automatizados para recopilar y explotar determinada información disponible en internet, esta disposición puede suponer una vulneración del derecho al respeto a la vida privada. En este sentido defiende el citado órgano que, en dichas situaciones, corresponde al legislador asegurar un adecuado equilibrio entre el objetivo de luchar contra el fraude y la evasión fiscal y el respecto al derecho a la vida privada reconocido en el artículo 2 de la Déclaration des Droits de l’Homme et du Citoyen de 1789. Igualmente, al considerar que dicho precepto es susceptible de disuadir a los ciudadanos de utilizar determinados servicios o contribuir a reducir su utilización, considera que debe buscarse un adecuado equilibrio entre el objetivo constitucional de lucha contra el fraude fiscal y el ejercicio de la libertad de expresión y de comunicación reconocida en el artículo 11 de la mencionada Declaración de Derechos Humanos.
Es importante tener en cuenta dos límites establecidos a la recogida y tratamiento de los datos susceptibles de utilización. En primer lugar, en el artículo 154 se establece que cuando los datos recopilados no estén relacionados con el desarrollo de la correspondiente investigación o sean considerados datos sensibles deberán ser destruidos en un plazo de 5 días desde su recogida. Por su parte, cualquier otro dato debe ser eliminado en un plazo de 30 días cuando no tenga la naturaleza necesaria para servir a la investigación de las correspondientes infracciones. En segundo lugar, se precisa que en ningún caso se podrá iniciar un procedimiento penal, tributario o aduanero sin que exista una apreciación individual por parte de un funcionario de la Administración tributaria. Es decir, este tipo de decisiones no se pueden tomar exclusivamente sobre la base del tratamiento automatizado de los datos.
A lo anterior se añade la garantía de que el mencionado tratamiento se ha puesto en marcha de conformidad con la Loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés. Por ello, a excepción del derecho de oposición previsto en el artículo 110 de la mencionada Ley, las personas interesadas en el tratamiento disfrutan de las garantías relativas al acceso, la rectificación y eliminación de los datos, así como a los límites establecidos para su tratamiento.
Por todo lo expuesto, concluye el Consejo Constitucional francés que el legislador ha previsto una serie de garantías para asegurar el respeto al derecho a la vida privada y el objetivo constitucional de lucha contra el fraude y la evasión fiscales. Con este tipo de previsiones se consigue, por tanto, una conciliación equilibrada entre ambos. Por su parte, concluye que la vulneración del derecho al ejercicio de la libertad de expresión y comunicación es necesaria, adaptada y proporcionada al objetivo perseguido por la norma.
No obstante, en relación a la investigación de la infracción tributaria recogida en el artículo 1728.1 b) del Códe Géneral del Impôts, considera que el empleo de dichos medios informáticos para la imposición de un recargo del 40% en caso de error o retraso en la presentación de una declaración tributaria dentro de los 30 días siguientes a la recepción de un requerimiento previo supone una vulneración del derecho al respecto de la vida privada y del derecho a la libertad de expresión y comunicación que no puede ser considerada proporcionada. En estos supuestos, al enviar el requerimiento previo, la Administración tributaria ya poseía la información necesaria para garantizar la efectiva aplicación del sistema tributario. Por ello, el fragmento “b y” del párrafo I del artículo 154, que hacían alusión al artículo 1728.1 b) del Códe Géneral des Impôts, fue considerado contrario a la Constitución y suprimido de la versión definitiva del texto normativo.
En este punto, resulta interesante hacer referencia a los comentarios publicados por el Consejo Constitucional sobre dicha Decisión de 27 de diciembre de 2019 [5]. En ellos, el Consejo Constitucional se pronuncia sobre la cuestión del recurso a algoritmos por parte de la Administración tributaria, haciendo alusión a diferentes decisiones previamente publicadas. Así, se hace referencia a la Decisión n.º 2003-467 DC de 13 de marzo de 2003 [6], en la que el Consejo determina que constituye una garantía necesaria para el tratamiento constitucional de datos de carácter personal que se reconozca la imposibilidad de utilizar exclusivamente un algoritmo como fundamento para una determinada decisión.
De este modo, concluye que ninguna decisión administrativa que implique una apreciación sobre un comportamiento humano puede estar solamente basada en un tratamiento automatizado de información que proporcione un perfil de la personalidad del interesado. En la Decisión n.º 2018-765 DC de 12 de junio de 2018 [7], el Consejo vuelve a pronunciarse sobre el uso de la inteligencia artificial por parte de la Administración, concluyendo que la autorización para que la Administración pueda tomar decisiones individuales con el fundamento exclusivo de un algoritmo vulnera lo establecido en el artículo 16 de la Déclaration de 1789 y el artículo 21 de la Constitución francesa relativos al poder reglamentario.
En dichos comentarios se explica que en la Decisión del Consejo Constitucional francés de 27 de diciembre de 2019 se produce una censura parcial del artículo 154 de la Loi de Finances pour 2020. Esto es así porque en aquellos supuestos en los que resulta de aplicación lo establecido en el artículo 1728.1 b) del Códe Géneral des Impôts, la Administración tributaria ya ha tenido conocimiento de la comisión de una infracción tributaria al haber enviado un requerimiento previo al contribuyente. Por este motivo, considera el Consejo Constitucional que no hay necesidad en dichos supuestos de acudir a un dispositivo automatizado de recolección de datos personales.
A este respecto, comparte Calderón (2020: 125) la posición del Consejo Constitucional francés cuando afirma que es necesario que este tipo de mecanismos vengan regulados de forma expresa y sean configurados para operar de forma limitada y compatible con los derechos fundamentales. Ello es debido a que estima que «el cumplimiento tributario no solo se logra a través de mecanismos que profundicen en el control fiscal sino a través del desarrollo de una buena gobernanza administrativa respetuosa y protectora de los principios democráticos y de los procedimientos propios de un Estado de Derecho».
En esta línea, con el propósito de completar esta visión general de la situación existente en Francia respecto del uso de la inteligencia artificial por parte de las Administraciones Públicas, debemos hacer referencia al artículo L.311-3-1 del Códe des relations entre le public et la Administration que se introdujo por el legislador en el año 2016. En dicho artículo se establece que, cuando se tome una decisión individual sobre la base de un tratamiento algorítmico de los datos del interesado, ello debe implicar una mención explícita en la información proporcionada al interesado. De esta forma, las reglas empleadas para realizar dicho tratamiento y las características principales del mismo deben ser comunicadas por la Administración al interesado en caso de petición. Esta obligación de información únicamente se excepciona por lo previsto en el artículo L.311-5 del mismo Código, en el que se establece que la misma no deberá cumplirse cuando suponga una vulneración del secreto de defensa nacional, una vulneración del secreto de las deliberaciones del Gobierno o cuando sea una decisión que ponga en peligro la política exterior francesa, entre otras circunstancias.
3.2. Sentencias del Consejo de Estado italiano de 8 de abril y de 13 de diciembre de 2019
De forma introductoria, el Consejo de Estado italiano, en sus sentencias de 8 de abril [8] y de 13 de diciembre de 2019 [9], hace referencia a la importancia de la digitalización de las Administraciones Públicas para mejorar la calidad de los servicios públicos y para cumplir con las exigencias del principio de eficacia administrativa que impone a las Administraciones Públicas conseguir sus propios fines con el menor número de recursos posibles. De este modo, entiende el Consejo de Estado que el recurso a un mecanismo informático que proporcione una decisión final en un procedimiento administrativo no debe ser estigmatizado, sino estimulado.
En este sentido, señala Carloni (2020: 7) que, aunque en un primer momento podía parecer que la admisibilidad de las decisiones algorítmicas dependía de la naturaleza reglada de la actuación, posteriormente el Consejo de Estado ha admitido la toma de decisiones mediante algoritmos en actuaciones discrecionales de la Administración sobre la base de una serie de requisitos de legalidad y transparencia que analizaremos en las próximas líneas.
El objeto de las sentencias mencionadas lo constituye la Legge n. 107/2015, di 13 luglio 2015, di Riforma del sistema nazionale di istruzione e formazione e delega per il riordino delle disposizioni legislative vigenti . En ambas sentencias los demandantes alegan que el procedimiento de concurso para el profesorado de instituciones educativas estatales de todos los niveles se ha desarrollado íntegramente por medio de un algoritmo cuyo funcionamiento se desconoce. Por ello, consideran que el procedimiento se ha resuelto sin la debida motivación, sin la correspondiente transparencia y sin el análisis individualizado de cada caso por un funcionario de la Administración.
A pesar de las indiscutibles ventajas que aporta la digitalización de los procedimientos para las Administraciones Públicas, considera el Consejo de Estado que la “robotización” de los procedimientos administrativos no puede suponer la elusión de los principios que ordenan el ordenamiento jurídico y que regulan la actuación administrativa. De este modo, teniendo en cuenta que este algoritmo posee plena validez jurídica debe regirse por los principios generales de la actuación administrativa (publicidad y transparencia, racionalidad, proporcionalidad, etc.). Junto a ello, determina el Consejo de Estado que, como la discrecionalidad administrativa no puede ser asignada al propio software, se debe imponer la necesidad de que sea la Administración quien cumpla un papel de mediación y de composición de intereses de forma previa a la implementación del algoritmo y que, en cualquier caso, se permita que sea el juez quien valore la adecuación del correspondiente algoritmo al ordenamiento jurídico.
De este modo, tras hacer referencia a determinados preceptos del Reglamento Europeo de Protección de Datos, el Consejo de Estado italiano determina una serie de requisitos que se consideran indispensables para garantizar que el empleo de algoritmos en procedimientos administrativos sea respetuoso con los derechos y garantías reconocidos en el citado Reglamento. Por un lado, se estima imprescindible que el algoritmo utilizado sea conocible, como resultado de una interpretación reforzada del principio de transparencia que implica el pleno conocimiento del contenido y del funcionamiento del algoritmo en un lenguaje no necesariamente jurídico. Por otro lado, se precisa la imputabilidad de la decisión al órgano competente para asegurar la verificación de la lógica y la legitimidad del funcionamiento del algoritmo. Como no puede ser de otra manera, la plena transparencia del algoritmo debe estar supeditada a garantizar el control judicial del correcto funcionamiento del mismo, ya que solamente así es posible valorar la legitimidad de la decisión administrativa.
En línea con lo anterior, el citado órgano enuncia tres principios que deben regir el uso de la inteligencia artificial por las Administraciones Públicas. En primer lugar, el principio de cognoscibilidad significa que cualquier persona interesada tiene derecho a conocer la existencia de una decisión automatizada que le afecte, siendo necesario ofrecerle la posibilidad de acceder a información significativa sobre la lógica aplicada. En segundo lugar, hace referencia al principio de no exclusividad de la decisión algorítmica, lo que significa que en ningún caso podrá tomarse una decisión basada exclusivamente en un mecanismo automatizado cuando ésta produzca efectos jurídicos que puedan considerarse significativos para una persona. Por tanto, en estos supuestos debe intervenir un funcionario de la Administración para poder controlar, validar o rechazar la decisión automática. En tercer y último lugar, el Consejo de Estado hace referencia al principio fundamental de no discriminación algorítmica. Según este principio, es indispensable que el responsable del tratamiento utilice un procedimiento matemático o estadístico apropiado para minimizar el riesgo de error y para garantizar el adecuado tratamiento de los datos personales que impida cualquier efecto discriminatorio sobre la base de la raza u origen étnico, de la opinión política, de la religión, etc. De esta forma, junto con las exigencias de que el algoritmo sea conocible y comprensible, se debe garantizar que el mismo no produzca un resultado discriminatorio.
Sobre la base de todo lo expuesto, concluye el Consejo de Estado italiano que la imposibilidad de conocer el funcionamiento del algoritmo utilizado para la asignación de plazas al profesorado constituye un vicio de invalidez del citado procedimiento. A este respecto añade que, en ningún caso, el carácter multidisciplinar del algoritmo exime de la necesidad de revelar la “fórmula técnica” que representa el algoritmo y que convierte al mismo en una “regla jurídica” legible y comprensible.
3.3. Sentencia del Tribunal de Primera Instancia de La Haya de 5 de febrero de 2020
Un grupo de asociaciones civiles de Holanda presentaron una demanda contra el Estado en relación con el System Risk Indication (SyRI), al considerar que su utilización por parte del gobierno holandés para combatir el fraude a la seguridad social y el fraude fiscal suponía una vulneración del artículo 8 del Convenio Europeo de Derechos Humanos. Esta demanda fue resuelta por el Tribunal de Primera Instancia de La Haya en su sentencia de 5 de febrero [10], concluyendo el citado órgano que la normativa reguladora del SyRI no cumple con las exigencias establecidas en el apartado 2º del artículo 8 del citado Convenio.
El SyRI es un instrumento legal que el Ministerio de Asuntos Sociales y Empleo holandés utiliza para prevenir y combatir el fraude en diferentes áreas sobre la base de una relación de cooperación entre distintos organismos públicos, siendo estos organismos quienes solicitan el correspondiente informe de riesgo.
Dicho instrumento consiste en una infraestructura técnica y en determinados procedimientos que facilitan el tratamiento y análisis de datos de manera anónima en un ambiente seguro que permite la elaboración de informes de riesgo. Estos informes de riesgo suponen que una persona física o una persona jurídica pueden ser objeto de investigación en relación con un posible fraude o incumplimiento de la correspondiente normativa.
Según lo establecido en su normativa reguladora, la información susceptible de ser utilizada por el SyRI es: información laboral; información sobre infracciones administrativas y sobre sanciones impuestas; información fiscal; datos sobre propiedad de bienes muebles y bienes inmuebles; datos sobre posibles causas de exclusión de beneficios sociales; datos sobre su residencia; datos identificativos (nombre, dirección, lugar de residencia, fecha de nacimiento, género…); información en relación al cumplimiento de la normativa en vigor; información sobre sus estudios; información sobre sus pensiones; datos sobre seguros médicos, etc.
El tratamiento de datos en el seno de SyRI se realiza en dos fases. En la primera fase, denominada fase de tratamiento, el encargado de dicho tratamiento recopila toda la información y la seudonimiza. Entre otros datos, los nombres de las personas físicas y de las personas jurídicas, los datos de seguridad social y las direcciones son reemplazados por un código. Después de ello, esa información encriptada es comparada con un modelo de riesgos con diferentes indicadores con el objetivo de que aparezcan potenciales alertas en relación a la existencia de ciertos riesgos previamente identificados. Una vez que se producen dichas coincidencias entre la información encriptada y los indicadores de riesgos, la información sobre el sujeto que es objeto del informe es desencriptada. En la segunda fase, llamada fase de análisis, se utiliza la información completa previamente recopilada para realizar un estudio pormenorizado de la misma en la unidad de análisis de la Inspección SWZ del Ministerio de Asuntos Sociales y Empleo.
En un primer momento, considera el citado Tribunal que el uso de las nuevas tecnologías permite mejorar los medios de que disponen las Administraciones Públicas para prevenir y luchar contra el fraude que afecta a las arcas públicas. No obstante, defiende que su implementación y utilización debe llevarse a cabo de conformidad con el derecho al respeto a la vida privada y familiar y con el derecho a la protección de datos personales, que han venido siendo considerados por el Tribunal Europeo de Derechos Humanos como una parte fundamental del derecho a la intimidad personal y familiar recogido en el artículo 8 del Convenio Europeo de Derechos Humanos [11].
De esta forma, el Tribunal de Primera Instancia de La Haya defiende que los Estados miembros deben garantizar que la aplicación de las nuevas tecnologías se realiza sobre la base de un adecuado equilibrio entre los beneficios asociados a su uso y la interferencia que estos nuevos medios pueden causar en el ejercicio del derecho al respeto de la vida privada. Teniendo esto en cuenta, concluye el Tribunal que la normativa reguladora de SyRI no cumple con las exigencias del artículo 8.2 del Convenio Europeo de Derechos Humanos, al no considerarse que la interferencia producida en el ejercicio del derecho al respecto de la vida privada y familiar sea necesaria en una sociedad democrática, lo que implica forzosamente que sea proporcional al fin que persigue.
En este sentido, explica que dicha normativa no cumple con el equilibrio que debe existir entre el interés general al que la legislación sirve y la vulneración del derecho a la intimidad personal y familiar para concluir que la correspondiente interferencia está suficientemente justificada. Ello es así porque se estima que el uso de SyRI no es claro ni verificable. De hecho, la normativa reguladora de dicho sistema no establece ninguna obligación de información a los sujetos cuyos datos están siendo objeto de tratamiento, ni siquiera cuando se elabora el correspondiente informe de riesgos. Únicamente existe la obligación de anunciar el inicio de un proyecto SyRI en el Boletín Oficial correspondiente y el acceso al registro de informes de riesgo bajo petición.
De este modo, concluye que la normativa reguladora de dicho sistema no ofrece las garantías suficientes al derecho a la vida privada de las personas cuyos datos son analizados, teniendo en cuenta la gran cantidad de datos susceptibles de utilización y que no se proporciona información alguna acerca de los indicadores de riesgo, del modelo de riesgo utilizado o del método empleado para llevar a cabo el análisis de información.
A pesar de todo lo expuesto, matiza el citado Tribunal que no debe considerarse que la elaboración de informes o de perfiles de riesgo mediante algoritmos por parte de las Administraciones Públicas en el ejercicio de sus funciones sea contrario a lo establecido en el artículo 8 del Convenio Europeo de Derechos Humanos. El problema, en línea con lo establecido por el Consejo de Estado italiano, radica en la falta de información proporcionada a los sujetos interesados respecto del tratamiento de sus datos personales para la elaboración de informes de riesgo.
3.4. Resolución del Consejo de Transparencia y Buen Gobierno español de 13 de febrero de 2020
La última de las resoluciones a la que vamos a hacer referencia es la Resolución del Consejo de Transparencia y Buen Gobierno español de 13 de febrero de 2020 [12]. En dicha resolución se resuelve una reclamación presentada frente a la respuesta de la Agencia Estatal de la Administración Tributaria a una solicitud de acceso a información pública sobre aplicaciones informáticas utilizadas en el desarrollo de sus funciones con base en el artículo 12 de la Ley 19/2013, de 9 de diciembre, de transparencia, acceso a la información pública y buen gobierno.
La mencionada solicitud de acceso tuvo como objetivo obtener información sobre determinados programas o aplicaciones que utiliza la Administración tributaria española en el ejercicio de sus funciones [ZÚJAR, TESEO, INEX, INTER, DEDALO, PROMETEO y GENIO [13] ]. Concretamente se solicitaba información acerca de su contenido, función y su régimen jurídico, debido a que en la página web de la Agencia tributaria española no existe información al respecto.
Una vez analizada la solicitud se resolvió conceder el acceso a la información, señalando que, «desde un punto de vista técnico, las aplicaciones ZÚJAR, TESEO, INEX, INTER, DEDALO, PROMETEO y GENIO contienen sistemas de análisis de información y relaciones, de gestión de intercambios no automáticos de información tributaria internacional y de generación de informes, con base en la Ley 58/2003, de 17 de diciembre, General Tributaria, (LGT), y su desarrollo reglamentario, y en tratados tributarios internacionales».
Frente a dicha respuesta el interesado presentó una reclamación ante el Consejo de Transparencia y Buen Gobierno por considerar que no se había proporcionado la información solicitada y que, a pesar de que actualmente estos programas son utilizados en el ejercicio de sus funciones, no se encuentra disponible la información reglamentaria correspondiente según lo establecido en el artículo 96.4 de la Ley General Tributaria, habiéndose contestado a la solicitud de forma vaga y genérica.
Por su parte, la Agencia Tributaria estima que proporcionar al interesado una información más exhaustiva podría afectar al ejercicio de su actividad. A este respecto añade que debe tomarse en consideración el contenido del artículo 14 de la mencionada Ley 19/2013, en el que se establece que el derecho de acceso podrá ser limitado cuando el acceso a determinada información suponga un perjuicio para la prevención, investigación y sanción de los ilícitos penales, administrativos o disciplinarios; las funciones administrativas de vigilancia, inspección y control; o el secreto profesional y la propiedad intelectual e industrial.
Además, la Agencia Tributaria defiende que el desarrollo reglamentario al que se refiere el interesado se encuentra en el artículo 85 del Reglamento General de las actuaciones y los procedimientos de gestión e inspección tributaria [14]. En el apartado 1º de dicho precepto se establece que, en los supuestos de actuación automatizada, las aplicaciones informáticas que efectúen tratamientos de información cuyo resultado sea utilizado por la Administración tributaria para el ejercicio de sus potestades y por las que se determine directamente el contenido de las actuaciones administrativas, deberán ser previamente aprobadas mediante resolución del órgano que debe ser considerado responsable a efectos de la impugnación de los actos administrativos correspondientes. Por ello, concluye que la exigencia de aprobación reglamentaria recogida en el artículo 96.4 de la Ley General Tributaria no afecta a la utilización de aplicaciones informáticas que supongan un mero soporte de la actuación administrativa.
No obstante, sobre este particular considera el interesado que resulta evidente que dichas aplicaciones informáticas producen información que es utilizada por la Agencia Tributaria en el ejercicio de sus potestades. Además, alega que el artículo 170.7 del Reglamento mencionado anteriormente solamente hace referencia a la obligación de no dar publicidad a los medios informáticos de tratamiento de información y a los sistemas de selección de obligados tributarios en el seno de las actuaciones inspectoras. Por tanto, concluye que quedan excluidos de lo establecido en el artículo 96 de la Ley General Tributaria los medios informáticos que sean utilizados para el desarrollo de las funciones de gestión y de recaudación tributaria.
Como puede observarse, el fundamento de la denegación del acceso a la información sobre determinadas aplicaciones utilizadas por la Administración tributaria española se encuentra en los límites recogidos en el artículo 14 de la Ley 19/2013. Haciendo referencia a determinadas sentencias del Juzgado Central de lo Contencioso-Administrativo de Madrid [15] y a la sentencia del Tribunal Supremo de 16 de octubre de 2017, el Consejo de Transparencia y Buen Gobierno determina que las causas justificadas de limitación del derecho de acceso establecidas en el artículo 14 de la mencionada Ley constituyen «conceptos jurídicos indeterminados cuya relevancia y trascendencia deben ser concretadas en cada caso, ponderando los intereses en conflicto». A este respecto, no debe perderse de vista que el derecho de acceso se configura en la citada Ley de forma amplia y que solamente se verá limitado en aquellos casos en que sea necesario por la naturaleza de la información o por su entrada en conflicto con otros intereses protegidos.
En consecuencia, el Consejo de Transparencia considera que en el presente caso la Administración se ha limitado a «invocar los límites sin argumentar mínimamente su aplicación», aunque comparte el criterio de la Administración de que proporcionar información detallada sobre el funcionamiento de las aplicaciones empleadas por la Administración tributaria para el ejercicio de las funciones que tiene encomendadas podría implicar un perjuicio razonable a sus actividades de investigación y supervisión.
Sin embargo, la respuesta ofrecida por la Agencia Tributaria es calificada como poco específica por el Consejo. En este sentido concluye el citado órgano que el perjuicio derivado de proporcionar un detalle excesivo del funcionamiento de las aplicaciones utilizadas por la Administración tributaria podría ser neutralizado mediante la aportación de información sobre las mismas que no se limite a «la descripción vaga y genérica que se proporciona en la resolución objeto de reclamación». Así, se lograría un adecuado equilibrio entre la protección de las funciones administrativas de vigilancia, inspección y control para garantizar la efectiva aplicación del sistema tributario y la protección del derecho de acceso del solicitante.
De todo lo expuesto hasta el momento puede concluirse que la transparencia algorítmica se torna imprescindible en el uso de la inteligencia artificial por las Administraciones tributarias y que existen diferentes perspectivas desde las que se puede valorar dicha importancia.
Por un lado, como sucede en el caso holandés, desde la óptica del derecho a la intimidad personal y familiar reconocido en el Convenio Europeo de Derechos Humanos y desde la perspectiva del derecho a la protección de datos personales. Por otro lado, ante la falta de transparencia activa, desde la óptica del derecho de acceso a la información pública reconocido en la Ley 19/2013 y de los límites a dicho derecho de acceso establecidos en el artículo 14 de la citada norma, siendo ejemplo de ello la resolución del Consejo de Transparencia y Buen Gobierno español de 13 de febrero de 2020. Y, por último, como se puede inferir de la decisión del Consejo Constitucional francés y de las sentencias del Consejo de Estado italiano, la falta de transparencia en relación al funcionamiento de los algoritmos utilizados por las Administraciones Públicas puede suponer una vulneración de los principios de seguridad jurídica y de interdicción de la arbitrariedad reconocidos en el artículo 9.3 de la Constitución española.
De este modo, teniendo en cuenta la resolución del Consejo de Transparencia y Buen Gobierno de 13 de febrero de 2020 que acordó conceder el derecho de acceso a la información pública en relación al contenido y función de determinadas aplicaciones informáticas utilizadas por la Administración tributaria española, centraremos nuestro estudio en la primera y la última de las perspectivas planteadas.
4. LA PROTECCIÓN DE LA INTIMIDAD Y DE LA GESTIÓN DE LOS DATOS PERSONALES EN LOS SISTEMAS DE INTELIGENCIA ARTIFICIAL EMPLEADOS POR LAS ADMINISTRACIONES TRIBUTARIAS
A día de hoy, no puede negarse que «la materia prima de la Administración tributaria es el conocimiento del universo de contribuyentes y su información económica y financiera» (CIAT 2020: 204-205). Como hemos comentado anteriormente, un aspecto fundamental del desarrollo de los procesos necesarios para garantizar la efectiva aplicación del sistema tributario es el volumen de información a disposición de las Administraciones tributarias y el empleo de las herramientas adecuadas para analizar dicha información. En este sentido, coincidimos con González de Frutos (2020: 146) cuando señala que, posiblemente, la Administración tributaria sea el ente idóneo para introducir la inteligencia artificial en el Sector Público.
No obstante, siguiendo a la Agencia Española de Protección de Datos (2020: 5), «la aplicación de la Inteligencia Artificial despierta dudas entre usuarios, investigadores, especialistas, autoridades y la industria en relación a aspectos de cumplimiento normativo, respecto a los derechos de los interesados y seguridad jurídica de todos los intervinientes».
Por este motivo, teniendo en cuenta que la protección de datos personales de las personas físicas se configura como un derecho fundamental en el artículo 8.1 de la Carta de los Derechos Fundamentales de la Unión Europea, en el artículo 16.1 del Tratado de Funcionamiento de la Unión Europea y en el artículo 18.4 de la Constitución española, trataremos de analizar cómo deben configurarse los sistemas de inteligencia artificial empleados por la Administración tributaria española para salvaguardar dicho derecho fundamental.
El Reglamento General de Protección de Datos, complementado por la Ley Orgánica 3/2018 [16], constituye el marco normativo aplicable en relación a la protección de los datos personales. El concepto de dato personal se define en el artículo 4 del citado Reglamento General como «toda información sobre una persona física identificada o identificable», siendo persona física identificable aquélla cuya identidad pueda determinarse, directa o indirectamente, en particular mediante un identificador, como por ejemplo un nombre, un número de identificación, datos de localización, un identificador en línea o uno o varios elementos propios de la identidad física, fisiológica, genética, psíquica, económica, cultural o social de dicha persona.
De este modo, debemos tener presente que el ámbito subjetivo de aplicación del derecho a la protección de datos personales se limita a las personas físicas. Por un lado, de la definición de dato personal analizada se puede concluir que el derecho a la protección de datos personales no resulta aplicable a las personas jurídicas, tal y como aclara el Considerando 14º del Reglamento. Por otro lado, tampoco se aplica a los empresarios individuales, atendiendo a la definición de empresa del artículo 4. En este sentido, debemos apuntar que la exclusión de los mismos no es total, habiéndose pronunciado sobre ello el Tribunal Supremo de forma previa a la entrada en vigor del Reglamento.
Entre otras, en sus sentencias de 25 de junio de 2003 [17], de 24 de noviembre de 2014 [18] y de 20 de septiembre de 2018 [19], el citado Tribunal determina que el derecho a la protección de datos personales únicamente resultará de aplicación a los empresarios individuales cuando los datos objeto de tratamiento se refieran a la vida personal del empresario y no a su empresa o profesión. Para ello, especifica que será necesario atender, por un lado, a la clase y naturaleza de los datos tratados y, por otro lado, a la finalidad del tratamiento y las circunstancias en las que éste se desarrolla.
Por su parte, el concepto de dato personal fue desarrollado en el Dictamen 4/2007 del Grupo de Trabajo sobre el artículo 29 de la Directiva 95/46/CE al que se refiere la Agencia Española de Protección de Datos en su reciente documento “Adecuación al RGPD de tratamientos que incorporan Inteligencia Artificial. Una introducción”, publicado en febrero de 2020.
En dicho dictamen se matizaba que el término dato personal «comprende la información relativa a la vida privada y familiar del individuo stricto sensu, pero también la información sobre cualquier tipo de actividad desarrollada por una persona, como la referida a sus relaciones laborales o a su actividad económica o social». De este modo, el concepto de datos personales abarca información sobre las personas, con independencia de su posición o capacidad (como consumidor, paciente, trabajador por cuenta ajena, cliente, etc.).
Atendiendo a la definición de dato personal, consideramos que el empleo de inteligencia artificial por parte de la Administración tributaria durante el desarrollo de sus funciones de análisis de información y de asistencia en la toma de decisiones puede suponer el tratamiento automatizado de datos de carácter personal protegidos y/o la elaboración de perfiles de contribuyentes, siempre teniendo en cuenta el específico ámbito subjetivo y objetivo de aplicación del citado derecho. Por ello, defendemos que en estos casos deben resultar aplicables las garantías previstas en el Reglamento General de Protección de Datos que, sobre la base del principio de transparencia, aseguran que el interesado obtenga la información necesaria sobre el tratamiento de sus datos personales.
El principio de transparencia, reconocido en el artículo 5.1 a) del Reglamento General de Protección de Datos, garantiza que el responsable del tratamiento tome las medidas oportunas para facilitar al interesado toda la información indicada en los artículos 13 y 14 del mismo, de forma concisa, transparente, inteligible y de fácil acceso, con un lenguaje claro y sencillo, tanto si el interesado es objeto de una decisión basada o no únicamente en el tratamiento automatizado de datos. Igualmente, el responsable del tratamiento debe facilitar al interesado el ejercicio de sus derechos de acceso, rectificación, oposición, supresión (“derecho al olvido”), limitación del tratamiento y portabilidad, en virtud de lo establecido en los artículos 15 a 21 del citado Reglamento.
Es en el artículo 22 del Reglamento donde se recogen disposiciones específicas sobre decisiones basadas exclusivamente en un tratamiento automatizado de datos personales. Las «Directrices sobre decisiones individuales automatizadas y elaboración de perfiles a los efectos del Reglamento 2016/679», elaboradas por el Grupo de trabajo sobre protección de datos del artículo 29, definen este tipo de decisiones como aquellas en las que no hay participación humana. Con el objeto de precisar esta definición se explica que, para una determinada actuación sea considerada participación humana, es necesario que el responsable del tratamiento garantice que cualquier supervisión de la decisión es significativa, sin que sirva a tal efecto un mero gesto simbólico.
El primer apartado del artículo 22 establece que todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar.
Sin embargo, según lo establecido en el apartado 2º del mismo, la citada garantía no se aplicará si la decisión es necesaria para la celebración o la ejecución de un contrato entre el interesado y un responsable del tratamiento; está autorizada por el Derecho de la Unión o de los Estados miembros que resulta de aplicación al responsable del tratamiento y que establece asimismo medidas adecuadas para salvaguardar los derechos y libertades y los intereses legítimos del interesado; o se basa en el consentimiento explícito del interesado.
Son dos los aspectos del citado artículo en los que nos debemos detener en relación al uso de la inteligencia artificial por parte de la Administración tributaria que pueda dar lugar a una decisión basada únicamente en el tratamiento automatizado de datos personales.
En primer lugar, aunque se pueda tratar de una decisión que produzca efectos jurídicos en el interesado, debemos considerar que las garantías del citado artículo pueden resultar difícilmente aplicables en el tratamiento de datos por parte de las Administraciones tributarias, ya que se recoge como una excepción a las mismas que dicho tratamiento esté autorizado por el Derecho de la Unión o de los Estados miembros que resulta de aplicación al responsable del tratamiento. Sin embargo, en este punto resulta imprescindible hacer referencia a que el Derecho de la Unión o del Estado miembro en cuestión debe establecer las medidas adecuadas de salvaguarda de los derechos y libertades e intereses legítimos del interesado.
Ejemplo de ello es el artículo 154 de la Loi de finances pour 2020 que permite a la Administración tributaria francesa hacer uso de medios informáticos automatizados para recopilar y explotar determinada información disponible en internet, pero establece ciertos límites a la recogida y tratamiento de los datos susceptibles de utilización. Además, los interesados disfrutan de las garantías relativas al acceso, la rectificación y eliminación de los datos, así como a los límites establecidos para su tratamiento en la Loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés . Como hemos visto con anterioridad, estas garantías fueron consideradas suficientes por el Consejo Constitucional francés, salvo en aquellos supuestos en los que la Administración tributaria ya había tenido conocimiento del incumplimiento del contribuyente.
En línea con lo anterior, a nivel nacional, en el artículo 95 de la Ley General Tributaria se regula el carácter reservado de los datos con trascendencia tributaria, al tiempo que se recoge en su apartado 3º que la Administración tributaria adoptará las medidas necesarias para garantizar la confidencialidad de la información tributaria y su uso adecuado. Por su parte, el ya mencionado artículo 96 de la citada norma determina que la promoción de la utilización de las nuevas tecnologías por parte de la Administración tributaria en el desarrollo de sus funciones se realizará con las limitaciones que la Constitución y las leyes establezcan.
En segundo lugar, en el artículo 22.2 del Reglamento Europeo de Protección de Datos se determina que las garantías al tratamiento automatizado de datos personales del apartado anterior no resultarán de aplicación cuando el interesado haya prestado su consentimiento explícito.
El consentimiento explícito, según lo interpretado por el Grupo de trabajo sobre protección de datos del artículo 29 en sus “Directrices sobre el consentimiento en el sentido del Reglamento (UE) 2016/679” se requiere en determinadas situaciones en las que existe un riesgo grave en relación con la protección de los datos y en las que se considera necesario que exista un elevado nivel de control sobre los datos personales. En este sentido, se precisa que el término explícito se refiere a la manera en que el interesado expresa el consentimiento. De este modo, se concluye que en estos supuestos el interesado debe realizar una declaración expresa de consentimiento, es decir, que es necesario que dicho consentimiento se otorgue de manera expresa en una declaración escrita.
Resulta fundamental tener en cuenta que en las antes mencionadas Directrices sobre decisiones individuales automatizadas se determina que, para poder considerar que se ha otorgado el consentimiento, los responsables del tratamiento deben poder demostrar que los interesados entienden exactamente qué están consintiendo. Para ello, resulta lógico que se deba garantizar que los interesados cuentan con la suficiente información sobre el uso y las consecuencias del tratamiento para poder garantizar que el consentimiento constituye una elección informada.
En concreto, se aclara que será necesario que se comuniquen al interesado ciertos elementos que son cruciales para poder elegir, entre los que se encuentran, a modo de ejemplo, el fin de cada una de las operaciones de tratamiento para las que se solicita el consentimiento, qué tipo de datos van a recogerse y utilizarse o información sobre el uso de los datos para decisiones automatizadas de conformidad con el artículo 22, apartado 2, letra c).
Sobre este particular, debemos tener presente que, en nuestro ordenamiento jurídico, el artículo 94.5 de la Ley General Tributaria determina que la cesión de datos de carácter personal que se deba efectuar a la Administración tributaria conforme a lo dispuesto en el artículo 93 de la citada norma, en los apartados anteriores del mencionado artículo 94 o en otra norma de rango legal, no requerirá el consentimiento del afectado.
No obstante, en este punto, es interesante volver a hacer referencia a las Directrices éticas para una inteligencia artificial fiable del Grupo Independiente de Expertos de Alto Nivel sobre la Inteligencia Artificial. En dicho documento se especifica que, en aquellos supuestos en los que se produce la evaluación de los ciudadanos mediante un sistema de inteligencia artificial, se debería poner a disposición de los mismos un proceso plenamente transparente que incluya información sobre su desarrollo, la finalidad y la metodología de la evaluación. Además, se insiste en que la transparencia «reviste una importancia especial en situaciones en las que exista asimetría de poder entre las partes», como sucede en la relación jurídico-tributaria, a pesar de los avances producidos en los últimos años en relación al cumplimiento cooperativo (OECD, 2016: 7).
Directamente relacionado con el principio de transparencia se encuentra el principio de comprensibilidad que, aunque no está expresamente reconocido en el Reglamento General de Protección de Datos, se recoge como uno de los cuatro principios éticos fundamentales que deberían cumplirse para garantizar que los sistemas de inteligencia artificial se desarrollen, desplieguen y utilicen de manera fiable en las Directrices éticas mencionadas anteriormente. Este principio se considera crucial para garantizar la confianza en los sistemas de inteligencia artificial. Para ello, es imprescindible que los procesos sean transparentes, es decir, que las decisiones puedan explicarse a las partes que se vean afectadas por ellas de manera directa o indirecta.
En este sentido, debemos recuperar lo expuesto durante el análisis de las sentencias del Consejo de Estado italiano de 8 de abril y de 13 de diciembre de 2019 para volver a incidir sobre la importancia de proporcionar información sobre el contenido y el funcionamiento de los sistemas de inteligencia artificial empleados por las Administraciones públicas, independientemente del carácter técnico y multidisciplinar de los mismos y aunque resulte necesario adaptar dicha información para que sea accesible para la mayoría de los interesados.
Del análisis de los preceptos mencionados, podemos concluir que las garantías en ellos previstas resultarán aplicables en mayor o menor medida si se adopta una concepción amplia o estricta del término decisión. A nuestro modo de ver, consideramos que se debe llevar a cabo una interpretación amplia de la palabra “decisión”, siguiendo las recomendaciones efectuadas por el Grupo Independiente de Expertos de Alto Nivel sobre la Inteligencia Artificial en su informe “A definition of AI: main capabilities and disciplines”. En dicho documento, el citado grupo llama la atención sobre la importancia de definir el término “decisión” de una manera amplia, incluyendo cualquier elección que determine la actuación a seguir y que no debe necesariamente entenderse como un sistema completamente autónomo.
De esta manera, a la hora de aplicar las garantías previstas con carácter general en los artículos 13 a 21 y las garantías específicas previstas para decisiones basadas únicamente en el tratamiento automatizado del artículo 22 del Reglamento General de Protección de Datos, defendemos que el concepto de decisión se debe interpretar como cualquier actuación que determine el procedimiento a seguir, incluso en aquellos supuestos en que la decisión resultante del empleo de un sistema de inteligencia artificial haya sido posteriormente examinada por personal competente sin que éste influya realmente en la decisión. Esto sucedería, por ejemplo, en aquellos casos en los que se produjera el inicio de un procedimiento de gestión, inspección y recaudación sobre la base de un perfil de riesgo elaborado por HERMES, sin que el funcionario competente realice ninguna actividad adicional para determinar la calificación de mayor o menor riesgo del contribuyente.
No obstante, en línea con lo establecido en el artículo 8 del Convenio Europeo de Derechos Humanos, es importante tener en cuenta que el Tribunal de Justicia de la Unión Europea ha venido considerando que el derecho a la protección de datos personales no constituye un derecho absoluto y, por tanto, admite restricciones, debiendo ser considerado en relación con su función en la sociedad y la necesidad de mantener el equilibrio con otros derechos fundamentales, según el principio de proporcionalidad [20].
Expuesto cuanto antecede, debemos hacer referencia a que, en aquellos supuestos en los que las normas de protección de datos personales no resulten de aplicación, el empleo de sistemas de inteligencia artificial por parte de las Administraciones tributarias puede incidir sobre el derecho a la intimidad personal y familiar reconocido en el artículo 8 del Convenio Europeo de Derechos Humanos y, a nivel nacional, en el artículo 18.1 de la Constitución española. Así se consideró por el Grupo de Trabajo sobre el artículo 29 en su Dictamen sobre el concepto de datos personales y también por el Tribunal de Primera Instancia de La Haya en su sentencia de 5 de febrero comentada anteriormente.
En este sentido, debemos tener presentes las diferencias entre el derecho a la protección de datos personales y el derecho a la intimidad personal y familiar, ya que ambos han sido considerados derechos autónomos por el Tribunal de Justicia de la Unión Europea [21]. Sobre esta distinción se pronuncia de manera clara el Tribunal Constitucional español en su sentencia de 20 de noviembre del 2000 cuando determina que, mientras que el derecho a la intimidad personal y familiar «confiere a la persona el poder jurídico de imponer a terceros el deber de abstenerse de toda intromisión en la esfera íntima de la persona y la prohibición de hacer uso de lo así conocido, el derecho a la protección de datos atribuye a su titular un haz de facultades consistente en diversos poderes jurídicos cuyo ejercicio impone a terceros deberes jurídicos, que no se contienen en el derecho fundamental a la intimidad, y que sirven a la capital función que desempeña este derecho fundamental: garantizar a la persona un poder de control sobre sus datos personales» [22].
Por intimidad personal y familiar debemos entender no solamente aquellas facetas más reservadas de la persona física, sino también aquellos datos económicos (y, por tanto, con relevancia tributaria) que revelen intimidad. Así ha sido interpretado por el Tribunal Constitucional, entre otras, en su sentencia de 26 de septiembre de 2005, cuando mantiene que «no hay duda de que los datos relativos a la situación económica de una persona entran dentro del ámbito de la intimidad constitucionalmente protegido», especialmente en aquellos supuestos en los que a través de su investigación o indagación puede penetrarse en la zona más estricta de la vida [23].
No obstante, debemos apuntar que en el caso de que la información objeto de tratamiento automatizado se refiera a personas jurídicas, éstas no resultan amparadas por el derecho a la protección de datos personales ni por el derecho a la intimidad por carecer de vida personal y familiar, aunque sí haya sido reconocido por el Tribunal Constitucional el derecho al honor de las personas jurídicas [24] o el derecho a la inviolabilidad del domicilio de las personas jurídicas con ciertos matices [25].
Como hemos señalado con anterioridad, la Administración tributaria se nutre de grandes cantidades de información personal, familiar y económica de los contribuyentes, lo que resulta necesario para garantizar la efectiva aplicación del sistema tributario. Es decir, puede intuirse que el derecho a la intimidad personal y familiar de los contribuyentes debe resultar necesariamente afectado para garantizar el adecuado ejercicio de las potestades de comprobación e investigación tributaria. Ahora bien, como señala Bueno Gallardo (2009: 639), «que no exista intimidad que no sea susceptible de afectación por el poder público no significa que cualquier poder público pueda entrometerse en cualesquiera ámbitos, datos o informaciones pertenecientes al ámbito de la intimidad constitucionalmente protegido».
Por ello, resulta indispensable poner el acento en que, para determinar si una actuación pública en concreto es conforme a las garantías del derecho a la intimidad personal y familiar, es necesario atender a las circunstancias y condiciones en las que se produce la afectación al citado derecho, es decir, la legitimidad de la intromisión en el aspecto material del derecho objeto de este análisis.
De este modo, debe tomarse igualmente en consideración que no nos encontramos ante un derecho absoluto, ya que lo contrario supondría un impedimento a la efectiva aplicación del sistema tributario y, por tanto, al deber de contribuir al sostenimiento de los gastos públicos recogido en el artículo 31.1 de la Constitución española. En esta línea, el Tribunal Constitucional ha venido interpretando que el derecho a la intimidad puede ceder ante intereses constitucionalmente relevantes, como los amparados por el citado deber de contribuir, «siempre que el recorte que aquél haya de experimentar se revele como necesario para lograr un fin constitucionalmente legítimo» [26].
Esta interpretación del Tribunal Constitucional se produce de conformidad con la jurisprudencia del Tribunal Europeo de Derechos Humanos sobre el alcance del artículo 8 del Convenio Europeo de Derechos Humanos, sobre la base del artículo 10.2 de la Constitución española. En el apartado 2º del mencionado artículo se determina que el derecho de toda persona al respeto a su vida privada y familiar podrá verse limitado cuando así esté previsto en la ley y constituya una medida que sea necesaria en una sociedad democrática para garantizar, entre otros, el bienestar económico del país y la prevención de infracciones penales.
Ambas excepciones han sido aceptadas por el Tribunal Europeo de Derechos Humanos como un objetivo legítimo a conseguir mediante una normativa que implique una restricción al derecho a la vida privada y familiar de una persona física. Para ello, se lleva a cabo por el Tribunal un análisis de las diferentes circunstancias recogidas en el artículo 8.2 del citado Convenio, apuntando que deben ser interpretadas en sentido estricto. Ejemplo de ello son tres sentencias dictadas el 25 de febrero de 1993, en las que, dentro del requisito de necesariedad en una sociedad democrática, se concluye que la interferencia producida en el derecho a la vida privada y familiar por una norma francesa que regula el registro domiciliario por parte de los inspectores de aduanas no se produce de forma estrictamente proporcional a los fines perseguidos y, además, tampoco se prevén las medidas oportunas para proporcionar protección frente a posibles abusos [27].
Ejemplo de la interpretación del requisito de proporcionalidad de la medida al fin que se persigue lo encontramos en la sentencia del Tribunal de Primera Instancia de La Haya sobre la herramienta SyRI. Dicho Tribunal concluye que la normativa reguladora de SyRI no cumple con el equilibrio que debe existir entre el interés general al que la legislación sirve y el respeto al derecho a la intimidad personal y familiar, concluyendo que la correspondiente interferencia no está suficientemente justificada. Ello es debido a que no se establece ninguna obligación de información a los sujetos cuyos datos están siendo objeto de tratamiento, no se proporciona información alguna acerca de los indicadores de riesgo, sobre el modelo de riesgo utilizado o respecto del método empleado para llevar a cabo el análisis de información.
Por todo lo expuesto, defendemos que el hecho de que la Administración tributaria elabore informes o perfiles de riesgo mediante algoritmos no debe considerarse contrario al derecho a la vida privada y familiar en todo caso. De este modo, para determinar si ese tratamiento de información en el seno de la relación jurídico-tributaria se produce de manera acorde al citado derecho será necesario comprobar que el tratamiento se realiza de manera proporcional y necesaria al fin que se persigue, tal y como se desprende de la jurisprudencia del Tribunal Constitucional y del Tribunal Europeo de Derechos Humanos analizada.
Para ello, evidentemente, es necesario que se proporcione información sobre el contenido y funcionamiento de los sistemas de inteligencia artificial empleados, en línea con lo establecido en la sentencia del Tribunal de Primera Instancia de La Haya de 5 de febrero de 2020. Como hemos expuesto anteriormente, con carácter general, en la actualidad el problema radica en la ausencia de información proporcionada a los contribuyentes sobre el tratamiento de sus datos mediante sistemas de inteligencia artificial y en la opacidad existente respecto del funcionamiento de dichos sistemas. Junto a ello, como analizaremos en el siguiente apartado, entendemos que esta situación puede afectar al principio de seguridad jurídica en su manifestación de interdicción de la arbitrariedad.
5. LA OPACIDAD DEL FUNCIONAMIENTO DE LOS SISTEMAS DE INTELIGENCIA ARTIFICIAL UTILIZADOS POR LA ADMINISTRACIÓN TRIBUTARIA Y SU INCIDENCIA EN LA GARANTÍA DEL PRINCIPIO DE SEGURIDAD JURÍDICA
El principio de seguridad jurídica, reconocido en el artículo 9.3 de la Constitución española, ha sido definido por el Tribunal Constitucional como «suma de certeza y legalidad, jerarquía y publicidad normativa, irretroactividad de lo no favorable, interdicción de la arbitrariedad, pero que, si se agotara en la adición de estos principios, no hubiera precisado de ser formulada expresamente». Para el máximo intérprete de la Constitución «la seguridad jurídica es la suma de estos principios, equilibrada de tal suerte que permita promover, en el orden jurídico, la justicia y la igualdad, en libertad» [28].
Tradicionalmente se han distinguido dos manifestaciones del principio de seguridad jurídica (García Novoa, 2000: 74-83). Por un lado, la “seguridad de orientación” que produce sus efectos en el ámbito de la elaboración normativa y se dirige como un mandato hacia el legislador. Por otro lado, la “seguridad de realización” que consiste en la garantía de que las disposiciones normativas van a ser interpretadas y aplicadas respetando lo previsto en las mismas, de acuerdo con un cierto grado de previsibilidad y que se configura como un mandato dirigido a la Administración y a los tribunales.
Siguiendo a dicho autor, es en esa manifestación de “seguridad de realización” en la que ocupa una posición esencial el principio de interdicción de la arbitrariedad. De este modo, en su sentido material, la interdicción de la arbitrariedad implica el rechazo a «aquellas situaciones que, sin infringir el orden jerárquico de las normas, menoscaban el derecho del ciudadano a un conocimiento lo más rápido posible y lo más acorde con sus racionales previsiones de la incidencia, que en su esfera particular pueda tener la aplicación de la norma jurídica». En este sentido, como explicaremos en las siguientes líneas, consideramos que la falta de transparencia existente en la actualidad sobre el uso de la inteligencia artificial por las Administraciones tributarias puede suponer una vulneración del principio de seguridad jurídica en su manifestación de interdicción de la arbitrariedad.
5.1. La interdicción de la arbitrariedad como fundamento para garantizar la publicidad parcial del funcionamiento de los mecanismos de inteligencia artificial utilizados por la Administración tributaria
En relación a la interdicción de la arbitrariedad y el uso de la inteligencia artificial por parte de la Administración tributaria se ha pronunciado Bilbao Estrada (2020: 139-140). Sobre este extremo, recuerda que por aplicación del citado principio «resulta vedada aquella actuación que sea contraria al ordenamiento jurídico con independencia del grado de la norma conculcada, así como toda aquella que carezca de fundamento objetivo», lo que considera que también puede suceder en aquellos supuestos en los que se desarrollan actuaciones administrativas automatizadas. A modo de ejemplo, señala la iniciación improcedente de procedimientos tributarios sobre la base de una actuación automatizada o la posibilidad de que el resultado de la aplicación de la tecnología resulte arbitrario por producirse lo que se conoce como falsos positivos y la necesidad de su posterior corrección por parte de la Administración.
A nuestro modo de ver, esta situación podría resolverse si al establecer el marco jurídico aplicable al uso de la inteligencia artificial por parte de las Administraciones tributarias se trasladan y se mantienen efectivos los derechos y garantías de los contribuyentes reconocidos en relación a la aplicación del sistema tributario mediante los métodos considerados tradicionales. Así lo señala Boix Palop (2020: 240), cuando explica que la antigua Ley 30/1992 [29] acertaba porque establecía ciertas cautelas y, además, recordaba la importancia de preservar las garantías tradicionales, independientemente de cual fuera el desarrollo tecnológico o la herramienta que se emplease.
Sin embargo, del análisis de diversas resoluciones dictadas en España, Francia, Holanda e Italia hemos podido comprobar que el empleo de herramientas de inteligencia artificial se caracteriza por la falta de transparencia en relación a su funcionamiento no sólo en nuestro ordenamiento jurídico, sino también en diferentes jurisdicciones de nuestro entorno. Esta ausencia de información entendemos que puede suponer una vulneración del principio de seguridad jurídica en su manifestación de interdicción de la arbitrariedad, como se deduce de la decisión del Consejo Constitucional francés y las sentencias del Consejo de Estado italiano analizadas en este trabajo.
Con el objetivo de solucionar esta problemática, Boix Palop (2020: 249) defiende que los algoritmos son en realidad reglamentos. De esta forma, considera que delimitar cuáles son las condiciones y elementos que determinan unas consecuencias que afectan a los derechos y deberes de los ciudadanos, sean éstas extraídas por medio de algoritmos o por medio de reglas y normas escritas que se aplican deductivamente, es materialmente lo mismo. Por tanto, concluye que es necesario aplicar a los algoritmos utilizados por las Administraciones Públicas el marco jurídico que delimita y limita el ejercicio de la potestad reglamentaria, entre ellas, la publicidad íntegra del código fuente (estructura básica de los correspondientes programas informáticos).
Sobre este particular, compartimos la postura manifestada por el Consejo de Transparencia y Buen Gobierno en su resolución de febrero de 2020, antes citada, respecto de los inconvenientes de promover una transparencia plena de los sistemas de inteligencia artificial empleados por las Administraciones tributarias. En nuestra opinión, resulta innegable que el objetivo de la introducción y utilización de sistemas de inteligencia artificial por parte de las Administraciones tributarias supone un paso adelante en la búsqueda de una mayor eficacia en la aplicación del sistema tributario en línea con lo establecido en el artículo 103.1 de la Constitución española.
No obstante, tal y como señala dicho precepto, el mencionado objetivo de eficacia administrativa debe perseguirse siempre «con pleno sometimiento a la ley y al Derecho». Por ello, defendemos que el uso de las nuevas tecnologías por parte de las Administraciones tributarias se realice de conformidad con las exigencias del principio de seguridad jurídica, con el firme propósito de conseguir el difícil y, a la vez necesario, equilibrio entre dicho principio y la tan ansiada eficacia administrativa. A tal efecto, defendemos la publicidad de ciertos caracteres básicos del contenido y funcionamiento de los mecanismos de inteligencia artificial usados por las Administraciones tributarias en el ejercicio de sus funciones.
En este sentido se pronuncia Capdeferro Villagrasa (2020: 10), cuando defiende que, aunque se acepte de manera generalizada que los algoritmos de la Administración son información pública accesible, siempre seguirán resultando de aplicación ciertas restricciones en algunos ámbitos o sectores, debido a que la plena transparencia algorítmica podría llevar a que los infractores adaptasen su comportamiento con el único objetivo de no ser detectados.
No obstante, y a pesar de los inconvenientes apuntados, reiteramos que la opacidad existente en relación al funcionamiento y contenido de los sistemas de inteligencia artificial utilizados por la Administración tributaria española puede constituir una vulneración del principio de seguridad jurídica en su manifestación de interdicción de la arbitrariedad. Por ejemplo, atendiendo a la jurisprudencia dictada en relación a la necesaria motivación del acto de iniciación del procedimiento inspector a la que nos referiremos más adelante, consideramos que esta falta de publicidad sobre determinados aspectos del funcionamiento de dichos sistemas podría ser considerada un defecto en la motivación del correspondiente acto que conllevase la invalidez del procedimiento cuando se pueda probar que el mismo se ha iniciado de forma arbitraria, de forma discriminatoria o al margen de la normativa, lo que entendemos que podría suceder cuando su inicio se produzca exclusivamente sobre la base de la calificación como contribuyente de alto riesgo por un sistema de inteligencia artificial del cual se desconozca su funcionamiento.
5.2. El Plan Anual de Control Tributario como ejemplo de publicidad para garantizar el control de la discrecionalidad administrativa en el acto de inicio del procedimiento inspector
A pesar de que según lo establecido en el artículo 6 de la Ley General Tributaria los actos de aplicación de los tributos tienen carácter reglado, la imposibilidad de controlar a todos y cada uno de los contribuyentes, derivada de lo que Aguallo Avilés (1994: 56-60) denominó “panfiscalización” de la relación jurídico-tributaria, conllevó la necesidad de que la Administración tributaria renunciase a la comprobación generalizada de todos los obligados tributarios y tuviera que empezar a seleccionar a los individuos que iban a ser objeto de un procedimiento inspección, lo que implicó la aparición de cierto grado de discrecionalidad.
Ya hemos hecho referencia anteriormente al carácter limitado de los medios materiales y humanos a disposición de las Administraciones tributarias para garantizar la efectiva aplicación del sistema tributario. Precisamente, la necesidad de seleccionar los obligados tributarios que van a ser sometidos a un procedimiento de comprobación e investigación tiene su justificación en la desproporción existente entre el número de sujetos a comprobar y la limitada capacidad operativa de la Administración. Surge, de este modo, la necesidad de planificar la actuación inspectora con el objetivo de emplear eficazmente los limitados medios que la Administración tributaria tiene a su disposición para garantizar la aplicación efectiva de un sistema tributario basado en los principios materiales de justicia tributaria, logrando así una mayor equidad fiscal.
Evidentemente, el principio de seguridad jurídica en su vertiente de interdicción de la arbitrariedad constituye un límite al carácter discrecional de la decisión de inspeccionar o no a un determinado contribuyente. De este modo, surge la necesidad de motivar dicha selección y, en este sentido, consideramos que la falta de transparencia sobre los mecanismos de inteligencia artificial utilizados por la Administración tributaria para determinar el riesgo fiscal de los contribuyentes puede suponer un paso atrás en los avances logrados en la década de los 90 en relación a la necesaria motivación del acto de inicio del procedimiento inspector y a la publicidad parcial del Plan Anual de Control Tributario como elemento que permite el control de las decisiones de la Administración tributaria en este ámbito.
Al objeto de fundamentar nuestra posición, resulta interesante hacer referencia a la jurisprudencia del Tribunal Supremo en relación a la necesaria motivación del acto de inicio del procedimiento inspector. Sobre este particular se ha pronunciado dicho Tribunal, entre otras, en su sentencia de 3 de abril de 2008 [30], en su sentencia de 1 de julio de 2010 [31] y en su sentencia de 21 de febrero de 2011 [32]. En todas ellas se concluye que, cuando la selección de los contribuyentes se realiza en aplicación de un Plan, la referencia del mismo sirve de motivación al acto de inicio del procedimiento. No obstante, se precisa que será necesaria una fundamentación adicional que permita al contribuyente conocer los motivos del inicio de la inspección cuando para la aplicación de los criterios del Plan resulte necesaria una labor de selección adicional con el objetivo de especificar la identificación del contribuyente a inspeccionar o cuando las citadas actuaciones se inicien sin sujeción a un concreto Plan.
Tal y como hemos expuesto anteriormente, la Constitución española recoge que la Administración debe actuar con pleno sometimiento a la ley y al Derecho. Junto a ello, el artículo 106.1 de nuestra Carta Magna determina que serán los Tribunales quienes controlarán la potestad reglamentaria y la legalidad de la actuación administrativa. A este respecto, como señaló Aguallo Avilés (1994: 124), resulta indiscutible que para poder controlar la programación de las actuaciones inspectoras es necesario que los contribuyentes puedan conocer suficientemente los criterios en los que se fundamente la misma y que ello se consigue con la publicación de dicha programación.
Siguiendo esta línea de garantizar el control de la legalidad de la actuación administrativa, defendemos que el régimen jurídico que regule la publicidad del contenido y funcionamiento de los sistemas de inteligencia artificial utilizados por la Administración tributaria española se debería inspirar en el marco normativo aplicable a la publicidad del Plan Anual de Control Tributario que, en su momento, constituyó una solución intermedia entre la publicidad plena y la opacidad de los citados planes.
El actual régimen jurídico sobre la publicidad del Plan Anual de Control Tributario tiene su origen en el artículo 26 de la Ley 1/1998, de 26 de febrero, de Derechos y Garantías de los Contribuyente. Debemos tener presente que, con anterioridad a la promulgación de dicha Ley, tanto el Plan Nacional de Inspección y sus Planes desagregados eran reservados y confidenciales y que sobre el alcance de este cambio en el régimen jurídico de los Planes de inspección se pronunció el Tribunal Supremo en diversas ocasiones.
A modo de ejemplo, en sus sentencias de 20 de octubre de 2000, de 28 de octubre de 2009 y de 23 de octubre de 2012, la Sala Tercera del Tribunal Supremo insiste en que, a pesar de que se proceda a la publicación de las directrices y criterios que integran el Plan de Control Tributario anual, los actos concretos de inclusión de los contribuyentes en los Planes sectoriales y desagregados de Inspección continúan siendo reservados y confidenciales. No obstante, defiende el citado Tribunal que esta publicidad parcial supondrá que los contribuyentes dispongan de nuevos elementos de juicio precisos «para apreciar cualquier causa o motivo que haya podido viciar la correspondiente decisión de incluirlos en el respectivo Plan de Inspección, alegación que podrán hacer cuando se inicien las actuaciones inspectoras» [33].
Con todo, no debe olvidarse que el citado Tribunal ha considerado justificada la limitación en la información proporcionada a los contribuyentes sobre las directrices y criterios que integran el Plan de Control Tributario anual en sus sentencias de 17 de febrero de 2001 y 27 de junio de 2013. En estas sentencias se considera lógico que, tal y como se establece actualmente en el artículo 170.7 del Real Decreto 1065/2007, los Planes de inspección continúen teniendo carácter reservado y no sean objeto de publicidad. Ello es así porque se estima que «lo contrario dejaría inerme a la Inspección de Hacienda, por cuanto, enterados los contribuyentes que van a ser objeto en el año de que se trate de actuaciones de comprobación e investigación, procederían inmediatamente a presentar las correspondientes declaraciones complementarias o las principales no presentadas, lo cual equivaldría a una permanente “amnistía” fiscal de las sanciones» [34].
En la actualidad, el artículo 116 de la Ley General Tributaria y el mencionado artículo 170.2 regulan el carácter reservado del Plan de control tributario y la publicidad de los criterios generales que informan el mismo. Junto a ello, el apartado 7º de dicho artículo determina que «los planes de inspección, los medios informáticos de tratamiento de información y los demás sistemas de selección de los obligados tributarios que vayan a ser objeto de actuaciones inspectoras tendrán carácter reservado, no serán objeto de publicidad o de comunicación ni se pondrán de manifiesto a los obligados tributarios ni a órganos ajenos a la aplicación de los tributos».
A nuestro parecer, en aquellos supuestos en los que el inicio de las actuaciones inspectoras se justifique sobre la base de la clasificación del contribuyente mediante un sistema de inteligencia artificial entendemos que resultaría posible que el contribuyente alegase la falta de motivación una vez dictada la liquidación y que solicitase la anulación del acto impugnado, teniendo en cuenta la ausencia total de información sobre el contenido y funcionamiento de dichos sistemas en la actualidad. De este modo, aunque el Tribunal Supremo ha negado que la omisión en el expediente de las circunstancias que motivaron el inicio del correspondiente procedimiento suponga la invalidez del mismo, ello no será así cuando se pueda probar que la selección de un determinado contribuyente se realizó de forma arbitraria, de forma discriminatoria o al margen de la normativa [35].
Sobre la base de todo lo expuesto, insistimos en defender que el régimen jurídico aplicable al empleo de sistemas de inteligencia artificial por parte de la Administración tributaria debe estar regido por los principios de transparencia y comprensibilidad reconocidos como requisitos indispensables en las Directrices éticas para una IA fiable del Grupo independiente de expertos de alto nivel sobre inteligencia artificial creado por la Comisión Europea.
Para ello, abogamos por la búsqueda de un necesario equilibro entre las exigencias del principio de seguridad jurídica en su vertiente de seguridad de realización y el principio de eficacia administrativa que garantiza la adecuada gestión de los limitados recursos materiales y humanos de que disponen las Administraciones tributarias para asegurar la efectiva aplicación del sistema tributario y, por ende, el cumplimiento del deber constitucional de todos de contribuir al sostenimiento de los gastos públicos.
Sin duda, la publicidad plena de los sistemas de inteligencia artificial utilizados por la Administración tributaria en el ejercicio de sus funciones puede suponer una merma de la eficacia de sus actuaciones. Por ejemplo, una publicidad excesiva sobre los distintos indicadores de riesgo que conforman un sistema de gestión de riesgo fiscal, que conlleve la clasificación de los contribuyentes en determinadas categorías, en función de su nivel de cumplimiento con las obligaciones tributarias basado en la adopción de un enfoque responsivo por parte de la Administración tributaria competente, podría suponer una oportunidad para que los contribuyentes modifiquen su comportamiento, de tal modo que se evite su encaje en alguno de los indicadores previstos.
Por todo lo expuesto, entendemos que la solución a adoptar debe encontrarse en un adecuado equilibrio entre la transparencia plena sobre el contenido y el funcionamiento de dichos sistemas de inteligencia artificial y su opacidad. En este sentido y como señaló Juan Lozano (1999: 13) respecto de la publicidad parcial de los Planes de Inspección y en línea con la Resolución del Consejo de Transparencia y Buen Gobierno analizada, resulta indudable que para asegurar la efectividad de las garantías de control de la actividad administrativa es importante tener en consideración el grado de concreción de la información publicada, siendo imprescindible lograr el equilibrio necesario entre la consecución de una aplicación más eficaz del sistema tributario y las exigencias de los principios constitucionales que ordenan el ordenamiento tributario español.
Ejemplo de ello es la política de gestión del riesgo fiscal desarrollada por la Her Majesty’s Revenue and Customs en Reino Unido, que consiste en un programa de evaluación del riesgo de incumplimiento de los contribuyentes cuyo resultado es la clasificación de las empresas en función del mayor o menor riesgo fiscal que presenten. La guía en la que se presentan los criterios que informan el proceso de evaluación del riesgo se encuentra disponible en la página web de la Administración tributaria de Reino Unido, debiendo indicarse que es objeto de continua actualización [36]. Sin embargo, debe tomarse en consideración que la clasificación de los contribuyentes en función de su riesgo de incumplimiento no es pública, aplicándose las normas generales sobre confidencialidad de los datos con trascendencia tributaria regulada en la Sección 18 del Commissioners for Revenue and Customs Act 2005.
Otro ejemplo que debemos traer a colación surge de la iniciativa The Next Generation Internet (NGI) fomentada por la Comisión Europea con el objetivo de potenciar el desarrollo y la evolución de internet hacia un internet de las personas. Esta iniciativa comprende un ambicioso proyecto de investigación e innovación financiado inicialmente por la Comisión Europea y forma parte del programa Horizonte Europa (2021-2027).
En el seno de esta iniciativa, a finales de septiembre de 2020 se celebró el NGI Policy Summit, donde se presentaron los registros abiertos de inteligencia artificial de Ámsterdam y Helsinki, convirtiéndose en las primeras ciudades del mundo en introducir una herramienta de estas características. El objetivo de dichos registros es proporcionar información a los ciudadanos en relación a los algoritmos empleados por las Administraciones Públicas, es decir, garantizar la transparencia en su utilización y conseguir generar confianza al respecto.
La información publicada en ambos registros está estructurada de la misma manera. Así, se puede acceder a información sobre los datos utilizados y el tratamiento otorgado a dichos datos. También se puede encontrar información sobre la incidencia de dichos sistemas en la garantía del principio de no discriminación, la asistencia y supervisión humana durante su empleo o los riesgos asociados al mismo y las medidas empleadas para evitar dichos riesgos.
A día de hoy, en el registro de inteligencia artificial de Ámsterdam se puede consultar información sobre el algoritmo utilizado para detectar el fraude en el alquiler vacacional de viviendas, el sistema empleado para controlar el aparcamiento de vehículos en el centro, la aplicación diseñada para informar sobre incidencias en la vía pública o la aplicación para controlar y mantener la distancia social de 1,5 metros a causa del COVID-19 [37]. Por su parte, en el registro de inteligencia artificial utilizado en Helsinki se puede consultar información respecto de diferentes chatbots sobre maternidad, sobre aparcamiento, en relación con información sobre centros de salud o sobre recomendaciones literarias de la librería central de Helsinki Oodi. Igualmente, se puede encontrar información sobre el sistema de gestión inteligente para asegurar la circulación libre de los materiales bibliográficos entre las diferentes librerías [38].
A modo de conclusión, somos partidarios de una solución que garantice una publicidad parcial de los sistemas de inteligencia artificial utilizados por la Administración tributaria en su labor de aplicación del sistema tributario. Para ello, entendemos que resulta indispensable regular la publicidad de determinados aspectos del contenido y funcionamiento de los sistemas de inteligencia artificial empleados que, sin afectar al adecuado desarrollo de las funciones encomendadas a la Administración tributaria, permitan que los contribuyentes afectados por una decisión algorítmica entiendan el porqué de dicha decisión, no siendo suficiente que faciliten el acceso a lo que se conoce como código fuente.
Esta solución, al igual que sucedió con el reconocimiento de la publicidad parcial de los Planes anuales de Control Tributario y en consonancia con las experiencias de Reino Unido, Ámsterdam y Helsinki, entendemos que permitirá reforzar la garantía del principio de seguridad jurídica en su manifestación de interdicción de la arbitrariedad en el ejercicio de potestades discrecionales de la Administración tributaria como el posible inicio de un procedimiento de comprobación e investigación sobre la base de la identificación de un determinado riesgo fiscal por un algoritmo.
Junto a ello, entendemos que la publicidad de los criterios generales que informan los sistemas de inteligencia artificial utilizados por las Administraciones tributarias puede producir un efecto disuasorio del incumplimiento de las obligaciones tributarias, pudiendo llegar incluso a fomentar la regularización espontánea de los contribuyentes previamente incumplidores ante la previsión de inicio de un procedimiento de comprobación e investigación.
BIBLIOGRAFÍA
Agencia Española de Protección de Datos (2020): Adecuación al RGPD de tratamientos que incorporan Inteligencia Artificial. Una introducción [acceso en: https://www.aepd.es/sites/default/files/2020-02/adecuacion-rgpd-ia.pdf].
Aguallo Avilés, Á (1994): El contribuyente frente a los Planes de Inspección, Marcial Pons, Madrid.
Ayres, I; Braithwaite, J (1992): Responsive regulation, Oxford University Press, Inc. New York.
Bal, A. (2019): “Ruled by algorithms: the use of «black box» models in tax law”, en Tax Notes, Vol. 95, n.º 12: 1159-1165.
Baumann-Larsen, S.; Giannelli, A. (2020): “The latest generation of tax functions and the role of technology”, en Bulletin for International Taxation, October: 562-571.
Bilbao Estrada, I. (2020): “Disrupción tecnológica y administración tributaria: deber de contribuir, lucha contra el fraude, y derechos y garantías del contribuyente”, en A. Antón Antón; I. Bilbao Estrada (dir.), Retos y oportunidades de la Administración Tributaria en la era digital , Thomson Reuters Aranzadi, Navarra: 113-156.
Boix Palop, A. (2020): “Los algoritmos son reglamentos: la necesidad de extender las garantías propias de las normas reglamentarias a los programas empleados por la Administración para la adopción de decisiones”, en Revista de Derecho Público: Teoría y Método, Vol. 1: 223-270.
Borja Tomé, F. (2020): “El uso de la Inteligencia artificial y el análisis de información en la Agencia Tributaria”, en F. Serrano Antón (coord.), Fiscalidad e Inteligencia artificial: Administración tributaria y contribuyentes en la era digital , Thomson Reuters Aranzadi, Navarra: 203-220.
Braithwaite, V. (2002): Taxing democracy, Ashgate Publishing, Ldt. Aldershot.
Brkan, M. (2019): “Do Algorithms Rule the World? Algorithmic Decision-Making in the Framework of the GDPR and Beyond (August 1, 2017)”,A revised version of this paper has been published in International Journal of Law and Information Technology, 11 January 2019, DOI; 10.1093/ijlit/eay017 [disponible en SSRN: https://ssrn.com/abstract=3124901 or http://dx.doi.org/10.2139/ssrn.3124901].
Bueno Gallardo, E. (2009): La configuración constitucional del derecho a la intimidad. En particular el derecho a la intimidad de los obligados tributarios , Centro de Estudios Políticos y Constitucionales, Madrid.
Calderón Carrero, J. M. (2020): “El encuadramiento legal y límites del uso de herramientas de inteligencia artificial con fines de control fiscal”, en Revista de Contabilidad y Tributación, CEF, n.º 444: 119-128.
Calvo Vérgez, J. (2019): “La inclusión de los contribuyentes en los planes de inspección y el necesario respeto al principio de seguridad jurídica: algunas consideraciones”, en J. Martín López; B. Pérez Bernabeu, Seguridad jurídica y Derecho Tributario: presente y futuro, Thomson Reuters, Aranzadi, Navarra: 75-90.
Capdeferro Villagrasa, O. (2020): “La inteligencia artificial del sector público: desarrollo y regulación de la actuación administrativa inteligente en la cuarta revolución industrial”, en Revista de Internet, Derecho y Política, n.º 30: 1-14.
Carloni (2020): “IA, algoritmos y Administración pública en Italia”, en Revista de internet, derecho y política, n.º 30: 1-12.
CIAT (2020): Las TIC como herramienta estratégica para potenciar la eficiencia de las Administraciones tributarias , Centro Interamericano de Administraciones Tributarias – CIAT, Panamá.
Comisión Europea (2018): Anexo de la Comunicación de la Comisión al Parlamento Europeo, al Consejo Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones – Plan coordinado sobre la inteligencia artificial [acceso en: https://eur-lex.europa.eu/legal-content/ES/ALL/?uri=COM:2018:795:FIN].
Comisión Europea (2020): Libro blanco sobre la inteligencia artificial – Un enfoque europeo orientado a la excelencia y la confianza [acceso en: https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_es.pdf].
De La Sierra Morón, S. (2020): “Inteligencia artificial y justicia administrativa: una aproximación desde la teoría del control de la Administración pública”, en Revista General de Derecho Administrativo, n.º 53: 1-19.
Dorigo, S. (2019): “Intelligenza artificiale e norme antiabuso: il ruolo dei sistemi «intelligenti» tra funzione amministrativa e attività giurisdizionale”, en Rassegna Tributaria, n.º 4: 728-751.
Freedman, J. (2012): “Responsive regulation, Risk and Rules: Applying the Theory to Tax Practice”, en Univeristy of Oxford, Legal Research Paper Series, n.º 13.
García-Herrera Blanco, C. (2020): “El uso del big data y la inteligencia artificial por las Administraciones tributarias en la lucha contra el fraude fiscal. Particular referencia a los principios que han de regirla y a los derechos de los contribuyentes”, en F. Serrano Antón (coord.), Fiscalidad e Inteligencia artificial: Administración tributaria y contribuyentes en la era digital , Thomson Reuters Aranzadi, Navarra: 297-317.
García Berro, F. (2004): “La inspección tributaria en la nueva LGT”, en Revista Quincena fiscal, n.º 21-22: 51-64.
García Novoa, C. (2000): El principio de seguridad jurídica en materia tributaria, Marcial Pons, Madrid.
González de Frutos, U. (2020): “Inteligencia Artificial y Administración tributaria”, en F. Serrano Antón (coord.), Fiscalidad e Inteligencia artificial: Administración tributaria y contribuyentes en la era digital , Thomson Reuters Aranzadi, Navarra: 135-166.
Grupo de Trabajo Artículo 29 (2004): Dictamen 4/2007 sobre el concepto de datos personales [acceso en: https://ec.europa.eu/justice/article-29/documentation/opinion-recommendation/files/2007/wp136_es.pdf].
Grupo de Trabajo Artículo 29 (2017): Directrices sobre decisiones individuales automatiza das y elaboración de perfiles a los efectos del Reglamento 2016/679 [acceso en: https://www.aepd.es/sites/default/files/2019-12/wp251rev01-es.pdf].
Grupo de Trabajo Artículo 29 (2018): Directrices sobre el consentimiento en el sentido del Reglamento (UE) 2016/679 [acceso en: https://ec.europa.eu/newsroom/article29/item-detail.cfm?item_id=623051].
Grupo Independiente de Expertos del Alto Nivel sobre Inteligencia Artificial (2019): Directrices éticas para una IA fiable [acceso en: https://op.europa.eu/es/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1].
Grupo Independiente de Expertos del Alto Nivel Sobre Inteligencia Artificial (2019): A definition of AI: main capabilities and disciplines [acceso en: https://ec.europa.eu/digital-single-market/en/news/definition-artificial-intelligence-main-capabilities-and-scientific-disciplines].
Juan Lozano, A. M.; Magraner, F. J. (1999): “El problema de los Planes de Inspección. (Algunas consideraciones sobre las Directrices generales del Plan General de Control Tributario de 1999)”, en Quincena Fiscal, n.º 1: 9-19.
OECD (2013): Co-operative Compliance : A Framework: From enhanced Relationship to Co-operative Compliance, OECD Publishing, París [https://dx.doi.org/10.1787/9789264200852-en].
OECD (2016): Co-operative tax compliance. Building better tax control frameworks, OECD Publishing, París [https://read.oecd-ilibrary.org/taxation/co-operative-tax-compliance_9789264253384-en].
OECD (2019): Tax Administration 2019: Comparative information on OECD and other Advandec and Emerging Economies, OECD Publishing, Paris [https://doi.org/1031787/74d162b6-en].
Olivares Olivares, B. D. (2020): “Transparencia y aplicaciones informáticas en la Administración tributaria”, en Crónica Tributaria, n.º 174: 89-111.
Rebollo Delgado, L. (2004): Derechos fundamentales y protección de datos, Dykinson, Madrid.
Ribes Ribes, A. (2020): “La inteligencia artificial al servicio delcompliance tributario”, en Civitas . Revista Española de Derecho Financiero y Tributario, n.º 188: 225-270.
Sánchez de Castro Martín-Luengo, E. (2020). “Intercambio de información previas solicitud bajo la Directiva 2011/16/UE y protección de datos: Alguna casuística sobre la identidad de la persona bajo investigación e información con pertinencia previsible”, en Nueva Fiscalidad. Monográfico. Derechos Fundamentales y Tributación : 255-283.
Sánchez Morón, M. (2018): “Artículo 103”. En J. M. Rodríguez-Piñero; M. Bravo Ferrer, M. E. Casas Baamonde (dir.), C omentarios a la Constitución Española, Tomo II, Fundación Wolters Kluwer, Boletín Oficial del Estado, Tribunal Constitucional y Ministerio de Justicia, Madrid: 452-471.
Wood, C.; Ivec, M.; Job, J.; Braithwaite, V. (2010): “Applications of responsive regulatory theory in Australia and overseas”, en Australian National University: Occasional Paper, n.º 15: 3-46.
Zackrisson, M.; Bakker, A.; Hagelin, J. (2020): “AI and Tax Administrations: a good match”, en Bulletin for International Taxation, October: 619-625.
[1] El modelo de cumplimiento de la Australian Taxation Office puede consultarse en el siguiente enlace: https://www.ato.gov.au/about-ato/managing-the-tax-and-super-system/strategic-direction/how-we-help-and-influence-taxpayers/Compliance-model/ [consulta 14 de diciembre de 2020].
Asimismo, debe indicarse que dicho modelo de cumplimiento tiene su origen en el trabajo desarrollado por Ian Ayres y John Braithwaite. Véase Ayres, I.; Braithwaite, J. (1992: 4-7).
[2] Información extraída de la resolución del Consejo de Transparencia y Buen Gobierno de 13 de febrero de 2020. También puede consultarse González de Frutos (2020: 146-147) y Ribes Ribes (2020: 132-139).
[3] En el siguiente enlace se puede visualizar el citado webinar:
https://www.youtube.com/watch?v=mP5vmb0yvfI&t=31s [consulta 14 de diciembre de 2020].
[4] El texto íntegro de la decisión puede consultarse en el siguiente enlace: https://www.conseil-constitutionnel.fr/decision/2019/2019796DC.htm [consulta 14 de diciembre de 2020].
[5] En el siguiente enlace se puede acceder a los comentarios del Consejo Constitucional francés a la Décision n.º 2019-796 DC: https://www.conseil-constitutionnel.fr/sites/default/files/as/root/bank_mm/decisions/2019796dc/2019796dc_ccc.pdf [consulta 14 de diciembre de 2020].
[6] El texto completo de la Décision n° 2003-467 DC está disponible en: https://www.conseil- constitutionnel.fr/decision/2003/2003467DC.htm [consulta 14 de diciembre de 2020].
[7] Del mismo modo, el texto completo de la Décision n.° 2018-765 DC puede encontrarse en: https://www.conseil-constitutionnel.fr/en/decision/2018/2018765DC.htm [consulta 14 de diciembre de 2020].
[8]
La sentencia de 8 de abril puede consultarse en el siguiente
enlace: https://www.
giustizia-amministrativa.it/portale/pages/istituzionale/visualizza/?nodeRef=&schema=
cds&nrg=201704477&nomeFile=201902270_11.html&subDir=Provvedimenti
[consulta 14 de diciembre de 2020].
[9] Del mismo modo, el texto completo de la sentencia de 13 de diciembre puede consultarse en esta dirección web: https://www.giustizia-amministrativa.it/portale/pages/istituzionale/visualizza/?nodeRef=&schema=cds&nrg=201902936&nomeFile=201908472_11.html&subDir=Provvedimenti [consulta 14 de diciembre de 2020].
[10] El texto íntegro de la sentencia del Tribunal de Primera Instancia de La Haya de 5 de febrero de 2020 puede consultarse en el siguiente enlace: https://uitspraken.rechtspraak.nl/inziendocument?id=ECLI:NL:RBDHA:2020:865 [consulta 14 de diciembre de 2020].
[11] Véase la Sentencia del Tribunal Europeo de Derechos Humanos de 4 de diciembre de 2008, Asunto S. and Marper contra Reino Unido (Apartado 103).
[12] El texto completo de la Resolución del Consejo de Transparencia y Buen Gobierno de 13 de febrero de 2020 puede encontrarse en el siguiente enlace: https://www.consejodetransparencia.es/ct_Home/dam/jcr:41c81ad6-9bce-4ac3-bd57-2185e0468458/R-0825-2019.pdf [consulta 14 de diciembre de 2020].
[13] Una breve referencia al contenido y funciones de dichas aplicaciones puede consultarse en la Resolución n.º 825/2019 del Consejo de Transparencia y Buen Gobierno. Disponible en: https://www.consejodetransparencia.es/ct_Home/dam/jcr:41c81ad6-9bce-4ac3-bd57-2185e0468458/R-0825-2019.pdf [consulta 14 de diciembre de 2020]. A este respecto también se puede consultar CIAT (2020: 153-169).
[14] Real Decreto 1065/2007, de 27 de julio, por el que se aprueba el Reglamento General de las actuaciones y los procedimientos de gestión e inspección tributaria y de desarrollo de las normas comunes de los procedimientos de aplicación de los tributos.
[15] Entre ellas, se cita la sentencia n.º 60/2016, de 18 de mayo de 2016; la sentencia n.º 85/3026, de 14 de junio de 2016; la sentencia n.º 46/2017, de 22 de junio de 2017; o la sentencia n.º 98/2017, de 22 de junio de 2017.
[16] Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales.
[17] Sentencia del Tribunal Supremo de 25 de junio de 2003 (n.º 6481/2003, FJ 4º).
[18] Sentencia del Tribunal Supremo de 24 de noviembre de 2014 (n.º 5178/2014, FJ 2º).
[19] Sentencia del Tribunal Supremo de 20 de septiembre de 2018 (n.º 3221/2018, FJ 3º).
[20] Ejemplo de ello son la Sentencia del Tribunal de Justicia de la Unión Europea de 9 de noviembre de 2010, Asunto C-92/09 y C-93/09, apartados 50 y 51; la Sentencia del Tribunal de Justicia de la Unión Europea de 24 de septiembre de 2019, Asunto C-507/17, apartado 60; y la Sentencia del Tribunal de Justicia de la Unión Europea de 24 de septiembre de 2010, Asunto C-136/17, apartados 57 y 58.
[21] Véase la Sentencia del Tribunal de Justicia de la Unión Europea de 7 de mayo de 2009 (C-553/07), la Sentencia de 8 de abril de 2014 (C-293/12 y C-594/12), la Sentencia de 13 de mayo de 2014 (C-131/12) y la Sentencia de 6 de octubre de 2015 (C-362/14).
[22] Sentencia del Tribunal Constitucional de 20 de noviembre de 2000 (n.º 292/200, FJ 6º).
[23] Sentencia del Tribunal Constitucional de 26 de septiembre de 2005 (n.º 233/2005, FJ 4º). En idéntico sentido se pronunció en su sentencia de 13 de diciembre de 1999 (n.º 233/1999, FJ 7º) o en su sentencia de 15 de febrero de 2001 (n.º 47/2001, FJ 8º).
[24] Sentencia del Tribunal Constitucional n.º 139/1995, de 26 de septiembre (FJ 5º) y sentencia del Tribunal Constitucional n.º 79/2014, de 28 de mayo (FJ 3º).
[25] Sentencia del Tribunal Constitucional n.º 69/1999, de26 de abril (FJ 2º) y sentencia del Tribunal Constitucional n.º 54/2015, de 16 de marzo (FJ 5º).
[26] Véase a este respecto la sentencia del Tribunal Constitucional de 10 de abril de 2000 (n.º 98/2000, FJ 5º); la sentencia del Tribunal Constitucional de 14 de febrero de 2005 (n.º 25/2005, FJ 6º); o la sentencia del Tribunal Constitucional de 27 de marzo de 2006 (n.º 89/2006, FJ 3º).
[27] Sentencia del Tribunal Europeo de Derechos Humanos de 25 de febrero de 1993, Asunto Funke v. France (apartados 47 a 59); Sentencia del Tribunal Europeo de Derechos Humanos de 25 de febrero de 1993, Asunto Cremieux v. France (apartados 28 a 41); y Sentencia del Tribunal Europeo de Derechos Humanos de 25 de febrero de 1993, Asunto Miailhe v. France (apartados 25 a 40).
[28] Sentencia del Tribunal Constitucional n.º 27/1981, de 20 de julio (FJ 10ª), Sentencia del Tribunal Constitucional n.º 99/1987, de 11 de junio (FJ 6º), Sentencia del Tribunal Constitucional n.º 150/1990, de 4 de octubre (FJ 8º), Sentencia del Tribunal Constitucional n.º 173/1996, de 31 de octubre (FJ 3º) o Sentencia del Tribunal Constitucional n.º 182/1997 (FJ 3º).
[29] Ley 30/1992, de 26 de noviembre, de Régimen Jurídico de las Administraciones Públicas y del Procedimiento Administrativo Común.
[30] Sentencia de la Sala Tercera del Tribunal Supremo de 3 de abril de 2008 (n.º 1659/2008, FJ 4º).
[31] Sentencia de la Sala Tercera del Tribunal Supremo de 1 de julio de 2010 (n.º 3777/2010, FJ 2º).
[32] Sentencia de la Sala Tercera del Tribunal Supremo de 21 de febrero de 2011 (n.º 1168/2011, FJ 3º).
[33] Sentencia del Tribunal Supremo de 14 de diciembre de 2000 (n.º 7571/2000, FJ 4º), Sentencia del Tribunal Supremo de 28 de octubre de 2009 (n.º 8018/2009, FJ 6º) y Sentencia del Tribunal Supremo de 23 de octubre de 2012 (n.º 6870/2012, FJ 3º).
[34] Sentencia del Tribunal Supremo de 17 de febrero de 2001 (n.º 1094/2001, FJ 2º) y Sentencia del Tribunal Supremo de 27 de junio de 2013 (n.º 3542/2013, FJ 1º).
[35] Véase a este respecto la sentencia del Tribunal Supremo de 4 de mayo de 2011 (n.º 2728/2011, FJ 3º), la sentencia de 4 de mayo de 2011 (n.º 2819/2011, FJ 2º) y la sentencia de 12 de febrero de 2013 (n.º 584/2013, FJ 1º).
[36] El contenido del documento Tax Compliance Risk Management puede consultarse en el siguiente enlace: https://www.gov.uk/hmrc-internal-manuals/tax-compliance-risk-management [consulta 14 de diciembre de 2020].
[37] Toda la información sobre el registro de algoritmos de Ámsterdam puede consultarse en esta dirección web: https://algoritmeregister.amsterdam.nl/en/ai-register/ [consulta 14 de diciembre de 2020].
[38] Igualmente, respecto del registro de algoritmos de Helsinki: https://ai.hel.fi/en/ai-register/ [consulta 14 de diciembre de 2020].