Regular la inteligencia artificial (en Derecho administrativo)

Alejandro Huergo Lora

Publicado: 8 marzo, 2021 en: Blog; Investigación emergente.

Inteligencia artificial, digitalización y automatización son etiquetas diferentes, aunque frecuentemente se confunden. A grandes rasgos, la digitalización supone la utilización de tecnologías de la información y las comunicaciones (TIC) para los procesos administrativos, sustituyendo al papel. Afecta, en primer lugar, a la comunicación entre la Administración y otros sujetos, pero también al archivo de los procedimientos. Provoca que quede un registro de toda la actuación administrativa en forma de datos estructurados que son la base para la posterior aplicación de inteligencia artificial. Anteriormente, ese registro quedaba en papel y no estaba estructurado, por lo que cualquier trabajo estadístico requería un esfuerzo adicional.

La automatización va más allá de la digitalización y sustituye al operador humano. Es un paso mucho menos frecuente, que de momento se limita, por razones comprensibles, a actos completamente reglados, que la Administración está obligada a dictar cuando se cumplan una serie de requisitos, y también, muy recientemente, a de iniciación de procedimientos sancionadores (Real Decreto-ley 2/2021, de 26 de enero, que modifica el texto refundido de la Ley General de la Seguridad Social, aprobado por el Real Decreto Legislativo 8/2015, de 30 de octubre y texto refundido de la Ley sobre Infracciones y Sanciones en el Orden Social, aprobado por Real Decreto Legislativo 5/2000, de 4 de agosto). La actuación administrativa automatizada requiere una previsión normativa previa, de conformidad con el artículo 41 de la Ley 40/2015, de 1 de octubre, de Régimen Jurídico del Sector Público. No podría ser de otro modo, porque las Leyes atribuyen la potestad para dictar los distintos actos administrativos a órganos administrativos, cuyos titulares son personas físicas.

La inteligencia artificial suele entenderse, en este contexto, en el sentido de que las TIC llevan a cabo tareas que antes requerían la intervención humana, incluida la elaboración de todo o parte del contenido de una decisión administrativa. Normalmente se habla de inteligencia artificial cuando, a partir del análisis algorítmico de gran cantidad de datos, se puede ir más allá de la aplicación de las reglas que el programador ha fijado, y el programa crea nuevas reglas a partir de las correlaciones que descubre en los datos que se le suministran. Por ejemplo, los programas que, a partir del análisis de las infracciones detectadas en el pasado en un sector, predicen dónde es más probable que se estén produciendo infracciones, para que la Administración concentre allí el esfuerzo inspector.

La digitalización es condición necesaria de la automatización y la inteligencia artificial, pero no es condición suficiente. La “Administración electrónica”, tal como se regula en las Leyes 39/2015, de 1 de octubre, de Procedimiento Administrativo Común de las Administraciones Públicas y 40/2015, suele quedarse en digitalización. Por otro lado, automatización e inteligencia artificial son independientes entre sí: puede haber automatización sin inteligencia artificial (programas que realizan liquidaciones tributarias o que notifican denuncias por infracciones de tráfico detectadas con radar) e inteligencia artificial sin automatización (predicciones que sirven para que un inspector decida dónde acudir a inspeccionar, o que sirven para motivar la clasificación de un espacio como suelo no urbanizable debido a un riesgo de inundaciones establecido con un algoritmo).

Es obvio que el Derecho tiene que reaccionar ante la inteligencia artificial porque cambia algunos de sus presupuestos básicos, pero no es tan evidente cómo debe hacerlo.

La Administración y la jurisdicción, ahora o en el futuro próximo, tendrán diferentes relaciones con la inteligencia artificial: utilizarla en sistemas que faciliten sus procedimientos y la elaboración de sus decisiones (así como también el análisis de eficacia y eficiencia sobre las políticas públicas y las normas jurídicas), controlar su uso por la Administración (jurisdicción contencioso-administrativa) o por el sector privado (jurisdicción civil, autoridades de protección de datos), contratarla a través de distintas figuras de la legislación de contratos públicos (y con la importante discusión acerca del grado de transparencia que se exige a los productos que vaya a utilizar la Administración, que influye sobre los modelos de negocio) y padecerla, en la medida en que se utilizará la IA para tratar de predecir el comportamiento de Administraciones y órganos judiciales y adelantarse a él, produciendo posibles distorsiones que obligarán a reformular los criterios o programas normativos de actuación administrativa o judicial.

A veces parece que los riesgos y los problemas sólo surgen cuando se sustituye al operador humano por una aplicación informática, y que la solución consiste en rechazar la sustitución y exigir la presencia humana. Pero la historia demuestra que la garantía para los ciudadanos nunca ha estado en la intervención de un humano, sino en el establecimiento de reglas que le vinculen. El Derecho ha servido siempre para controlar la actuación de los humanos, precisamente porque esa actuación humana es peligrosa. Lo más relevante no es quién actúe. Lo importante es cómo actúe y, sobre todo, que se pueda controlar esa actuación y garantizar que respete el programa normativo previamente establecido.

Tampoco podemos exigir a un algoritmo lo que no le pedimos a un humano. Por ejemplo, las decisiones de iniciación de procedimientos sancionadores, o, más aún, la decisión de inspeccionar (que para muchos ni siquiera supone iniciar un procedimiento administrativo), están sometidas a un control jurídico mínimo. El inicio de un procedimiento es un acto de trámite no recurrible, que puede basarse en causas muy variadas (empezando por la “propia iniciativa” del titular del órgano) y que, de hecho, no requiere ninguna justificación. De hecho, los tribunales relativizan el peso de los instrumentos que pretenden racionalizarlas (planes de inspección). No parece correcto que sólo se vean riesgos en ese tipo de decisiones cuando se utilizan algoritmos para intentar objetivarlas. El algoritmo puede tener sesgos (no por el propio algoritmo, sino por su programación o por los datos que se le suministran), pero al menos esos sesgos dejan huellas, mientras que los sesgos de los operadores humanos que deciden dónde inspeccionar o en qué casos iniciar un procedimiento, que también existen y son casi inevitables, no son tan fácilmente detectables o demostrables.

Como ya he explicado por extenso en otro lugar, el esquema básico para analizar jurídicamente el uso de la inteligencia artificial ha de ser detectar la función que cumple un determinado algoritmo o aplicación en el proceso de creación y aplicación del Derecho. Ese análisis sería similar a la “naturaleza jurídica” o a la calificación jurídica. Y en ese sentido (y dejando a un lado la aplicación ineludible de la normativa de protección de datos, en la que no puedo detenerme por falta de espacio), pueden avanzarse tres situaciones básicas:

  • Algoritmos que traducen un régimen jurídico para facilitar la toma de decisiones por la Administración. Por ejemplo, programas que ayudan a liquidar un tributo, a calcular la subvención que le corresponde a una empresa en un determinado régimen de ayudas, la pensión de jubilación o la carga docente que tiene que asumir un profesor. Facilitan la actuación administrativa (ahorro de horas de trabajo humano, reducción de errores) pero no influyen en su contenido. Son programas que equivalen a una fórmula que traduce el contenido de la norma o de las bases que ha de aplicar la Administración (de hecho, algunas normas jurídicas o bases de licitaciones o de procedimientos selectivos ya describen su supuesto de hecho con una fórmula matemática). Lo más importante es que se puede (a efectos del control de lo que ha hecho la Administración) aplicar la norma “a mano”, sin el algoritmo, y comprobar si la aplicación algorítmica es correcta o no. El algoritmo no cambia el marco jurídico ni contribuye por sí mismo a determinar el contenido de la actuación administrativa, sino que es neutro. Si como consecuencia de un error en su configuración o aplicación, no lo es, el resultado será contrario a Derecho y será relativamente fácil detectarlo.
  • Algoritmos que, como los anteriores, sirven para mecanizar o automatizar procesos reglados, sin cambiar su marco normativo, pero en los que el proceso es tan complejo que no se puede replicar sin el algoritmo, por lo que, en el momento de controlar la actuación administrativa, no se puede prescindir de él y es necesario verificar cómo ha funcionado. Es el caso de procesos complejos de asignación de recursos escasos (por ejemplo, concursos de traslados con un alto número de funcionarios, como ocurrió en Italia, o la asignación de plazas MIR, que fue suspendida cautelarmente en 2020 por la Sala de lo Contencioso-Administrativo del Tribunal Supremo), en los que los resultados individuales están interconectados. El control jurídico de estas decisiones tomadas con ayuda de algoritmos no puede consistir en aplicar la norma “con lápiz y papel” para ver si coincide con la actuación realizada con ayuda algorítmica, sino que es necesario revisar el funcionamiento del algoritmo, lo que exigirá conocer todos los factores que contribuyen a determinar su resultado.
  • Algoritmos de tipo predictivo, que contribuyen a orientar en una determinada dirección la actuación administrativa y que, a diferencia de los anteriores, aportan elementos decisionales propios. Esto sería inteligencia artificial en sentido estricto. Normalmente, su efecto es equiparable al de un baremo, que es una de las formas típicas de dirigir la acción administrativa, pero con la peculiaridad de que en este caso el baremo no lo fija una norma o una decisión administrativa de tipo no normativo (como un pliego de cláusulas administrativas particulares o las bases de un concurso), sino que lo determina el propio algoritmo a partir del análisis de casos precedentes. El algoritmo intenta conseguir un objetivo fijado por la norma (identificar a los estudiantes que se encuentren en riesgo de fracaso escolar, por ejemplo) y para ello crea una especie de retrato robot a partir del análisis de los datos de años anteriores. Las características concretas de ese retrato robot no las ha dibujado nadie, sino que las produce el modelo algorítmico. A día de hoy, ese tipo de modelos se aplican (sin habilitación normativa) como apoyo a decisiones de iniciación de procedimientos o, en un escalón inferior de formalización jurídica, para orientar el uso de los recursos públicos de bienestar o de inspección (por ejemplo, para identificar a personas a las que puede ser necesario seguir porque pueden estar en una situación de riesgo no detectada). En la medida en que, en ausencia de algoritmo, esas decisiones carecerían, en la práctica, de control jurídico (no son actos administrativos discrecionales, sino actuaciones informales o actos de trámite), el peligro que se asume con la utilización de modelos algorítmicos es limitado, y también lo es la necesidad de regulación.

Una regulación es necesaria (y ya se está intentando a nivel europeo), y debería partir de las diferentes funciones jurídicas que puede desempeñar la inteligencia artificial.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *