La Cátedra SOLTEL de IA y Derecho Público se estrena con un rotundo éxito de convocatoria y un pleno institucional en Madrid

Resumen y aprendizajes de la jornada del 5 de marzo en RED.ES (Madrid) sobre el impacto de la IA en el sector público: garantías, responsabilidad, trazabilidad y control humano.

Con un aforo completo y una representación institucional sin precedentes, la Cátedra SOLTEL de IA y Derecho Público ha inaugurado su actividad en la sede de Red.es. El encuentro ha logrado reunir a las principales Abogacías Generales de las Comunidades Autónomas, organismos estatales y la academia, consolidando a la Cátedra como el espacio de referencia para la gobernanza algorítmica en España.

Ayer 5 de marzo de 2026, en Madrid, se celebró la jornada “Derecho, Inteligencia Artificial y Asesoría Jurídica de las Comunidades Autónomas”, un encuentro con enfoque práctico sobre cómo la IA está transformando la actividad jurídica y administrativa en el sector público. Desde la Cátedra IA y Derecho Público, el objetivo fue situar el debate más allá de lo puramente tecnológico: cómo desplegar IA con garantías, cómo atribuir responsabilidades cuando se producen fallos y qué significa, en la práctica, una supervisión humana efectiva.

De herramienta a “infraestructura de poder”: por qué importan los derechos digitales

Uno de los ejes centrales de la jornada fue recordar que la IA ya no es solo una herramienta: funciona como una infraestructura capaz de condicionar decisiones y el acceso a oportunidades (información, crédito, diagnósticos, empleo o contenidos que influyen en la opinión pública). En ese contexto, los derechos digitales se plantearon como una respuesta democrática: la cuestión no es únicamente “qué puede hacer la IA”, sino cómo se protegen los derechos fundamentales cuando intervienen sistemas algorítmicos.

Este marco se conecta con el impulso regulatorio europeo y con la necesidad de reforzar, también a nivel nacional, un modelo de gobernanza pública de la IA con supervisión, control y rendición de cuentas.

Procedimiento administrativo y control humano: la garantía no se automatiza

Desde la perspectiva del Derecho Público, se insistió en una idea clave: el procedimiento administrativo es una garantía. Por eso, la introducción de IA en trámites y decisiones exige cautelas que no son opcionales: prevención de sesgos, evaluaciones de impacto, transparencia, protección de datos y, sobre todo, supervisión humana real.

Se subrayaron dos exigencias jurídicas especialmente relevantes:

  • Imputación: la decisión debe seguir siendo atribuible al órgano competente, aunque se apoye en IA.
  • Motivación: la resolución ha de explicarse con criterios y normas aplicables, y con la información necesaria sobre la tecnología empleada y su aplicación al caso, para que sea revisable y controlable.

La conclusión práctica fue clara: la IA puede aportar eficiencia, pero el marco garantista del procedimiento no puede diluirse.

Responsabilidad patrimonial e IA (con foco sanitario): la tecnología no exime de responsabilidad

En el bloque dedicado a responsabilidad, se enfatizó que la IA no puede convertirse en una “excusa tecnológica” para eludir la responsabilidad pública. En el Derecho español, la IA no tiene personalidad jurídica y, cuando se integra en servicios públicos, la lógica de la responsabilidad administrativa se mantiene: el ciudadano debe poder reclamar y obtener reparación cuando concurra un daño antijurídico.

IA en sanidad: obligaciones reforzadas y “lex artis” en evolución

En sanidad, el debate adquiere especial intensidad: se trata de un ámbito de alto impacto en derechos y seguridad. La incorporación de IA puede conllevar obligaciones reforzadas, tanto por el potencial riesgo como por la necesidad de asegurar confiabilidad y control.

Se destacaron tres exigencias prácticas que resultan críticas:

  • Supervisión humana efectiva (no meramente formal).
  • Trazabilidad (logs) para reconstruir lo ocurrido en caso de incidente.
  • Evaluación de impacto (riesgos, igualdad, privacidad, acceso).

Además, se apuntó a una consecuencia relevante: la IA puede elevar el estándar de diligencia (lex artis). Si determinadas herramientas demuestran reducir errores o aumentar precisión, no utilizarlas cuando estén validadas y recomendadas podría considerarse falta de diligencia. Al mismo tiempo, aumenta el deber de no confiar ciegamente en la IA: la supervisión debe ser significativa y documentada.

“Nexo causal opaco” y sesgos: cuando la caja negra genera indefensión

Otro reto jurídico es el llamado nexo causal opaco: cuando un sistema complejo dificulta explicar por qué se produjo un resultado. Eso puede traducirse en indefensión si no existe auditabilidad o si la explicación no es comprensible y útil. Por eso, la explicabilidad debe entenderse como una garantía práctica, no como un elemento accesorio o puramente técnico.

Tipos de funcionamiento y convergencia con productos defectuosos

Para ordenar escenarios, se propuso una tipología útil:

  • Funcionamiento normal: daño derivado de un riesgo tecnológico no previsible.
  • Funcionamiento anormal: fallos de supervisión, actualización, sesgos no detectados o deficiencias de control.
  • Omisión: no utilizar una IA validada que habría evitado un error relevante.

También se trató la convergencia con el régimen de productos defectuosos y la posibilidad de que, tras indemnizar, la Administración pueda ejercer acción de repetición frente al proveedor cuando corresponda.

IA como “copiloto administrativo”: eficiencia bajo supervisión

En la jornada se compartió además una visión aplicada: la IA como copiloto en la gestión de expedientes. La idea no es sustituir el juicio profesional, sino reducir carga operativa, mejorar tiempos y ordenar información, siempre con supervisión humana y con un diseño que facilite control, trazabilidad y seguridad.

En ese marco se presentó ELEX, desarrollado por Soltel Group, como solución orientada a modernizar la gestión jurídica, alineada con necesidades reales (volumetría, plazos, documentación, comunicaciones e integración), y con requisitos de seguridad exigentes.

Conclusión: gobernar la IA para poder confiar en ella

La idea transversal que dejó el encuentro puede resumirse así: en el sector público, la IA solo aporta valor si es gobernable. Y gobernable significa responsable, trazable, explicable y supervisada. Ese es precisamente el terreno donde el Derecho Público resulta decisivo: no para frenar la innovación, sino para convertirla en progreso institucional con garantías.

Algunas imágenes del evento

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *