
A veces, leer una sentencia judicial genera una sensación extraña: no solo parece injusta, sino que lógicamente, éticamente, casi matemáticamente no cuadra. Y sin embargo, la sentencia se mantiene. Se convierte en jurisprudencia.
Esa sensación de que algo no está bien, incluso cuando “se ha seguido el procedimiento”, la hemos experimentado muchos. Sucede en tribunales de todo el mundo, también en Euskadi y España. Pero cuando ocurre en los niveles más altos —como el Tribunal Supremo español o el Tribunal Constitucional— el impacto es profundo. La confianza ciudadana se resquebraja. Aumenta la polarización.
Esto no es exclusivo de un país. Tomemos como ejemplo a Estados Unidos, donde el Tribunal Supremo dicta sentencias altamente mediáticas a nivel internacional —desde derechos reproductivos hasta justicia climática o el poder empresarial— la creciente desconfianza es un síntoma preocupante. Allí, los jueces son elegidos en un proceso cada vez más partidista. Y en muchos casos, ya no se perciben como intérpretes imparciales de la ley, sino como representantes de una ideología.
Entonces, ¿por qué no imaginar algo radical?
¿Y si sumáramos una voz no humana a los tribunales? Una que no tenga filiación política, ni ambición, ni lealtades ideológicas. Una que interprete los hechos, los textos legales y la jurisprudencia con un solo objetivo: la equidad.
Hablamos de inteligencia artificial. No como sustituto del juicio humano, sino como un referente objetivo, transparente y coherente. Un sistema que reciba el mismo material legal que los jueces, y genere un análisis jurídico propio —visible para todos, independientemente de la decisión final del tribunal.
Al principio, esta IA funcionaría como una “magistratura en la sombra”, ofreciendo opiniones paralelas. Pero con el tiempo —y si se construye confianza— podría formar parte de la votación, no para imponer decisiones, sino para aportar coherencia, lógica y equilibrio, especialmente cuando los vientos políticos soplan con fuerza.
Un espejo lógico para un sistema subjetivo
La percepción de que la justicia está influida por intereses políticos no es nueva. Y en contextos como el Consejo General del Poder Judicial español, cuya renovación lleva años bloqueada, esta desconfianza se intensifica.
Pero, a diferencia de los humanos, una IA bien diseñada puede minimizar sesgos, aplicar criterios consistentes, y explicar de forma clara su razonamiento.
No será perfecta. Requerirá auditorías, supervisión, diseño ético. Pero frente a un sistema judicial compuesto por humanos nombrados por políticos, la IA puede aportar algo raro: una voz con principios estables y lógica transparente.
Esta IA podría ofrecer siempre dos perspectivas:
- Una ética, basada en principios universales de justicia, proporcionalidad y equidad.
- Otra jurídica, alineada con la legislación vigente, la jurisprudencia y los límites constitucionales.
El resultado final pesaría ambas dimensiones, generando una decisión razonada, documentada y abierta al escrutinio público. Aunque al principio no tenga valor legal, su mera existencia lanzaría una pregunta incómoda pero potente:
¿Esto es lo que dictaría la razón? Y si no lo es… ¿por qué no?
JustiIA: una plataforma pública de transparencia judicial
No hace falta esperar a que los tribunales acepten esta idea. Podemos empezar ahora.
Imagina una plataforma digital abierta, llamémosla JustiIA, donde cualquier persona —juristas, periodistas, ciudadanía— pueda introducir resúmenes de casos y recibir una opinión jurídica estructurada por IA.
No requeriría aprobación oficial. Sería un bien común de razonamiento jurídico: una referencia imparcial para contrastar con las decisiones humanas.
No funcionaría como un chatbot tipo ChatGPT. Estaría entrenada específicamente en lógica jurídica, principios constitucionales y análisis doctrinal. Aplicaría criterios homogéneos y pondría en evidencia cuándo un tribunal se aleja de sus propios estándares.
Sería como una realidad aumentada jurídica: una segunda opinión, siempre disponible, siempre explicable.
Con el tiempo, podría ser útil también para analizar sentencias del Tribunal Europeo de Derechos Humanos, del Tribunal de Justicia de la Unión Europea, o de tribunales constitucionales en países como Polonia o Hungría, donde la independencia judicial está en entredicho.
¿Podría ofrecer justicia como servicio?
Más allá de la transparencia, JustiIA podría evolucionar para ofrecer arbitraje neutral en disputas privadas. Hoy en día, muchos contratos ya recurren a mediación en vez de acudir a tribunales.
En el futuro, un sistema automatizado e imparcial de resolución de conflictos podría ofrecer agilidad, bajo coste y garantías éticas para casos de baja complejidad —incluso entre pequeñas empresas, asociaciones o ciudadanos.
Así como diversos verificadores independientes desmienten muchos bulos que circulan las redes, esta IA podría redefinir cómo entendemos las decisiones judiciales.
Una invitación a construir lo posible
La tecnología para desarrollar esto ya existe. Solo hace falta voluntad.
No se requiere una reforma constitucional. Basta con que unos cuantos desarrolladores, juristas y diseñadores se unan con una misión: hacer de la justicia algo más que un espectáculo. Convertirla en un proceso anclado en la lógica, la transparencia y la rendición de cuentas.
¿Llegaremos a ver una IA sentada en el Tribunal Constitucional español, o en el Tribunal de Justicia de la UE en Luxemburgo? Probablemente no pronto.
Pero esa no es la pregunta.
La verdadera pregunta es:
¿Qué pasa si damos a la lógica un lugar en la sala —y dejamos que la sociedad compare?
En un mundo polarizado, esa claridad puede ser la forma más poderosa de justicia.
Otros artículos de
ANDY BÄCKER, AQUÍ










































































































