La inteligencia artificial ya está tomando decisiones que afectan directamente a personas y empresas: concede o deniega créditos, selecciona candidatos, detecta fraudes o incluso sugiere diagnósticos médicos. Pero cuando se equivoca, surge un problema incómodo: ¿quién responde por ese error?
La respuesta jurídica dista mucho de ser sencilla.
El gran problema: la IA no puede ser demandada
Aunque en el lenguaje cotidiano se diga que “la IA ha fallado”, lo cierto es que jurídicamente la inteligencia artificial no existe como sujeto responsable. No tiene personalidad jurídica, ni patrimonio, ni capacidad para responder ante un tribunal.
Esto obliga a buscar responsables entre todos los actores implicados en su funcionamiento, lo que genera un escenario mucho más complejo que el tradicional.
Demasiados intervinientes, poca claridad
En un sistema de inteligencia artificial pueden intervenir múltiples agentes al mismo tiempo:
- Quien desarrolla el algoritmo.
- Quien lo comercializa o distribuye.
- Quien lo integra en su empresa.
- Quien lo utiliza para tomar decisiones.
El resultado es un sistema donde el daño puede producirse sin que exista una conducta negligente clara por parte de uno solo de ellos.
El modelo clásico ya no funciona
Durante años, la responsabilidad civil se ha basado en una idea sencilla: alguien hace algo mal y causa un daño.
Pero en la inteligencia artificial esa lógica se rompe. Los sistemas funcionan con datos masivos, procesos automatizados y decisiones difíciles de rastrear. Determinar qué ha fallado exactamente —y quién es responsable— puede convertirse en una tarea prácticamente imposible.
Europa cambia las reglas del juego
La Unión Europea ya ha reaccionado ante este problema, rediseñando el sistema de responsabilidad con un enfoque mucho más práctico:
- Se imponen obligaciones preventivas a empresas que utilizan IA (AI Act).
- Se facilita que las víctimas accedan a pruebas internas de las empresas.
- Se introducen presunciones que pueden invertir la carga de la prueba.
- Se amplía la responsabilidad objetiva a software y sistemas automatizados.
En términos claros: si no puedes demostrar que hiciste bien las cosas, lo más probable es que acabes respondiendo.
La empresa ya no es “solo usuaria”
Uno de los cambios más importantes afecta directamente a las empresas.
Hasta ahora, muchas se consideraban simples clientes de tecnología. Pero eso ha cambiado. Cuando una empresa integra inteligencia artificial en su actividad, pasa a ser parte activa del sistema.
Especialmente si:
- Ajusta el sistema con sus propios datos.
- Lo utiliza en decisiones relevantes (financieras, laborales, sanitarias…).
- Depende de sus resultados para operar.
En estos casos, la empresa asume un papel protagonista en la generación del riesgo.
El error ya no es excusa
El argumento de “ha sido un fallo del sistema” cada vez tiene menos recorrido en los tribunales.
¿Por qué? Porque el marco legal ya exige:
- Supervisión humana real.
- Control sobre el funcionamiento del sistema.
- Uso conforme a las instrucciones del proveedor.
- Evaluación previa de riesgos.
Si estos elementos fallan, la responsabilidad se desplaza directamente hacia la empresa.
La clave: control, no culpa
El nuevo modelo jurídico se basa en una idea diferente: no importa tanto quién cometió el error, sino quién tenía la capacidad de evitarlo.
Responderá quien:
- Controla el sistema.
- Se beneficia de su uso.
- Puede prevenir los daños con medidas razonables.
Esto supone un cambio profundo respecto al modelo tradicional basado en la culpa.
Qué deben hacer las empresas desde ya
El riesgo legal no se gestiona solo con contratos. Hace falta una estrategia interna sólida.
En la práctica, esto implica:
- Saber qué sistemas de IA se están utilizando.
- Controlar los datos que los alimentan.
- Establecer supervisión humana efectiva.
- Documentar todas las decisiones relevantes.
- Prepararse para justificar el funcionamiento del sistema ante un juez.
Por ejemplo, si una aseguradora utiliza IA para rechazar un siniestro, deberá poder explicar por qué se tomó esa decisión. Si no puede hacerlo, su posición en un litigio será muy débil.
Un nuevo mapa de responsabilidades
La inteligencia artificial no elimina la responsabilidad: la redistribuye.
Ya no basta con mirar al desarrollador o al fabricante. Las empresas que utilizan IA están en el centro del sistema y, cada vez más, en el centro del riesgo jurídico.
En este nuevo escenario, la clave no es evitar la tecnología, sino utilizarla con control, trazabilidad y criterio legal.