Los sistemas de inteligencia artificial ya no se limitan a responder preguntas o completar textos. Comienzan a actuar por su cuenta: gestionan operaciones bursátiles, redactan informes, aprenden de cada error y se comunican con otros programas de manera autónoma. Es la llamada IA agéntica, una nueva generación de IA que promete eficiencia, pero también complica una pregunta esencial: si algo sale mal, ¿quién es el culpable?
La inquietud no es nueva, pero hoy suena más urgente. A medida que estos sistemas se vuelven más autónomos, el viejo supuesto de que siempre hay un humano detrás empieza a resquebrajarse. La tecnología va más rápido que el derecho, y el derecho apenas empieza a entender lo que la técnica ha creado.
Europa, Estados Unidos y Asia coinciden en un principio básico: la responsabilidad sigue siendo humana. Sin embargo, los caminos elegidos para sostener esa idea difieren tanto como sus modelos de gobernanza tecnológica. Lo que está en juego no es solo quién paga un daño, sino cómo se mantiene la rendición de cuentas en un mundo donde las máquinas deciden cada vez más.
Europa: prevenir antes que castigar
La Unión Europea ha intentado anticiparse con el AI Act, aprobado en 2024, y con la propuesta de una Directiva sobre responsabilidad en IA. En lugar de reconocer derechos o deberes a los algoritmos, Bruselas apuesta por reforzar las obligaciones humanas:
- Registrar cada paso que toma un sistema
- Garantizar una supervisión humana efectiva
- Evaluar los riesgos antes de que la IA se ponga en marcha.
El principio es claro: la autonomía no exime de vigilancia.
“El control humano sigue siendo el ancla jurídica en la era de la autonomía digital.”
—Comisión Europea, AI Liability Directive Draft, 2024.
El problema es que, cuando una IA aprende por su cuenta o combina datos de múltiples fuentes, incluso ese control se vuelve borroso. ¿Hasta dónde puede exigirse previsión si el propio sistema improvisa soluciones? Europa responde apostando por la trazabilidad, pero hay quien teme que ese rastro digital no siempre sea legible.
Estados Unidos: confianza en la corrección a posteriori
Al otro lado del Atlántico, Estados Unidos mantiene su preferencia por la innovación frente al control. No hay una ley federal específica sobre IA, pero sí un mosaico de normas sectoriales y guías emitidas por agencias como la Federal Trade Commission (FTC) o el NIST.
El AI Risk Management Framework de este último (2023) propone una “rendición de cuentas distribuida”: cada actor responde dentro del alcance que controla —desarrollador, integrador o usuario final—.
El enfoque estadounidense es más pragmático: deja que el mercado avance y confía en los tribunales para resolver los conflictos después. Casos como Gibson v. OpenAI empiezan a trazar los primeros límites sobre negligencia en decisiones generadas por IA.
Europa intenta prevenir el daño; Estados Unidos lo repara después. Dos filosofías distintas que reflejan sus culturas jurídicas: una se apoya en la regulación, la otra en la jurisprudencia.
Asia: entre la certificación y el control estatal
En Asia emerge una tercera vía.
- China exige desde 2024 que los proveedores de IA registren sus algoritmos y asuman responsabilidad conjunta con las plataformas que los alojan.
- Japón, más orientado a la industria, impulsa el concepto de “confianza por diseño”: los sistemas deben certificarse antes de su despliegue.
- Corea del Sur debate crear “entidades electrónicas responsables” para robots industriales, sin llegar a darles personalidad jurídica.
El denominador común es el control preventivo. La autonomía técnica existe, pero dentro de un perímetro definido por el Estado o por estándares de certificación. La responsabilidad no se difumina: se centraliza.
El espejismo de la “personalidad electrónica”
En 2017, el Parlamento Europeo llegó a proponer que ciertos robots recibieran una personalidad electrónica. La idea buscaba resolver la atribución de culpa, pero pronto fue descartada: ningún algoritmo puede tener deberes morales ni patrimonio propio.
La mayoría de expertos coincide hoy en que la solución pasa por una responsabilidad funcional, no por otorgar “vida legal” a las máquinas. En otras palabras: la IA no responde por sí misma, pero sus actos activan responsabilidades humanas a lo largo de la cadena de diseño, entrenamiento y uso.
Dar personalidad jurídica a una IA sería, según muchos juristas, abrir una puerta peligrosa: podría servir para que empresas o gobiernos eludieran su propia rendición de cuentas. La alternativa sensata es la trazabilidad: dejar constancia técnica de qué decisión tomó el sistema, cuándo y bajo qué condiciones.
El nuevo reto: agentes persistentes y responsabilidad difusa
La frontera más confusa está llegando con los agentes persistentes: programas que viven conectados, aprenden con cada interacción y ejecutan acciones complejas sin intervención humana continua.
En ellos participan múltiples actores, desde el creador del modelo hasta el usuario que le da órdenes o las plataformas que ejecutan las tareas. Si ocurre un daño, la cadena de responsabilidad se estira y se complica.
En la práctica, demostrar quién causó qué será cada vez más difícil. Sin registros verificables ni auditorías independientes, el riesgo no es solo legal, sino social: que nadie pueda explicar por qué una IA actuó como lo hizo.
