Deecho y actuar automatizado de la IA
por Luis Carranza Torres
El análisis del "actuar automatizado" de la
Inteligencia Artificial es, quizás, el punto de intersección más complejo y
crucial entre la informática y el derecho.
Este "actuar" ya no es una simple ejecución
de comandos preprogramados (como en una máquina tradicional), sino una toma de
decisión autónoma o la ejecución de una tarea compleja basada en la inferencia
de un modelo.
Desde la informática, el "actuar
automatizado" es la ventaja principal y el desafío técnico central de la
IA. Estamos situados en lo que se llama “autonomía algorítmica”, en que el sistema
no requiere una instrucción humana para cada acción. El modelo de IA, una vez
entrenado, aplica su lógica aprendida (básicamente, por inferencia) a nuevos
datos de entrada para generar una salida o tomar una decisión.
Escalabilidad y velocidad son dos cualidades que
permite la automatización, llevando al procesamiento de datos y a la toma de
decisiones a una escala y velocidad inalcanzables para los humanos. Dicho rasgo
es el motor económico de la IA.
Esto guarda directa relación con el llamado “Bucle de
Retroalimentación” (Feedback Loop). En determinados sistemas, el “output” o
resultado de la IA puede convertirse en “input”, dato o instrucción, para un
nuevo ciclo de aprendizaje, permitiendo al sistema auto-optimizarse e incluso modificar
su propio “comportamiento” sin intervención humana directa. Esto aumenta tanto la
autonomía de actuación y como los posibles riesgos que de eso pueda derivarse.
La automatización de la IA trae consigo también el
llamado desafío de la "Caja Negra", sobre todo frente al rasgo de la opacidad
que presentan los sistemas de aprendizaje profundo (Deep Learning), en los
cuales el actuar automatizado es a menudo el resultado de miles de millones de
interacciones entre neuronas artificiales, lo que torna técnicamente difícil,
si no imposible, trazar el camino exacto que llevó a una decisión específica.
Desde el aspecto jurídico, las implicancias para el
derecho de dicha forma de actividad resultan varias. En tal sentido, el
"actuar automatizado" desafía la base misma de los sistemas legales,
que tradicionalmente se centran en la voluntad humana.
La cuestión de la responsabilidad civil es uno de los
mayores desafíos jurídicos. ¿Quién es responsable si la acción automatizada
causa un daño? ¿El desarrollador (por un defecto de diseño), el operador (por
un mal uso), o la IA misma? En tal sentido, las respuestas normativas se están
moviendo de la responsabilidad basada en la culpa o dolo a marcos de
responsabilidad objetiva o por riesgo (similares a los productos defectuosos)
para sistemas de alto riesgo.
En realidad, estamos hablando tanto del tipo de
responsabilidad que resulta, como de la forma en que puede jurídicamente
imputarse el acto automatizado y a quien.
Algo similar pasa respecto de los derechos de autor
por los productos que generan este actuar automatizado si es creativo (v.g.
genera música, poesía o un texto legal), ¿a quién se le atribuyen los derechos?
La mayoría de las legislaciones, incluyendo la de Estados Unidos requieren un
autor humano. La poca jurisprudencia en la materia ha respaldado esto, lo que significa
que debe buscarse al autor respecto de dicho "actuar automatizado" en
la generación creativa, en quien haya tenido la intervención humana, sea a
través del prompt, la edición u otra actuación.
Respecto de la opacidad del sistema, desde el derecho
empieza a darse forma a un “derecho a la explicación”, por el cual si una
persona es afectada por una decisión automatizada (denegación de visa, despido,
rechazo de crédito), debe tener el derecho a entender las razones específicas
detrás de esa acción. Esto convierte al rasgo de la explicabilidad (XAI) de un
desafío técnico a una obligación legal. Algo que, en realidad, tiene que ver en
cuanto a los poderes públicos con el deber de fundamentar los actos
administrativos, pero en versión digital. Y respecto de los privados, a una
nueva proyección tanto del principio que proscribe el abuso del derecho como de
la buena fe en las relaciones jurídicas entre particulares.
En lo concerniente a los sesgos y la discriminación,
resulta pacífica la consideración que el actuar automatizado puede amplificar
sesgos inherentes presentes en los datos de entrenamiento. Por el riesgo de una
violación directa de los derechos a la igualdad y no discriminación, las
normativas exigen pruebas de que el sistema de IA fue diseñado, entrenado y
operado de manera “justa” (fair) y que sus decisiones no impactan
desproporcionadamente a grupos protegidos.
Por otra parte, el “control humano significativo”
(Human Oversight) es una exigencia cada vez más presente en las regulaciones de
la materia, tales como el reglamento de IA de la UE. Supone imponer la
necesidad de supervisión humana significativa en los sistemas de IA de alto
riesgo, lo cual no implica que un humano revise cada decisión, sino que haya
puntos de control claros, la capacidad de “override” (anular la decisión de la
IA) y una trazabilidad del momento en que se tomó la decisión automatizada.
Como vemos, el actuar automatizado es una función de
la inferencia del modelo. Su objetivo es la eficiencia, pero su complejidad y
algunas capacidades sin debido contralor pueden afectar derechos esenciales de
las personas.
De allí que el actuar automatizado exija un nuevo
marco jurídico, tanto de principios como de normas, que equilibre la promoción
de la innovación con la protección de los derechos de los ciudadanos,
garantizando la transparencia, la auditabilidad y la responsabilidad de las
entidades que despliegan la IA.
Para leer más sobre derecho en el blog.
Estructura y secuencia en el proceso abreviado laboral en Córdoba
La digitalización administrativa
Oralidad laboral e Inteligencia Artificial
El entorno digital en las plataformas procesales
Noticia del autor de la nota: Abogado (U.N.C.). Profesor con orientación en Derecho. Doctor en Ciencias Jurídicas (U.C.A.). Especialista en Derecho Aeronáutico y Espacial. Especialista en Derecho de los Conflictos Armados y Derecho Internacional Humanitario. Docente universitario de grado y postgrado. Autor de una veinte de textos sobre derecho público y procesal. Miembro del Instituto de Derecho Administrativo de la Facultad de Derecho y Ciencias Sociales de la Universidad Nacional de Córdoba. Miembro del Instituto de Historia del Derecho y de las Ideas Políticas Roberto Peña de la Academia Nacional de Derecho y Ciencias Sociales de Córdoba. Mención Especial premio “Joven Jurista 2001” de la Academia de Derecho y Ciencias Sociales de Córdoba. Premio "Diez Jóvenes Sobresalientes del año” de la Bolsa de Comercio de Córdoba (2004). Distinción “Reconocimiento docente”, E.S.G.A, 2005. Reconocimiento al desempeño y dedicación, Escuela de Práctica Jurídica del Colegio de Abogados de Córdoba, 2013. Reconocimiento a la trayectoria en las letras y como autor de textos jurídicos por la Legislatura de la Provincia de Córdoba, 2021.










