Deecho y actuar automatizado de la IA

 


por Luis Carranza Torres


El análisis del "actuar automatizado" de la Inteligencia Artificial es, quizás, el punto de intersección más complejo y crucial entre la informática y el derecho.

Este "actuar" ya no es una simple ejecución de comandos preprogramados (como en una máquina tradicional), sino una toma de decisión autónoma o la ejecución de una tarea compleja basada en la inferencia de un modelo.

Desde la informática, el "actuar automatizado" es la ventaja principal y el desafío técnico central de la IA. Estamos situados en lo que se llama “autonomía algorítmica”, en que el sistema no requiere una instrucción humana para cada acción. El modelo de IA, una vez entrenado, aplica su lógica aprendida (básicamente, por inferencia) a nuevos datos de entrada para generar una salida o tomar una decisión.

Escalabilidad y velocidad son dos cualidades que permite la automatización, llevando al procesamiento de datos y a la toma de decisiones a una escala y velocidad inalcanzables para los humanos. Dicho rasgo es el motor económico de la IA.

Esto guarda directa relación con el llamado “Bucle de Retroalimentación” (Feedback Loop). En determinados sistemas, el “output” o resultado de la IA puede convertirse en “input”, dato o instrucción, para un nuevo ciclo de aprendizaje, permitiendo al sistema auto-optimizarse e incluso modificar su propio “comportamiento” sin intervención humana directa. Esto aumenta tanto la autonomía de actuación y como los posibles riesgos que de eso pueda derivarse.

La automatización de la IA trae consigo también el llamado desafío de la "Caja Negra", sobre todo frente al rasgo de la opacidad que presentan los sistemas de aprendizaje profundo (Deep Learning), en los cuales el actuar automatizado es a menudo el resultado de miles de millones de interacciones entre neuronas artificiales, lo que torna técnicamente difícil, si no imposible, trazar el camino exacto que llevó a una decisión específica.

Desde el aspecto jurídico, las implicancias para el derecho de dicha forma de actividad resultan varias. En tal sentido, el "actuar automatizado" desafía la base misma de los sistemas legales, que tradicionalmente se centran en la voluntad humana.

La cuestión de la responsabilidad civil es uno de los mayores desafíos jurídicos. ¿Quién es responsable si la acción automatizada causa un daño? ¿El desarrollador (por un defecto de diseño), el operador (por un mal uso), o la IA misma? En tal sentido, las respuestas normativas se están moviendo de la responsabilidad basada en la culpa o dolo a marcos de responsabilidad objetiva o por riesgo (similares a los productos defectuosos) para sistemas de alto riesgo.

En realidad, estamos hablando tanto del tipo de responsabilidad que resulta, como de la forma en que puede jurídicamente imputarse el acto automatizado y a quien.

Algo similar pasa respecto de los derechos de autor por los productos que generan este actuar automatizado si es creativo (v.g. genera música, poesía o un texto legal), ¿a quién se le atribuyen los derechos? La mayoría de las legislaciones, incluyendo la de Estados Unidos requieren un autor humano. La poca jurisprudencia en la materia ha respaldado esto, lo que significa que debe buscarse al autor respecto de dicho "actuar automatizado" en la generación creativa, en quien haya tenido la intervención humana, sea a través del prompt, la edición u otra actuación.  

Respecto de la opacidad del sistema, desde el derecho empieza a darse forma a un “derecho a la explicación”, por el cual si una persona es afectada por una decisión automatizada (denegación de visa, despido, rechazo de crédito), debe tener el derecho a entender las razones específicas detrás de esa acción. Esto convierte al rasgo de la explicabilidad (XAI) de un desafío técnico a una obligación legal. Algo que, en realidad, tiene que ver en cuanto a los poderes públicos con el deber de fundamentar los actos administrativos, pero en versión digital. Y respecto de los privados, a una nueva proyección tanto del principio que proscribe el abuso del derecho como de la buena fe en las relaciones jurídicas entre particulares.

En lo concerniente a los sesgos y la discriminación, resulta pacífica la consideración que el actuar automatizado puede amplificar sesgos inherentes presentes en los datos de entrenamiento. Por el riesgo de una violación directa de los derechos a la igualdad y no discriminación, las normativas exigen pruebas de que el sistema de IA fue diseñado, entrenado y operado de manera “justa” (fair) y que sus decisiones no impactan desproporcionadamente a grupos protegidos.

Por otra parte, el “control humano significativo” (Human Oversight) es una exigencia cada vez más presente en las regulaciones de la materia, tales como el reglamento de IA de la UE. Supone imponer la necesidad de supervisión humana significativa en los sistemas de IA de alto riesgo, lo cual no implica que un humano revise cada decisión, sino que haya puntos de control claros, la capacidad de “override” (anular la decisión de la IA) y una trazabilidad del momento en que se tomó la decisión automatizada.

Como vemos, el actuar automatizado es una función de la inferencia del modelo. Su objetivo es la eficiencia, pero su complejidad y algunas capacidades sin debido contralor pueden afectar derechos esenciales de las personas.

De allí que el actuar automatizado exija un nuevo marco jurídico, tanto de principios como de normas, que equilibre la promoción de la innovación con la protección de los derechos de los ciudadanos, garantizando la transparencia, la auditabilidad y la responsabilidad de las entidades que despliegan la IA.




Para leer más sobre derecho en el blog.


Estructura y secuencia en el proceso abreviado laboral en Córdoba

La digitalización administrativa

Oralidad laboral e Inteligencia Artificial

El contrato de influencer

El entorno digital en las plataformas procesales


Noticia del autor de la nota: Abogado (U.N.C.). Profesor con orientación en Derecho. Doctor en Ciencias Jurídicas (U.C.A.). Especialista en Derecho Aeronáutico y Espacial. Especialista en Derecho de los Conflictos Armados y Derecho Internacional Humanitario. Docente universitario de grado y postgrado. Autor de una veinte de textos sobre derecho público y procesal. Miembro del Instituto de Derecho Administrativo de la Facultad de Derecho y Ciencias Sociales de la Universidad Nacional de Córdoba. Miembro del Instituto de Historia del Derecho y de las Ideas Políticas Roberto Peña de la Academia Nacional de Derecho y Ciencias Sociales de Córdoba. Mención Especial premio “Joven Jurista 2001” de la Academia de Derecho y Ciencias Sociales de Córdoba. Premio "Diez Jóvenes Sobresalientes del año” de la Bolsa de Comercio de Córdoba (2004). Distinción “Reconocimiento docente”, E.S.G.A, 2005. Reconocimiento al desempeño y dedicación, Escuela de Práctica Jurídica del Colegio de Abogados de Córdoba, 2013. Reconocimiento a la trayectoria en las letras y como autor de textos jurídicos por la Legislatura de la Provincia de Córdoba, 2021.


 

Lo más leído