Principios de la AI en el derecho administrativo

 



por Prof. Dr. Luis Carranza Torres

Introito

 Sabemos que existe una conexión no menor entre las normas jurídicas y el avance tecnológico. Es algo que se ha dado en todos los tiempos y que también lleva aparejado el actual desarrollo de la Inteligencia Artificial (IA). Se trata de un vínculo de doble sentido, en donde el avance tecnológico promueve a la formación de nuevas normas jurídicas, las que a su vez inciden en la forma de expandirse de la IA.

Dicha estructura normativa debe contener criterios y normas que proporcionen flexibilidad al sistema jurídico ante un avance que todavía no determina sus fronteras y que sirva de marco general al desarrollo normativo que la IA requiere.

 

Hay quienes entienden que existe en dicha tarea el peligro de legislar palabras en lugar de hechos. O, peor aún, de regular sin un conocimiento preciso de lo que es y sus implicancias, guiándose por prejuicios.

 

Concepto de la IA

 

Al igual que la propia inteligencia humana, la IA resulta un concepto complejo de definir. Presenta demasiadas dimensiones y aún más perspectivas de desarrollo como para contar con una base fáctica establecida sobre la cual construirlo. Por ello, no existe todavía una definición formal y universalmente aceptada.

 

Es por eso que el primer reto que tiene la doctrina con respecto a los campos de la Inteligencia Artificial es su delimitación, la consideración de un concepto unánime del que se desprendan las características básicas o necesarias para hablar de IA y que podamos tener como base o de común.

 

En tal sentido, La UNESCO definió a la Inteligencia Artificial (IA) como “máquinas capaces de imitar ciertas funcionalidades de la inteligencia humana incluyendo la percepción, el aprendizaje, el razonamiento, la resolución de problemas, la interacción del lenguaje e incluso la producción creativa”.

 

En el sistema legal de Estados Unidos el concepto de IA se halla establecido por un documento federal, de carácter fiscal, de agosto de 2018 (Section 238 (g) of the John S. McCain National Defense Authorization Act for Fiscal Year 2019, codified at 10 U.S.C. § 2358, note), según el cual se entiende por esta tecnología:

1) Cualquier sistema artificial que realice tareas en circunstancias variables e impredecibles sin una supervisión humana significativa, o que pueda aprender de la experiencia y mejorar el rendimiento cuando se exponga a conjuntos de datos.

2) Un sistema de software, hardware físico u otro contexto que resuelve tareas que requieren percepción, cognición, planificación, aprendizaje, comunicación o acción física de tipo humano.

3) Un sistema artificial diseñado para pensar o actuar como un humano, incluyendo arquitecturas cognitivas y redes neuronales.

4) Un conjunto de técnicas, incluido el aprendizaje automático (machine learnign), que está diseñado para aproximarse a una tarea cognitiva.

5) Un sistema artificial diseñado para actuar racionalmente, incluyendo un agente inteligente de software o un robot incorporado que logra objetivos usando la percepción, la planificación, el razonamiento, el aprendizaje, la comunicación, la toma de decisiones y la actuación.

La Comisión Europea, por su parte, la define como sistemas de software (y posiblemente también de hardware) diseñados por humanos que, ante un objetivo complejo, actúan en la dimensión física o digital:

 ·         Percibiendo su entorno, a través de la adquisición e interpretación de datos estructurados o no estructurados.

 ·         Razonando sobre el conocimiento, procesando la información derivada de estos datos y decidiendo las mejores acciones para lograr el objetivo dado.

 Esta noción es una de las más completas y precisas que se manejan en el presente, pues no solo describe de forma adecuada sus rasgos principales, sino que también no se cierra sobre el presente, conceptualizando con la necesaria flexibilidad para dar cabida nuevos desarrollos de la IA.

 

Características específicas

 

Podemos conceptualizar las principales características específicas de la inteligencia artificial (IA) en las siguientes:

1) Opacidad: La opacidad se refiere a la dificultad para comprender cómo una IA llega a sus decisiones o resultados. En modelos complejos como redes neuronales profundas, las operaciones internas se vuelven como una "caja negra". Aunque los datos y algoritmos son programados por humanos, interpretar cómo ciertas entradas generan determinadas salidas no siempre es obvio. Esto plantea desafíos éticos y prácticos, especialmente en áreas sensibles como la medicina o el derecho.

2) Complejidad: La IA abarca una vasta gama de técnicas que incluyen aprendizaje profundo, aprendizaje automático, redes neuronales, procesamiento de lenguaje natural, entre otros. Esto implica que su desarrollo y funcionamiento requiere conocimientos avanzados en matemáticas, estadística y ciencias de la computación. A medida que las aplicaciones crecen, también lo hace la necesidad de infraestructuras tecnológicas más potentes.

3) Dependencia de Datos: La IA depende completamente de los datos para aprender, entrenar y operar. Los algoritmos necesitan cantidades masivas de datos precisos, diversos y bien estructurados para ser efectivos. Sin datos, una IA no puede funcionar correctamente. Además, la calidad de los resultados está directamente vinculada a la calidad y representatividad de los datos utilizados.

4) Comportamiento Autónomo: Una IA autónoma tiene la capacidad de tomar decisiones y realizar tareas de manera independiente, basándose en patrones aprendidos de los datos. Aunque esto mejora la eficiencia y automatización, también presenta desafíos éticos. Por ejemplo, ¿quién es responsable si una decisión autónoma de la IA resulta perjudicial?

Apreciadas en su conjunto, estas características revelan el potencial de la IA, pero también resaltan la necesidad de transparencia, una adecuada regulación y una adecuada supervisión humana.

 

Aspectos de su regulación en el derecho administrativo

 

Algunas de las cuestiones más relevantes que los desarrollos de IA plantean al derecho administrativo incluyen:

 1. La automatización de procesos deja preguntas sobre la precisión y la responsabilidad en caso de errores.

 2. Si en el Derecho de autor existe un debate sobre quién posee la autoría y los derechos de las obras generadas por IA, en el administrativo cabría a que nivel del ente se le adjudican los actos automáticos.

 3. Desde que la IA puede analizar grandes volúmenes de información, esto genera preocupaciones sobre la protección de datos personales y la privacidad.

 4. En cuanto a la “toma de decisiones automatizadas”, en algunos casos para predecir resultados legales o tomar decisiones en asuntos complejos, se plantean desafíos éticos y legales. ¿Quién es el que se manifiesta al otro lado de este algoritmo que provoca cientos de decisiones?

En dicho sentido, la regulación de la inteligencia artificial en el derecho administrativo debe apuntar a equilibrar la innovación tecnológica con la protección de los derechos de los administrados. Algunos aspectos clave incluyen:

  • Transparencia algorítmica: Se exige que los empleadores informen a los trabajadores sobre cómo los algoritmos afectan sus condiciones laborales.
  • Protección contra sesgos: La IA utilizada en procesos de contratación y gestión laboral debe evitar discriminaciones y garantizar equidad.
  • Adaptación de normativas y control humano: En algunos países, como España, se han implementado regulaciones específicas para el trabajo en plataformas digitales y el control humano sobre los algoritmos.
  • Derechos de acceso y uso: La IA está transformando la actividad pública, eliminando trámites presenciales y con gestión humana directa, por lo que los nuevos canales no pueden incidir en la brecha digital ni requerir habilidades digitales superiores al promedio.

 

“Memorandum for the heads of Executive Departments and Agencies”, en Executive Order 13859

Los diez principios del documento, que brinda las pautas mandatorias para la actuación de las agencias federales de los Estados Unidos en materia de IA, son los siguientes:

1. Confianza del público en la IA: Como la IA puede tener tanto aspectos positivos como negativos, se considera en primer lugar relevante que se promuevan aplicaciones fiables, robustas y dignas de confianza por la ciudadanía.

2. Participación pública: La misma, particularmente en aquellos casos en que IA utilice información sobre las personas, servirá para mejorar la posible regulación que se establezca, en particular, mejorando la definición de los criterios de responsabilidad de las agencias desarrolladoras, aumentando así la confianza pública en la materia. Por tanto, las agencias federales deben ofrecer amplias posibilidades para que, con un alcance nacional, el público tenga oportunidad de participación sobre aspectos no esenciales de la tecnología que los afecten.

3. Integridad científica y calidad de la información: Los desarrollos de IA deben realizarse a partir de una debida información de los procesos científicos y técnicos aplicables, debiendo actuar las agencias para que las aplicaciones de IA produzcan resultados predecibles, confiables y optimizados, los datos utilizados para entrenar el sistema de IA deben ser de suficiente calidad para el uso previsto.

4. Evaluación y gestión de riesgos: Se debe utilizar un enfoque basado en el riesgo para determinar qué riesgos son aceptables y cuáles presentan la posibilidad de un daño inaceptable, o de un daño que tenga costos superiores a los beneficios esperados. En tal sentido, los organismos deben ser transparentes en cuanto a sus evaluaciones de riesgo y reevaluar sus supuestos y conclusiones a intervalos apropiados para fomentar la rendición de cuentas.

5. Beneficios y costos: Como todas las transiciones tecnológicas de esta naturaleza, la introducción de la IA también puede plantear desafíos únicos, por lo que deben evaluarse los beneficios, los costos y los efectos distributivos asociados con cualquier método identificado o esperado de rendición de cuentas (accountability). En los casos en que no se disponga de una comparación con un sistema o proceso actual, también debería evaluarse la evaluación de los riesgos y los costos de no implementar el sistema.

6. Flexibilidad: Las agencias desarrolladoras de sistemas de IA deben buscar enfoques flexibles y basados en el desempeño que puedan adaptarse a los rápidos cambios y actualizaciones de las aplicaciones de IA.

7. Equidad y no discriminación: Si bien las aplicaciones de IA tienen el potencial de reducir la discriminación causada por la subjetividad humana, también pueden, en algunos casos, introducir un sesgo que produzca resultados discriminatorios o generen decisiones que socaven la confianza pública en la IA. Por tanto, las organizaciones desarrolladoras deben considerar de manera transparente el impacto discriminatorio que pueden provocar las soluciones de IA.

8. Divulgación y transparencia: Además de mejorar el proceso de elaboración de normas, la transparencia y la divulgación pueden aumentar la confianza del público en las aplicaciones de la IA. Por ejemplo, dicha divulgación puede incluir la información sobre cuándo se está utilizando la IA, la que debe ser específica para cada contexto, dependiendo de las evaluaciones de los daños potenciales, la magnitud de esos daños, el estado de la técnica y los beneficios potenciales de la aplicación de la IA.

9. Seguridad y protección: Las agencias deben promover el desarrollo de sistemas de IA que sean seguros, estén protegidos y que funcionen según lo previsto, fomentando la importancia de las cuestiones relativas a la seguridad y la protección a lo largo del proceso de diseño, desarrollo, despliegue y operación de la IA. Se añade que los organismos desarrolladores deben prestar especial atención a los controles establecidos para garantizar la confidencialidad, la integridad y la disponibilidad de la información procesada, almacenada y transmitida, así como para garantizar la resiliencia sistémica y evitar que actores maliciosos exploten las deficiencias del sistema.

10. Coordinación entre agencias: Finalmente el documento establece la necesidad de un enfoque coherente, basado en la coordinación interinstitucional. Los organismos deben coordinarse entre sí para compartir experiencias y garantizar la coherencia y previsibilidad de las políticas relacionadas con la IA que fomenten la innovación y el crecimiento de la IA en los Estados Unidos, protegiendo al mismo tiempo de manera adecuada la privacidad, las libertades civiles y los valores estadounidenses, y permitiendo enfoques específicos para cada sector y aplicación cuando sea apropiado.

 

Declaración de Bletchley (Cumbre de Seguridad de la IA en Bletchley Park, llevada a cabo en el Reino Unido, el 1 de noviembre de 2023)

 

La Declaración de Bletchley establece un entendimiento compartido de las oportunidades y riesgos que plantea la inteligencia artificial (IA) de frontera. Fue firmado por 28 países y la Unión Europea en la Cumbre de Seguridad de la IA en Bletchley Park, Reino Unido, el 1 de noviembre de 2023.

 Se trata de uno de los primeros encuentros de alcance global entre países respecto de la IA.

 En la misma se postula que la IA debe diseñarse, desarrollarse, implementarse y utilizarse de forma segura, centrada en el ser humano, fiable y responsable. En tal sentido, suscribe los esfuerzos de la comunidad internacional para cooperar en materia de IA con el fin de promover el crecimiento económico inclusivo, el desarrollo sostenible y la innovación, proteger los derechos humanos y las libertades fundamentales, y fomentar la confianza pública en los sistemas de IA para que alcancen su máximo potencial.

 En tal sentido, se entiende necesario abordar la protección de los derechos humanos, la transparencia y la explicabilidad, la equidad, la rendición de cuentas, la regulación, la seguridad, la supervisión humana adecuada, la ética, la mitigación de sesgos, la privacidad y la protección de datos. También observamos la posibilidad de riesgos imprevistos derivados de la capacidad de manipular contenido o generar contenido engañoso.

 

Declaración de Seúl (Cumbre de IA de Seúl, llevada a cabo los días 21 y 22 de mayo de 2024)

 

La Cumbre de Seúl sobre IA de 2024 fue organizada conjuntamente por los gobiernos de Corea del Sur y el Reino Unido.

 Fue la segunda reunión de este tipo tras la Cumbre de Seguridad de IA celebrada en el Reino Unido en noviembre de 2023.

 

A dicha cumbre asistieron los líderes de los países del Grupo de los Siete, incluidos Estados Unidos, Canadá, Francia y Alemania, Corea del Sur, Singapur y Australia, representantes de las Naciones Unidas, así como la Organización para la Cooperación y el Desarrollo Económicos y la Unión Europea. Pero también estuvieron presentes representantes de empresas globales como el CEO de Tesla , Elon Musk , el presidente de Samsung Electronics , Lee Jae-yong , el fabricante de ChatGPT , OpenAI , Google, Microsoft , Meta y el principal operador de portales de Corea del Sur , Naver.

 

La Declaración de Seúl se adoptó para abordar la tecnología de inteligencia artificial y los desafíos y oportunidades relacionados.

 

En tal sentido, se entendió que los principios para la seguridad de la IA incluyen la transparencia, la interpretabilidad y la explicabilidad; la privacidad y la rendición de cuentas; la supervisión humana significativa, y la gestión y protección eficaces de los datos.

 

En cuanto a la Innovación, se reconoce “la importancia de los enfoques de gobernanza que fomentan la innovación y el desarrollo de los ecosistemas de la industria de la IA con el objetivo de maximizar los beneficios potenciales de la IA para nuestras economías y sociedades. Reconocemos además que el papel de los gobiernos no consiste solo en priorizar la inversión financiera, la I+D y el desarrollo de la fuerza laboral para la innovación en IA, sino también en considerar marcos de gobernanza que incluyan marcos legales e institucionales, incluyendo la protección de datos personales, derechos de autor y otras protecciones de la propiedad intelectual, para el desarrollo y la implementación seguros y confiables de la IA”.

 

Con relación a la inclusividad, se entiende que los beneficios de la IA deben distribuirse equitativamente, adoptando una visión compartida de aprovechar los beneficios de la IA para todos, incluidos los grupos vulnerables, a fin de promover el desarrollo inclusivo de sistemas de IA y el uso de tecnologías de IA seguras y fiables, con el fin de fomentar nuestros valores compartidos y la confianza mutua. “Reconocemos el potencial de la IA para el beneficio de todos, especialmente en la protección de los derechos humanos y las libertades fundamentales, el fortalecimiento de las redes de seguridad social y la protección frente a diversos riesgos, como desastres y accidentes”.

 

En consonancia con dicho objetivo se comprometen a promover la educación en IA, incluyendo el desarrollo de capacidades en sistemas de IA y una mayor alfabetización digital, contribuyendo así a reducir la brecha digital y en IA entre los países y dentro de ellos, así como fortalecer la cooperación internacional en la investigación conjunta y el desarrollo de talento, incluso con países en desarrollo, para mejorar sus capacidades en el diseño, desarrollo y utilización de IA, con diversidad sociocultural y lingüística que se refleje y promueva en el ciclo de vida de la IA: diseño, desarrollo, implementación y uso.

 

Primer Informe Internacional Independiente sobre Seguridad de la IA

El Primer Informe Internacional Independiente sobre Seguridad de la IA se publicó el 29 de enero de 2025. Había sido encargado por las 30 naciones que asistieron a la Cumbre de Seguridad de la IA de 2023 en Bletchley Park , Reino Unido, con el fin de informar el debate en la Cumbre de Acción de la IA de 2025 en París, Francia.  Redactaron el mismo un grupo de 96 expertos en inteligencia artificial liderados por el pionero canadiense del aprendizaje automático Yoshua Bengio.

En lo referente a las capacidades de la IA de propósito general, el informe reconoció que sus capacidades han aumentado rápidamente y que el ritmo de los avances puede variar de lento a extremadamente rápido.

Respecto de los riesgos de la IA, el informe identificó varios daños concretos de la IA, entre ellos la violación de la privacidad; la facilitación de estafas; fallos de funcionamiento debido a una IA poco fiable; y la creación de deepfakes con contenido sexual, que exponen especialmente a las mujeres y los niños a posibles violencia y abusos.

Otros posibles daños incluyen el uso malicioso de la IA para ataques cibernéticos y biológicos, y el riesgo de perder el control de futuros sistemas de IA.

 

Cumbre de Acción sobre IA

La Cumbre de Acción sobre Inteligencia Artificial (IA) se celebró en el Grand Palais de París, del 10 al 11 de febrero de 2025, siendo copresidida por el presidente francés, Emmanuel Macron, y el primer ministro indio, Narendra Modi.

Participaron más de 1000 participantes de más de 100 países, en representación de líderes gubernamentales, organizaciones internacionales, la comunidad académica y de investigación, el sector privado y la sociedad civil.

En la cumbre, 58 países, entre los que no se encuentra Argentina, firmaron en conjunto la Declaración sobre inteligencia artificial inclusiva y sostenible para las personas y el planeta.

En dicho documento se describen principios generales como la accesibilidad y la superación de la brecha digital; el desarrollo de una IA abierta, transparente, ética, segura y fiable; evitar la concentración del mercado en el desarrollo de la IA para fomentar la innovación; resultados positivos para los mercados laborales; lograr que la IA sea sostenible; y promover la cooperación y la gobernanza internacionales.

Estados Unidos y el Reino Unido se negaron a firmar la declaración. El gobierno del Reino Unido dijo en una breve declaración que el acuerdo internacional no era suficiente para definir la gobernanza global de la IA y abordar las preocupaciones sobre su impacto en la seguridad nacional.

 

Principios generales para la IA

Estos son principios que rigen toda utilización de la IA, no solo en la faz administrativa, pero orientan para poder observar cuales son los específicos de esa área: principio de equivalencia del derechos digitales y principio pro homine digital.

 

Principio de equivalencia de derechos digitales

El principio de equivalencia de derechos digitales se refiere a la idea de que los derechos reconocidos en el mundo físico deben tener su equivalente en el entorno digital.

Esto significa que los derechos fundamentales, como la privacidad, la libertad de expresión y la protección de datos, deben garantizarse de la misma manera en el ámbito digital que en el mundo offline.

Este principio se ha aplicado en diversas normativas, como la Ley Orgánica de Protección de Datos Personales y garantía de los derechos digitales en España, que establece que los procedimientos para ejercer derechos digitales deben ser equivalentes a los procedimientos tradicionales.

También se relaciona con el concepto de equivalencia funcional, que otorga a los documentos electrónicos la misma validez jurídica que los documentos en papel.

 

El principio "pro homine digital"

El principio "pro homine" con un enfoque "digital", se refiere a su aplicación en contextos tecnológicos y digitales.

Apunta el mismo a garantizar que las normas y políticas relacionadas con internet, el uso masivo e informático de datos, de la inteligencia artificial, entre otros, se interpreten y apliquen de manera que prioricen la dignidad, los derechos y el bienestar de las personas por encima de otros intereses, como los económicos o tecnológicos.

Aunque el concepto de "pro homine digital" se halle tan en desarrollo como la dimensión digital misma, en su núcleo duro se persigue asegurar, en la generalidad de los casos, que las tecnologías y las normativas relacionadas con el entorno digital prioricen el bienestar, la privacidad y los derechos de las personas.

Esto implica asegurar, además, el acceso equitativo a la tecnología, proteger los datos personales y fomentar un uso ético y sustentable de la inteligencia artificial.

 

Posibles principios de empleo específicos para el derecho administrativo

En tal sentido, una de las formulaciones más seguidas en la materia, respecto de los principios que deben observarse, es la Recomendación sobre la Ética de la Inteligencia Artificial de la Organización de Naciones Unidas (ONU).

Las hemos adaptado a la esfera de lo administrativo.

•             Proporcionalidad e inocuidad. En caso de que pueda producirse por un determinado sistema cualquier daño para los administrados, debe garantizarse la aplicación de procedimientos previos de evaluación de riesgos y la adopción de medidas para impedir que ese daño se produzca.

•             Seguridad y protección. Los daños no deseados (riesgos de seguridad) y las vulnerabilidades a los ataques (riesgos de protección) deben ser evitados y deben tenerse en cuenta, prevenirse y eliminarse durante el ciclo de vida de los sistemas de IA para garantizar la seguridad y la protección de los seres humanos, del medio ambiente y de los ecosistemas. Esto pues los sistemas de IA son una “cosa riesgosa” en los términos del art. del CCyC.

•             Equidad y no discriminación. En razón de los sesgos algorítmicos, el uso debe promover la diversidad y la inclusión, garantizar la igualdad de oportunidades, proteger la equidad y luchar contra todo tipo de discriminación.

•             Supervisión y decisión humanas. Puede cederse el control a los sistemas de IA en contextos limitados, pero asegurando la responsabilidad final de los seres humanos y su obligación de rendir cuentas. Esto es un imperativo constitucional ya que la última instancia de la labor administrativa debe quedar en una decisión humana y política de funcionarios de gobiernos electos por el pueblo o nombrados conforme ley por uno electo por el pueblo.

•             Transparencia y explicabilidad. La administración debe brindar información sobre los sistemas de IA que emplea y los administrados deben tener la oportunidad de pedir explicaciones e información al responsable de la IA o a las instituciones del sector público correspondientes. Esto se relaciona con la opacidad de los sistemas de IA.

•             Sensibilización y educación. Debe establecerse y promoverse, desde la actividad administrativa, la participación cívica digital, las competencias digitales y la capacitación en materia de ética del uso de la IA.


 A modo de cierre

Como puede verse, el tópico de la IA es vasto y en construcción, pero ya sus efectos sobre la diaria desbordan el ámbito digital para empezar a mostrarse con una velocidad no vista antes en la historia para un fenómeno tecnológico.

Ya se usa tanto en la Administración Pública, como en los procesos judiciales, con especial hincapié en los desarrollos actualmente en curso en la provincia de Córdoba. 

¿Inteligencia sin errores?

“Si se espera que una maquina sea infalible, tampoco puede ser inteligente”, expresó Alan Turing. Uno no es realmente inteligente si no aprende de sus errores. La cuestión, en materia de IA es con quien van a errar. Sobre todo, en la utilización en la Administración Pública.

 ¿Es realmente artificial la IA?

Stephen Hawking y Leonard Mlodinow en su libro El Gran Diseño (2010; pp. 20/1) expresan:

“Como vivimos e interaccionamos con los otros objetos del universo, el determinismo científico debe cumplirse también para las personas. Muchos, sin embargo, aunque acepten que el determinismo científico rige los procesos físicos, harían una excepción para el comportamiento humano, ya que creen que tienen libre albedrío (…) ¿Tenemos libre albedrío? Si lo tenemos, ¿en qué punto del árbol de la evolución se desarrolló? ¿Tienen libre albedrío las algas verdes o las bacterias, o su comportamiento es automático, dentro del reino de las leyes científicas? (…) Aunque sentimos que podemos escoger lo que hacemos, nuestra comprensión de las bases moleculares de la biología demuestra que los procesos biológicos están regidos por las leyes de la física y la química y que, por lo tanto, están tan determinados como las órbitas planetarias. (…) Aunque concedamos que el comportamiento humano está efectivamente determinado por las leyes de la naturaleza, también parece razonable concluir que el resultado final está determinado de una manera tan complicada y con tantas variables que resulta imposible, en la práctica, predecirlo. Para ello se necesitaría conocer el estado inicial de miles de billones de billones de partículas del cuerpo humano y resolver un número parecido de ecuaciones”.

Si en realidad nuestro libre albedrío no es más que un gigantesco algoritmo biológico que toma nuestras decisiones, ¿Por qué no tendría capacidad en términos jurídicos un programa que tenga una autonomía avanzada en sus decisiones?

 Lo antes desarrollado resulta una muestra acabada, en lo que nos ocupa, de los debates y modificaciones jurídicas que puede propiciar el desarrollo de la IA a un futuro que quizás no sea tan lejano. Y como toda línea de pensamiento en desarrollo, resulta difícil de arribar a conclusiones definitivas al respecto. 

 ¿Cómo deberían ser las regulaciones de la IA? ¿De qué modo se podrían mitigar y aliviar los aspectos negativos del avance de la IA? ¿Qué normativa resguardaría en la mejor forma su potencial de innovación y progreso? ¿Cuáles son los principios que deben aplicarse a esta tecnología? ¿Cuál es el marco legal más apropiado para evitar riesgos inesperados?

 Esas son las preguntas principales a la hora de pensar una regulación respecto de la IA. 


(Disertación brindada el 9 de junio de 2025 en el Instituto de Derecho Administrativo “Dr. Félix Sarría” de la Facultad de Derecho de la Universidad Nacional de Córdoba.)


Para leer más sobre derecho y tecnología en el blog.


La digitalización administrativa

Los robots domésticos y el derecho

El contrato de influencer

El entorno digital en las plataformas procesales


Noticia del autor: Abogado (U.N.C.). Profesor con orientación en Derecho. Doctor en Ciencias Jurídicas (U.C.A.). Especialista en Derecho Aeronáutico y Espacial. Especialista en Derecho de los Conflictos Armados y Derecho Internacional Humanitario. Docente universitario de grado y postgrado. Autor de una veinte de textos sobre derecho público y procesal. Miembro del Instituto de Derecho Administrativo de la Facultad de Derecho y Ciencias Sociales de la Universidad Nacional de Córdoba. Miembro del Instituto de Historia del Derecho y de las Ideas Políticas Roberto Peña de la Academia Nacional de Derecho y Ciencias Sociales de Córdoba. Mención Especial premio “Joven Jurista 2001” de la Academia de Derecho y Ciencias Sociales de Córdoba. Premio "Diez Jóvenes Sobresalientes del año” de la Bolsa de Comercio de Córdoba (2004). Distinción “Reconocimiento docente”, E.S.G.A, 2005. Reconocimiento al desempeño y dedicación, Escuela de Práctica Jurídica del Colegio de Abogados de Córdoba, 2013. Reconocimiento a la trayectoria en las letras y como autor de textos jurídicos por la Legislatura de la Provincia de Córdoba, 2021.


 



Lo más leído