Principios de la AI en el derecho administrativo
Introito
Sabemos que existe una conexión no menor entre las normas jurídicas y el avance tecnológico. Es algo que se ha dado en todos los tiempos y que también lleva aparejado el actual desarrollo de la Inteligencia Artificial (IA). Se trata de un vínculo de doble sentido, en donde el avance tecnológico promueve a la formación de nuevas normas jurídicas, las que a su vez inciden en la forma de expandirse de la IA.
Dicha estructura normativa debe
contener criterios y normas que proporcionen flexibilidad al sistema jurídico
ante un avance que todavía no determina sus fronteras y que sirva de marco
general al desarrollo normativo que la IA requiere.
Hay quienes entienden que existe en
dicha tarea el peligro de legislar palabras en lugar de hechos. O, peor aún, de
regular sin un conocimiento preciso de lo que es y sus implicancias, guiándose
por prejuicios.
Concepto de la IA
Al igual que la propia inteligencia
humana, la IA resulta un concepto complejo de definir. Presenta
demasiadas dimensiones y aún más perspectivas de desarrollo como para contar
con una base fáctica establecida sobre la cual construirlo. Por ello, no existe
todavía una definición formal y universalmente aceptada.
Es por eso que el primer reto que
tiene la doctrina con respecto a los campos de la Inteligencia Artificial es su
delimitación, la consideración de un concepto unánime del que se desprendan las
características básicas o necesarias para hablar de IA y que podamos tener como
base o de común.
En tal sentido, La UNESCO definió a la
Inteligencia Artificial (IA) como “máquinas capaces de imitar ciertas
funcionalidades de la inteligencia humana incluyendo la percepción, el
aprendizaje, el razonamiento, la resolución de problemas, la interacción del
lenguaje e incluso la producción creativa”.
En el sistema legal de Estados Unidos el concepto de IA se halla establecido
por un documento federal, de carácter fiscal, de agosto de 2018 (Section 238
(g) of the John S. McCain National Defense Authorization Act for Fiscal Year
2019, codified at 10 U.S.C. § 2358, note), según el cual se entiende por esta
tecnología:
1) Cualquier sistema
artificial que realice tareas en circunstancias variables e impredecibles sin
una supervisión humana significativa, o que pueda aprender de la experiencia y
mejorar el rendimiento cuando se exponga a conjuntos de datos.
2) Un sistema de
software, hardware físico u otro contexto que resuelve tareas que requieren
percepción, cognición, planificación, aprendizaje, comunicación o acción física
de tipo humano.
3) Un sistema
artificial diseñado para pensar o actuar como un humano, incluyendo
arquitecturas cognitivas y redes neuronales.
4) Un conjunto de
técnicas, incluido el aprendizaje automático (machine learnign), que está
diseñado para aproximarse a una tarea cognitiva.
5) Un sistema
artificial diseñado para actuar racionalmente, incluyendo un agente inteligente
de software o un robot incorporado que logra objetivos usando la percepción, la
planificación, el razonamiento, el aprendizaje, la comunicación, la toma de
decisiones y la actuación.
La Comisión Europea, por su parte, la
define como sistemas de software (y posiblemente también de hardware) diseñados
por humanos que, ante un objetivo complejo, actúan en la dimensión física o
digital:
· Percibiendo su entorno, a través de la adquisición e interpretación de datos estructurados o no estructurados.
· Razonando sobre el conocimiento, procesando la información derivada de estos datos y decidiendo las mejores acciones para lograr el objetivo dado.
Esta noción es una de las más completas y precisas que se manejan en el presente, pues no solo describe de forma adecuada sus rasgos principales, sino que también no se cierra sobre el presente, conceptualizando con la necesaria flexibilidad para dar cabida nuevos desarrollos de la IA.
Características
específicas
Podemos conceptualizar
las principales características específicas de la inteligencia artificial (IA)
en las siguientes:
1) Opacidad: La
opacidad se refiere a la dificultad para comprender cómo una IA llega a sus
decisiones o resultados. En modelos complejos como redes neuronales profundas,
las operaciones internas se vuelven como una "caja negra". Aunque los
datos y algoritmos son programados por humanos, interpretar cómo ciertas
entradas generan determinadas salidas no siempre es obvio. Esto plantea
desafíos éticos y prácticos, especialmente en áreas sensibles como la medicina
o el derecho.
2) Complejidad: La IA
abarca una vasta gama de técnicas que incluyen aprendizaje profundo,
aprendizaje automático, redes neuronales, procesamiento de lenguaje natural,
entre otros. Esto implica que su desarrollo y funcionamiento requiere
conocimientos avanzados en matemáticas, estadística y ciencias de la
computación. A medida que las aplicaciones crecen, también lo hace la necesidad
de infraestructuras tecnológicas más potentes.
3) Dependencia de
Datos: La IA depende completamente de los datos para aprender, entrenar y
operar. Los algoritmos necesitan cantidades masivas de datos precisos, diversos
y bien estructurados para ser efectivos. Sin datos, una IA no puede funcionar
correctamente. Además, la calidad de los resultados está directamente vinculada
a la calidad y representatividad de los datos utilizados.
4) Comportamiento
Autónomo: Una IA autónoma tiene la capacidad de tomar decisiones y realizar
tareas de manera independiente, basándose en patrones aprendidos de los datos.
Aunque esto mejora la eficiencia y automatización, también presenta desafíos
éticos. Por ejemplo, ¿quién es responsable si una decisión autónoma de la IA
resulta perjudicial?
Apreciadas en su
conjunto, estas características revelan el potencial de la IA, pero también
resaltan la necesidad de transparencia, una adecuada regulación y una adecuada
supervisión humana.
Aspectos de su regulación en el
derecho administrativo
Algunas de las
cuestiones más relevantes que los desarrollos de IA plantean al derecho
administrativo incluyen:
En dicho sentido, la regulación de la inteligencia artificial en el derecho administrativo debe apuntar a equilibrar la innovación tecnológica con la protección de los derechos de los administrados. Algunos aspectos clave incluyen:
- Transparencia algorítmica: Se exige que los empleadores informen a
los trabajadores sobre cómo los algoritmos afectan sus condiciones
laborales.
- Protección contra sesgos: La IA utilizada en procesos de
contratación y gestión laboral debe evitar discriminaciones y garantizar
equidad.
- Adaptación de normativas y control humano: En algunos países, como España, se han
implementado regulaciones específicas para el trabajo en plataformas
digitales y el control humano sobre los algoritmos.
- Derechos de acceso y uso: La IA está transformando la actividad
pública, eliminando trámites presenciales y con gestión humana directa,
por lo que los nuevos canales no pueden incidir en la brecha digital ni requerir
habilidades digitales superiores al promedio.
“Memorandum for the heads of Executive
Departments and Agencies”, en Executive Order 13859
Los diez principios del documento, que brinda las pautas
mandatorias para la actuación de las agencias federales de los Estados Unidos
en materia de IA, son los siguientes:
1. Confianza del público en la IA: Como la IA puede tener tanto aspectos positivos como negativos, se considera
en primer lugar relevante que se promuevan aplicaciones fiables, robustas y
dignas de confianza por la ciudadanía.
2. Participación pública: La misma, particularmente en aquellos casos en que IA utilice
información sobre las personas, servirá para mejorar la posible regulación que
se establezca, en particular, mejorando la definición de los criterios de
responsabilidad de las agencias desarrolladoras, aumentando así la confianza
pública en la materia. Por tanto, las agencias federales deben ofrecer amplias
posibilidades para que, con un alcance nacional, el público tenga oportunidad
de participación sobre aspectos no esenciales de la tecnología que los afecten.
3. Integridad científica y calidad de la
información: Los desarrollos de IA
deben realizarse a partir de una debida información de los procesos científicos
y técnicos aplicables, debiendo actuar las agencias para que las aplicaciones
de IA produzcan resultados predecibles, confiables y optimizados, los datos
utilizados para entrenar el sistema de IA deben ser de suficiente calidad para
el uso previsto.
4. Evaluación y gestión de riesgos: Se debe utilizar un enfoque basado en el riesgo para determinar qué
riesgos son aceptables y cuáles presentan la posibilidad de un daño
inaceptable, o de un daño que tenga costos superiores a los beneficios
esperados. En tal sentido, los organismos deben ser transparentes en cuanto a
sus evaluaciones de riesgo y reevaluar sus supuestos y conclusiones a
intervalos apropiados para fomentar la rendición de cuentas.
5. Beneficios y costos:
Como todas las transiciones tecnológicas de esta naturaleza, la introducción de
la IA también puede plantear desafíos únicos, por lo que deben evaluarse los
beneficios, los costos y los efectos distributivos asociados con cualquier
método identificado o esperado de rendición de cuentas (accountability).
En los casos en que no se disponga de una comparación con un sistema o proceso
actual, también debería evaluarse la evaluación de los riesgos y los costos de
no implementar el sistema.
6. Flexibilidad: Las
agencias desarrolladoras de sistemas de IA deben buscar enfoques flexibles y
basados en el desempeño que puedan adaptarse a los rápidos cambios y
actualizaciones de las aplicaciones de IA.
7. Equidad y no discriminación: Si bien las aplicaciones de IA tienen el potencial de reducir la
discriminación causada por la subjetividad humana, también pueden, en algunos
casos, introducir un sesgo que produzca resultados discriminatorios o generen
decisiones que socaven la confianza pública en la IA. Por tanto, las
organizaciones desarrolladoras deben considerar de manera transparente el
impacto discriminatorio que pueden provocar las soluciones de IA.
8. Divulgación y transparencia: Además de mejorar el proceso de elaboración de normas, la transparencia
y la divulgación pueden aumentar la confianza del público en las aplicaciones
de la IA. Por ejemplo, dicha divulgación puede incluir la información sobre
cuándo se está utilizando la IA, la que debe ser específica para cada contexto,
dependiendo de las evaluaciones de los daños potenciales, la magnitud de esos
daños, el estado de la técnica y los beneficios potenciales de la aplicación de
la IA.
9. Seguridad y protección: Las agencias deben promover el desarrollo de sistemas de IA que sean
seguros, estén protegidos y que funcionen según lo previsto, fomentando la
importancia de las cuestiones relativas a la seguridad y la protección a lo
largo del proceso de diseño, desarrollo, despliegue y operación de la IA. Se
añade que los organismos desarrolladores deben prestar especial atención a los
controles establecidos para garantizar la confidencialidad, la integridad y la
disponibilidad de la información procesada, almacenada y transmitida, así como
para garantizar la resiliencia sistémica y evitar que actores maliciosos
exploten las deficiencias del sistema.
10. Coordinación entre agencias: Finalmente el documento establece la necesidad de un enfoque coherente,
basado en la coordinación interinstitucional. Los organismos deben coordinarse
entre sí para compartir experiencias y garantizar la coherencia y
previsibilidad de las políticas relacionadas con la IA que fomenten la
innovación y el crecimiento de la IA en los Estados Unidos, protegiendo al
mismo tiempo de manera adecuada la privacidad, las libertades civiles y los
valores estadounidenses, y permitiendo enfoques específicos para cada sector y
aplicación cuando sea apropiado.
Declaración de Bletchley (Cumbre de
Seguridad de la IA en Bletchley Park, llevada a cabo en el Reino Unido, el 1 de
noviembre de 2023)
La Declaración de Bletchley establece un
entendimiento compartido de las oportunidades y riesgos que plantea la
inteligencia artificial (IA) de frontera. Fue firmado por 28 países y la Unión
Europea en la Cumbre de Seguridad de la IA en Bletchley Park, Reino Unido, el 1
de noviembre de 2023.
Declaración de Seúl (Cumbre de IA de Seúl,
llevada a cabo los días 21 y 22 de mayo de 2024)
La Cumbre de Seúl sobre IA de 2024 fue
organizada conjuntamente por los gobiernos de Corea del Sur y el Reino Unido.
A dicha cumbre asistieron los líderes de
los países del Grupo de los Siete, incluidos Estados Unidos, Canadá, Francia y
Alemania, Corea del Sur, Singapur y Australia, representantes de las Naciones
Unidas, así como la Organización para la Cooperación y el Desarrollo Económicos
y la Unión Europea. Pero también estuvieron presentes representantes de
empresas globales como el CEO de Tesla , Elon Musk , el presidente de Samsung
Electronics , Lee Jae-yong , el fabricante de ChatGPT , OpenAI , Google,
Microsoft , Meta y el principal operador de portales de Corea del Sur , Naver.
La Declaración de Seúl se adoptó para
abordar la tecnología de inteligencia artificial y los desafíos y oportunidades
relacionados.
En tal sentido, se entendió que los
principios para la seguridad de la IA incluyen la transparencia, la
interpretabilidad y la explicabilidad; la privacidad y la rendición de cuentas;
la supervisión humana significativa, y la gestión y protección eficaces de los
datos.
En cuanto a la Innovación, se reconoce “la
importancia de los enfoques de gobernanza que fomentan la innovación y el
desarrollo de los ecosistemas de la industria de la IA con el objetivo de
maximizar los beneficios potenciales de la IA para nuestras economías y
sociedades. Reconocemos además que el papel de los gobiernos no consiste solo
en priorizar la inversión financiera, la I+D y el desarrollo de la fuerza
laboral para la innovación en IA, sino también en considerar marcos de
gobernanza que incluyan marcos legales e institucionales, incluyendo la
protección de datos personales, derechos de autor y otras protecciones de la
propiedad intelectual, para el desarrollo y la implementación seguros y
confiables de la IA”.
Con relación a la inclusividad, se
entiende que los beneficios de la IA deben distribuirse equitativamente,
adoptando una visión compartida de aprovechar los beneficios de la IA para
todos, incluidos los grupos vulnerables, a fin de promover el desarrollo
inclusivo de sistemas de IA y el uso de tecnologías de IA seguras y fiables,
con el fin de fomentar nuestros valores compartidos y la confianza mutua. “Reconocemos
el potencial de la IA para el beneficio de todos, especialmente en la
protección de los derechos humanos y las libertades fundamentales, el
fortalecimiento de las redes de seguridad social y la protección frente a
diversos riesgos, como desastres y accidentes”.
En consonancia con dicho objetivo se
comprometen a promover la educación en IA, incluyendo el desarrollo de
capacidades en sistemas de IA y una mayor alfabetización digital, contribuyendo
así a reducir la brecha digital y en IA entre los países y dentro de ellos, así
como fortalecer la cooperación internacional en la investigación conjunta y el
desarrollo de talento, incluso con países en desarrollo, para mejorar sus
capacidades en el diseño, desarrollo y utilización de IA, con diversidad
sociocultural y lingüística que se refleje y promueva en el ciclo de vida de la
IA: diseño, desarrollo, implementación y uso.
Primer Informe Internacional Independiente
sobre Seguridad de la IA
El Primer Informe
Internacional Independiente sobre Seguridad de la IA se publicó el 29 de enero
de 2025. Había sido encargado por las 30 naciones que asistieron a la Cumbre de
Seguridad de la IA de 2023 en Bletchley Park , Reino Unido, con el fin de
informar el debate en la Cumbre de Acción de la IA de 2025 en París, Francia. Redactaron el mismo un grupo de 96 expertos en
inteligencia artificial liderados por el pionero canadiense del aprendizaje
automático Yoshua Bengio.
En lo referente a
las capacidades de la IA de propósito general, el informe reconoció que sus
capacidades han aumentado rápidamente y que el ritmo de los avances puede
variar de lento a extremadamente rápido.
Respecto de los riesgos
de la IA, el informe identificó varios daños concretos de la IA, entre ellos la
violación de la privacidad; la facilitación de estafas; fallos de
funcionamiento debido a una IA poco fiable; y la creación de deepfakes con
contenido sexual, que exponen especialmente a las mujeres y los niños a
posibles violencia y abusos.
Otros posibles daños
incluyen el uso malicioso de la IA para ataques cibernéticos y biológicos, y el
riesgo de perder el control de futuros sistemas de IA.
Cumbre de Acción sobre IA
La Cumbre de Acción
sobre Inteligencia Artificial (IA) se celebró en el Grand Palais de París, del
10 al 11 de febrero de 2025, siendo copresidida por el presidente francés,
Emmanuel Macron, y el primer ministro indio, Narendra Modi.
Participaron más de
1000 participantes de más de 100 países, en representación de líderes
gubernamentales, organizaciones internacionales, la comunidad académica y de
investigación, el sector privado y la sociedad civil.
En la cumbre, 58
países, entre los que no se encuentra Argentina, firmaron en conjunto la
Declaración sobre inteligencia artificial inclusiva y sostenible para las
personas y el planeta.
En dicho documento
se describen principios generales como la accesibilidad y la superación de la
brecha digital; el desarrollo de una IA abierta, transparente, ética, segura y
fiable; evitar la concentración del mercado en el desarrollo de la IA para fomentar
la innovación; resultados positivos para los mercados laborales; lograr que la
IA sea sostenible; y promover la cooperación y la gobernanza internacionales.
Estados Unidos y el
Reino Unido se negaron a firmar la declaración. El gobierno del Reino Unido
dijo en una breve declaración que el acuerdo internacional no era suficiente
para definir la gobernanza global de la IA y abordar las preocupaciones sobre
su impacto en la seguridad nacional.
Principios generales para la IA
Estos son principios
que rigen toda utilización de la IA, no solo en la faz administrativa, pero
orientan para poder observar cuales son los específicos de esa área: principio
de equivalencia del derechos digitales y principio pro homine digital.
Principio de equivalencia de derechos digitales
El principio de
equivalencia de derechos digitales se refiere a la idea de que los derechos
reconocidos en el mundo físico deben tener su equivalente en el entorno
digital.
Esto significa que
los derechos fundamentales, como la privacidad, la libertad de expresión y la
protección de datos, deben garantizarse de la misma manera en el ámbito digital
que en el mundo offline.
Este principio se
ha aplicado en diversas normativas, como la Ley Orgánica de Protección de Datos
Personales y garantía de los derechos digitales en España, que establece que
los procedimientos para ejercer derechos digitales deben ser equivalentes a los
procedimientos tradicionales.
También se
relaciona con el concepto de equivalencia funcional, que otorga a los
documentos electrónicos la misma validez jurídica que los documentos en papel.
El principio "pro homine digital"
El principio "pro homine" con un enfoque "digital",
se refiere a su aplicación en contextos tecnológicos y digitales.
Apunta el mismo a garantizar que las normas y políticas relacionadas con
internet, el uso masivo e informático de datos, de la inteligencia artificial,
entre otros, se interpreten y apliquen de manera que prioricen la dignidad, los
derechos y el bienestar de las personas por encima de otros intereses, como los
económicos o tecnológicos.
Aunque el concepto de "pro homine digital" se halle tan en
desarrollo como la dimensión digital misma, en su núcleo duro se persigue
asegurar, en la generalidad de los casos, que las tecnologías y las normativas
relacionadas con el entorno digital prioricen el bienestar, la privacidad y los
derechos de las personas.
Esto implica asegurar, además, el acceso equitativo a la tecnología,
proteger los datos personales y fomentar un uso ético y sustentable de la
inteligencia artificial.
Posibles principios
de empleo específicos para el derecho administrativo
En tal sentido, una de las formulaciones más seguidas en la materia,
respecto de los principios que deben observarse, es la Recomendación sobre la
Ética de la Inteligencia Artificial de la Organización de Naciones Unidas
(ONU).
Las hemos adaptado a la esfera de lo administrativo.
• Proporcionalidad e inocuidad.
En caso de que pueda producirse por un determinado sistema cualquier daño para
los administrados, debe garantizarse la aplicación de procedimientos previos de
evaluación de riesgos y la adopción de medidas para impedir que ese daño se
produzca.
• Seguridad y protección. Los
daños no deseados (riesgos de seguridad) y las vulnerabilidades a los ataques
(riesgos de protección) deben ser evitados y deben tenerse en cuenta,
prevenirse y eliminarse durante el ciclo de vida de los sistemas de IA para
garantizar la seguridad y la protección de los seres humanos, del medio
ambiente y de los ecosistemas. Esto pues los sistemas de IA son una “cosa
riesgosa” en los términos del art. del CCyC.
• Equidad y no discriminación.
En razón de los sesgos algorítmicos, el uso debe promover la diversidad y la
inclusión, garantizar la igualdad de oportunidades, proteger la equidad y
luchar contra todo tipo de discriminación.
• Supervisión y decisión humanas.
Puede cederse el control a los sistemas de IA en contextos limitados, pero
asegurando la responsabilidad final de los seres humanos y su obligación de
rendir cuentas. Esto es un imperativo constitucional ya que la última instancia
de la labor administrativa debe quedar en una decisión humana y política de
funcionarios de gobiernos electos por el pueblo o nombrados conforme ley por
uno electo por el pueblo.
• Transparencia y explicabilidad.
La administración debe brindar información sobre los sistemas de IA que emplea
y los administrados deben tener la oportunidad de pedir explicaciones e
información al responsable de la IA o a las instituciones del sector público
correspondientes. Esto se relaciona con la opacidad de los sistemas de IA.
• Sensibilización y educación.
Debe establecerse y promoverse, desde la actividad administrativa, la
participación cívica digital, las competencias digitales y la capacitación en
materia de ética del uso de la IA.
A modo de cierre
Como puede verse, el tópico de la IA es vasto y en construcción, pero ya
sus efectos sobre la diaria desbordan el ámbito digital para empezar a
mostrarse con una velocidad no vista antes en la historia para un fenómeno
tecnológico.
Ya se usa tanto en la Administración Pública, como en los procesos
judiciales, con especial hincapié en los desarrollos actualmente en curso en la
provincia de Córdoba.
¿Inteligencia sin errores?
“Si se espera que una maquina sea infalible, tampoco puede ser
inteligente”, expresó Alan Turing. Uno no es realmente inteligente si no aprende de sus errores. La cuestión, en materia de IA es con quien van
a errar. Sobre todo, en la utilización en la Administración Pública.
¿Es realmente artificial la IA?
Stephen Hawking y Leonard Mlodinow en su libro
El Gran Diseño (2010; pp. 20/1) expresan:
“Como vivimos e interaccionamos con los otros objetos del universo, el
determinismo científico debe cumplirse también para las personas. Muchos, sin
embargo, aunque acepten que el determinismo científico rige los procesos
físicos, harían una excepción para el comportamiento humano, ya que creen que
tienen libre albedrío (…) ¿Tenemos libre albedrío? Si lo tenemos, ¿en qué punto
del árbol de la evolución se desarrolló? ¿Tienen libre albedrío las algas
verdes o las bacterias, o su comportamiento es automático, dentro del reino de
las leyes científicas? (…) Aunque sentimos que podemos escoger lo que hacemos,
nuestra comprensión de las bases moleculares de la biología demuestra que los
procesos biológicos están regidos por las leyes de la física y la química y que,
por lo tanto, están tan determinados como las órbitas planetarias. (…) Aunque
concedamos que el comportamiento humano está efectivamente determinado por las
leyes de la naturaleza, también parece razonable concluir que el resultado
final está determinado de una manera tan complicada y con tantas variables que
resulta imposible, en la práctica, predecirlo. Para ello se necesitaría conocer
el estado inicial de miles de billones de billones de partículas del cuerpo
humano y resolver un número parecido de ecuaciones”.
Si en realidad nuestro libre albedrío
no es más que un gigantesco algoritmo biológico que toma nuestras decisiones,
¿Por qué no tendría capacidad en términos jurídicos un programa que tenga una
autonomía avanzada en sus decisiones?
Lo antes desarrollado resulta una muestra acabada, en lo que nos ocupa, de los debates y modificaciones jurídicas que puede propiciar el desarrollo de la IA a un futuro que quizás no sea tan lejano. Y como toda línea de pensamiento en desarrollo, resulta difícil de arribar a conclusiones definitivas al respecto.
¿Cómo deberían ser las regulaciones de la IA? ¿De qué modo se podrían mitigar y aliviar los aspectos negativos del avance de la IA? ¿Qué normativa resguardaría en la mejor forma su potencial de innovación y progreso? ¿Cuáles son los principios que deben aplicarse a esta tecnología? ¿Cuál es el marco legal más apropiado para evitar riesgos inesperados?
Esas son las preguntas principales a la hora de pensar una regulación respecto de la IA.
(Disertación brindada el 9 de junio de 2025 en el Instituto de Derecho Administrativo “Dr. Félix Sarría” de la Facultad de Derecho de la Universidad Nacional de Córdoba.)
Para leer más sobre derecho y tecnología en el blog.
La digitalización administrativa
Los robots domésticos y el derecho
El entorno digital en las plataformas procesales
Noticia del autor: Abogado (U.N.C.). Profesor con orientación en Derecho. Doctor en Ciencias Jurídicas (U.C.A.). Especialista en Derecho Aeronáutico y Espacial. Especialista en Derecho de los Conflictos Armados y Derecho Internacional Humanitario. Docente universitario de grado y postgrado. Autor de una veinte de textos sobre derecho público y procesal. Miembro del Instituto de Derecho Administrativo de la Facultad de Derecho y Ciencias Sociales de la Universidad Nacional de Córdoba. Miembro del Instituto de Historia del Derecho y de las Ideas Políticas Roberto Peña de la Academia Nacional de Derecho y Ciencias Sociales de Córdoba. Mención Especial premio “Joven Jurista 2001” de la Academia de Derecho y Ciencias Sociales de Córdoba. Premio "Diez Jóvenes Sobresalientes del año” de la Bolsa de Comercio de Córdoba (2004). Distinción “Reconocimiento docente”, E.S.G.A, 2005. Reconocimiento al desempeño y dedicación, Escuela de Práctica Jurídica del Colegio de Abogados de Córdoba, 2013. Reconocimiento a la trayectoria en las letras y como autor de textos jurídicos por la Legislatura de la Provincia de Córdoba, 2021.