Jornada de profesores de derecho e inteligencia artificial

Jornada de Derecho e Inteligencia Artificial en la Universidad Isabel I.

23 de noviembre de 2023. Analizar el impacto de la inteligencia artificial (IA) en las distintas ramas de estudio de las ciencias jurídicas es el objetivo de este webinar en el que han participado un grupo de profesores de la Facultad de Ciencias Jurídicas y Económicas de la Universidad Isabel I, y el profesor Ángel María Ballesteros, de la Universidad Pablo de Olavide.

José Manuel López Jiménez, Decano de las Facultades de Ciencias Jurídicas y Económicas y de Criminología ha liderado la jornada, destacando la creciente relevancia de la IA en la academia y la investigación jurídica. “Queremos enfocarlo desde las principales ramas del derecho, con aspectos tan relevantes como la IA en las instituciones, la regulación, el derecho ambiental o los vehículos autónomos. La IA cada vez se convierte en una parte más del enfoque académico o investigador de los docentes universitarios”, explicó el Decano.

La profesora Marina Martín Moro, docente de la Universidad Isabel I, ha sido la moderadora de la jornada, señalando el aumento de la IA en los diferentes campos del conocimiento.

LA IA en el Derecho Medioambiental

Ester Renedo Santamaría, Profesora de Derecho Administrativo de la Universidad Isabel I, abordó el uso e implantación de la inteligencia artificial en el Derecho Medioambiental. La docente habló del uso de la IA, tanto en la administración de justicia, como en la administración pública, y de su implementación para agilizar los procesos judiciales empleando los árboles de decisión y así evitar la opacidad del Deep Learning.

La profesora, experta en derecho administrativo, destacó la importancia de considerar el derecho medioambiental como un derecho humano de primera generación, proponiendo así la creación de un tribunal supranacional, un conjunto de reglas comunes y el aumento de la responsabilidad colectiva. Respecto del derecho administrativo, la profesora Renedo explicó cómo la IA podía implementarse en el procedimiento administrativo común y como administraciones públicas como el Ministerio de Hacienda o el Ministerio de Transición Ecológica y Medioambiente ya empleaban la IA en sus procesos.  

La profesora Renedo Santamaría planteó la idea de un “Derecho artificial” que no correspondería ni al Derecho Público ni al Derecho Privado pero que estaría presente en las ramas clásicas del ordenamiento jurídico. La jornada buscó integrar la IA como herramienta clave en proyectos académicos e investigaciones en el ámbito jurídico.

IA y Justicia digital en la UE

Ronan Ciréfice, Profesor de Derecho de la Unión Europea en la Universidad Isabel I, abordó el tema del uso de la inteligencia artificial en materia de justicia digital en la UE. Destacó la relevancia estratégica de la IA en el siglo XXI y su potencial para contribuir significativamente a la economía mundial, citando estimaciones de hasta 15 millones de dólares para 2030.

La digitalización de la justicia en la UE plantea retos y desafíos”, indicó.  El profesor Ciréfice mencionó ejemplos globales de aplicaciones prácticas de la IA en el ámbito legal, como Prometea, que predice soluciones judiciales en segundos con alta precisión. Enfatizó que, a pesar de la escasa digitalización actual en la UE en comparación con otros países, existe una voluntad de adoptar la IA para mejorar la eficiencia judicial.

En el contexto europeo, el objetivo es utilizar la IA para apoyar a jueces y personal judicial, acelerar los procedimientos y mejorar la calidad de las resoluciones. El ponente resaltó los beneficios de la IA en áreas complejas como el análisis de información, transcripción automática, traducción, evaluación de documentos jurídicos y estimación de la probabilidad de éxito en los procedimientos.

Hay que colocar a la persona en el centro del desarrollo de la IA, con el fin de generar confianza y garantizar un elevado nivel de protección de los datos”, subrayó, enfocándose en generar confianza, proteger datos y cumplir con principios éticos. Para ello, los requisitos esenciales se centrarían en la intervención y supervisión humana; solidez y seguridad técnicas; privacidad y gestión de datos; transparencia; diversidad y equidad; bienestar social y medioambiental; y redición de cuentas, entre otros.

La IA y el blanqueo de capitales

Harry Clavijo Suntura, Profesor de Derecho Civil de la Universidad Isabel I, ofreció una exposición sobre el uso de la inteligencia artificial como medida preventiva contra el blanqueo de capitales en el ámbito financiero. Se centró en la identificación de las personas físicas o jurídicas, especialmente en aquellas que buscan obtener beneficios ilícitos en las entidades financieras. Como ejemplo, los lectores de pasaporte deben programarse y, a nivel internacional, se pueden generar “falsos homónimos” no pudiéndose autentificar hasta el momento, con la tecnología existente, los distintos documentos (DNI, Pasaporte…) de una persona.

El profesor Clavijo propuso la creación de un sistema uniforme a nivel global para regular la actividad financiera, argumentando que quienes se dedican a actividades ilícitas conocen los límites de estas actuaciones. El profesor, experto en Derecho Civil, expresó su escepticismo sobre la potencial ayuda de la inteligencia artificial fuera del espacio europeo y abogó por un código internacional de identificación, utilizando tecnologías como el escaneo del iris para prevenir el uso de documentación falsa.

En el contexto del blanqueo de capitales, el profesor Clavijo señalo que aunque la IA mejorará la seguridad, no será la solución definitiva, de momento, ya que las prácticas como el fraccionamiento de operaciones pueden eludir el sistema financiero. Su exposición resaltó la importancia de buscar enfoques integrales y medidas adicionales para abordar este desafío.

 La IA y los vehículos autónomos

Ángel María Ballesteros Barros, Profesor Contratado Doctor de Derecho Internacional Privado de la Universidad Pablo de Olavide, analizó los desafíos legales en la intersección de la inteligencia artificial (IA) y los vehículos autónomos en su ponencia. El profesor Ballesteros destacó la creciente preocupación sobre cómo abordar responsabilidades en casos de accidentes acusados por vehículos autónomos.

El profesor Ballesteros hizo referencia a estadísticas de Tesla que indican un aumento significativo de accidentes con vehículos autónomos, planteando interrogantes sobre la calificación objetiva de la acción en este contexto. Propuso aplicar criterios específicos para evaluar daños en accidentes de circulación, daños por productos defectuosos y cuestiones de responsabilidad contractual, considerando actores como el conductor, propietario, fabricante, aseguradora y programador de la IA.

El doctor, experto en Derecho Internacional Privado, subrayó los desafíos en la competencia judicial internacional y los conflictos de jurisdicción en casos de responsabilidad por daños causados por los vehículos autónomos. Destacó la necesidad de que la Unión Europea regule estos conflictos, ya sea que el demandado resida en la UE o fuera de ella.

“Hoy en día se está pensando técnicas de reglamentación que pueden ser: directa (derecho material, de unificación o armonización del reglamento y de las directivas de IA); o indirecta, relativa al derecho internacional privado, que se relacionan con la Conferencia de La Haya, con convenios de accidentes de circulación por carretera (1971) y responsabilidad por productos defectuosos, o el Reglamento Roma II”, destacó. En ambos casos no están actualizados para aplicarse a la IA.

La IA y los derechos personales

Cristina Lorente López, Profesora de Derecho Civil de la Universidad Isabel I, analizó la Inteligencia Artificial en el hogar: análisis jurídico de riesgos. Destacó en su intervención la necesidad de adaptar el derecho a la rápida evolución tecnológica, señalando normativas europeas y nacionales relacionadas con la protección de datos y los derechos civiles. “El derecho va siempre por detrás de la sociedad y debe adaptarse a la realidad en la que se vive”, matizó.

“A nivel europeo, se propone una normativa sobre inteligencia artificial, un reglamento general de protección de datos, la normativa sobre los derechos de autor, la directiva de comercio electrónico, la ley de servicios digitales, la directiva de medios audiovisuales, el código de prácticas sobre desinformación, el plan de acción sobre desinformación y el plan de acción para la democracia. Y a nivel nacional, la normativa sobre protección de datos, el Código Penal y la ley sobre protección civil del derecho al honor, intimidad y propia imagen”, argumentó la ponente.

La profesora Lorente enfatizó que conceptos como honor, intimidad y propia imagen son indeterminados en el contexto de la IA. Abordó temas como el uso de asistentes virtuales y los desafíos legales de las Deep Fakes, destacando la futura Ley Europea de IA como una respuesta jurídica. “A la hora de cuantificar el daño moral indemnizable, se van a tener en cuenta factores como: las circunstancias del caso, la gravedad del daño, y el beneficio obtenido por quien comete la intromisión”, indicó.

La profesora, experta en Derecho Civil, señaló que los asistentes virtuales como Siri, Asistente de Google, Alexa y Cortana, son IA que interactúan con nosotros a través del reconocimiento de voz. Nos ayudan a realizar tareas, buscar información, establecer recordatorios, reproducir música o controlar dispositivos inteligentes.

La respuesta jurídica ante el uso de la IA sería la Futura ley europea de IA que podrá límites a esa manipulación de imágenes, archivos de audio o vídeos. Igualmente se debe aplicar una normativa de protección de datos de las personas frente a la IA. Además, se aplicará la protección civil de los derechos de las personas frente a las Deep Fakes.

Lorente concluyó que la regulación específica de la IA es necesaria, abogando por la alfabetización digital y la formación legal para afrontar los desafíos digitales en una sociedad de activos digitales.

La transparencia de la IA

Benjamín Moreno Montes de Oca, Profesor de Derecho Constitucional de la Universidad Isabel I, analizó transparencia en el uso de inteligencia artificial por parte de las administraciones públicas, centrándose en la protección de datos y las implicaciones para los derechos ciudadanos.

El profesor Moreno Montes de Oca destacó cómo la IA, utilizada por la Administración Pública, puede predecir comportamientos y tomar decisiones sin intervención humana, limitando los derechos de los ciudadanos y afectando a la dignidad humana. En el contexto español, señaló la opacidad y falta de información por parte del poder político sobre el funcionamiento de la IA y los criterios utilizados en la toma de decisiones.

El profesor Moreno Montes de Oca habló de las decisiones administrativas automatizadas, como informes de vida laboral o borradores de declaración de la renta, adoptados por algoritmos de IA en la Agencia Tributaria y la Seguridad Social. Moreno señaló que estas acciones plantean desafíos legales y la necesidad de regulaciones serias en relación con los sistemas de inteligencia artificial (SIA). Los SIA presentan cierta tendencia de opacidad, complejidad, sesgo, imprevisibilidad o comportamiento parcialmente autónomo, que dificulta su compatibilidad con el sistema de derechos y valores propios de la UE. El Reglamento de IA a nivel europeo pone el acento en el riesgo y en la función que éste, ya que determina qué sistemas están prohibidos y cuáles quedan sujetos a determinadas limitaciones para sean respetuosos con el sistema de valores y derechos.

El ponente señaló la importancia de la intervención humana capacitada en los procesos de los SIA para reducir sesgos y garantizar la protección de datos. Propuso la creación de un manual de desconexión por parte de los empleados públicos y la transparencia en el sistema de toma de decisiones para actuar en caso de abusos a los derechos fundamentales. Moreno abogó por la obligación para los programadores de sistemas de IA de proporcionar información detallada a los supervisores y, en ciertos casos, la publicidad de la información sobre el uso de la IA en procedimientos administrativos.

El profesor echó en falta una cierta obligación de publicidad de la información sobre qué sistemas están utilizando la IA, qué datos utiliza, a qué bases de datos acuden para tomar decisiones y cuál es su código fuente, para que estos datos sean accesibles al ciudadano medio, aunque también se deben tener en cuenta los derechos de propiedad intelectual del proveedor. “Creo que se deberá limitar el uso de la IA en los procedimientos administrativos”, concluyó.

La IA y la contratación pública

Virginia Saldaña Ortega, Profesora de Derecho de la Unión Europea en la Universidad Isabel I y directora de la titulación, realizó su ponencia sobre la inteligencia artificial y su impacto en la contratación pública desde la perspectiva de la Unión Europea.

La profesora Saldaña Ortega destacó que los contratos públicos representan en torno al 19% del Producto Interior Bruto (PIB) de la UE, subrayando su importancia como una política pública de la UE con una normativa específica. Señaló que la contratación pública se basa en la normativa europea, la normativa nacional europeizada y los principios del derecho administrativo europeo.

La directora del Grado en Derecho mencionó la falta de concreción en los procesos de licitación, generando una irrupción en los principios del derecho administrativo. Exploró cómo la inteligencia artificial puede mejorar la eficacia y eficiencia de la administración pública en la contratación, desde la preparación de pliegos de contrato hasta la valoración objetiva de ofertas mediante modelos de aprendizaje automático.

La actividad con IA debe ser adecuada, eficaz y eficiente a la administración pública”, matizó. Se podrá aplicar, por ejemplo, en la preparación de los pliegos del contrato, mejorando los documentos para que sean más accesibles al ciudadano. En la fase de competición, la valoración objetiva de las ofertas, poniendo en práctica el modelo de aprendizaje automático para identificar los precios anormalmente bajos en los contratos.

Entender plausible o adecuado que la IA pueda, en la actualidad, realizar un pliego de la contratación de manera autónoma absolutamente parece cuestionable”, explicó la docente. A mayores, considera que se debe profesionalizar la actividad de la licitación contractual pública. Destacó la necesidad de comprender los patrones de conducta de los algoritmos y la sistematización de los elementos esenciales de la contratación pública en un estándar mínimo para garantizar los derechos y seguir respetando los principios que fundamentan la realidad administrativa en la Unión Europea.

Jornada completa.