Noticia
¿Cómo determinar la admisibilidad de las pruebas generadas por IA en los tribunales?
Tipos de contenido generado por IA
Los modelos predictivos de IA son capaces de proporcionar información sobre eventos futuros, mientras que la biometría contribuye en la identificación y los servicios de transcripción de IA convierten material de audio en transcripciones escritas para pruebas judiciales. Estos son solo algunos ejemplos de las pruebas generadas por IA.
Los jueces enfrentan desafíos al evaluar la admisibilidad de dichas pruebas con problemáticas relacionadas a la confiabilidad, la transparencia, la interpretabilidad y el sesgo en dichas pruebas. Este desafío se hace aún más evidente con el uso de sistemas de IA generativa, que están contribuyendo a la desinformación y la información errónea a gran escala. Un ejemplo de este tipo de contenido generado por IA es la imagen que muestra al Papa con una chaqueta blanca esponjosa, que parecería ser genuina.
Preguntas fundamentales para jueces y abogados
Ahora bien, imaginemos que una imagen mostrara a un líder político involucrado en actividades delictivas. En tal escenario, ¿cómo demostraría un abogado o juez la autenticidad de tal imagen? ¿Cómo puede un juez determinar que la imagen fue generada por IA y no es real? Asimismo, además de los numerosos riesgos que afectan a la autenticidad y fiabilidad de las pruebas, la opacidad de los algoritmos de IA dificulta la transparencia, mientras que el sesgo en los datos de entrenamiento puede conducir a resultados discriminatorios. La ausencia de directrices estándar sobre cómo verificar la evidencia generada por la IA complica el proceso de toma de decisiones.
Los coches autónomos son otro ejemplo real de los desafíos relacionados con la evidencia electrónica. Por ejemplo, existe incertidumbre sobre cómo se podrían utilizar los datos de un detector de somnolencia en los sistemas de justicia inquisitorio o acusatorios para determinar la responsabilidad durante un accidente. ¿Cómo se dispondrán estos datos para la investigación penal? ¿Los datos generados por máquinas que se basan en la interacción hombre-máquina contarían como evidencia? Debemos evaluar la precisión y las limitaciones de los datos del sistema de IA, determinar la responsabilidad en caso de accidentes o disputas y comprender el razonamiento detrás de las decisiones del sistema.
Función de los operadores judiciales
Los jueces desempeñan un papel crucial en la evaluación de la admisibilidad de las pruebas generadas por la IA y deben aprender a transitar las complejidades de la IA para tomar decisiones bien fundamentadas con respecto a su admisibilidad. Los jueces deben desarrollar una comprensión del algoritmo, los datos específicos utilizados para su entrenamiento, los principios de la IA, los sesgos y el posible uso indebido de los sistemas de IA, como ser el deepfake.
Reconociendo la necesidad de debatir y desarrollar capacidades sobre este tema, la UNESCO organizó un seminario web titulado "El desafío de la admisibilidad: Evidencia generada por la IA en los tribunales". En colaboración con la Corte Interamericana de Derechos Humanos (Costa Rica), el Colegio Judicial Nacional (Estados Unidos), el Centro Lawyers Hub (Kenia) y el Centro para la Gobernanza de la Comunicación de la Universidad Nacional de Derecho (India), el debate abordó las complejidades entorno a la admisibilidad de la evidencia generada por IA.
El evento reunió a alrededor de 400 participantes y un diverso panel de expertos que participaron en debates provechosos sobre este apremiante tema. Los oradores incluyeron a Isabela Ferrari, Juez Federal de Brasil, Prof. Sabine Gless, experta en derecho penal y procedimiento penal, Jueza (retirada), Paul Grimm, profesor de Duke Law, el Dr. Andrew Rens, investigador principal con experiencia en tecnología de la información y la comunicación y Stephen Mason, experto en firmas y evidencia electrónicas.
Recursos adicionales propuestos por los expertos
Brian W. Esler, Lorraine v Markel: unnecessarily raising the standard for admissibility of electronic evidence, Digital Evidence and electronic Signature Law Review, Volume 4:2007.
Daniel Kiat Boon Seng and Stephen Mason, Artificial Intelligence and Evidence, Singapore Academy of Law Special Issue on Law and Technology, (2021) 33 SAcLJ 241-279, 4 Oct 2021.
Paul W. Grimm and Kevin F. Brady, Admissibility of electronic evidence: Chart on E-admissibility, 2018.
Paul W. Grimm, Maura R. Grossman, Gordon V. Cormack, Artificial Intelligence as Evidence,
Northwestern Journal of Technology and Intellectual Property, Volume 19, Issue 1, 2021.Paul W. Grimm, Maura R. Grossman, Daniel G. Brown, Molly XU, The GPTJudge: Justice in a Generative AI World, Duke Law & Technology Review, Vol. 23, No. 1, May 2023. To Appear in Vol. 23, Iss. 1 of Duke Law & Technology Review (Oct. 2023).
Sabine Gless, Emily Silverman, Thomas Weigend, If Robots Cause Harm, Who Is to Blame? Self-Driving Cars and Criminal Liability, January 29, 2016.
Sabine Gless, AI in the Courtroom: A Comparative Analysis Of Machine Evidence In Criminal Trials, Georgetown Journal of International Law, Vol. 51, No. 2, 2020.
Sabine Gless, Xuan Di, and Emily Silverman, Ca(r)veat Emptor: Crowdsourcing Data to Challenge the Testimony of In-Car Technology, Jurimetrics Vol. 62 Issue No. 3 (2022) 285-302, Oct 2022.
Stephen Mason and Daniel Kiat Boon Seng, Electronic Evidence, Series Observing Law, published by the University of London Press, Institute of Advanced Legal Studies, 2017.
Open-source practitioner text for judges, lawyers and legal academics:
Stephen Mason and Daniel Seng, editors, Electronic Evidence and Electronic Signatures (5th edition, Institute of Advanced Legal Studies for the SAS Humanities Digital Library, School of Advanced Study, University of London, 2021.
Open-source journal:
Digital Evidence and Electronic Signature Law Review, also available via the HeinOnline subscription service and British and Irish Legal Information Institute