¿Los tribunales necesitan una ‘IA explicable’?

¿IA explicable es la solución?

El primer accidente grave que involucró a un automóvil autónomo en Australia ocurrió en marzo de este año. Un peatón sufrió lesiones que amenazaron su vida cuando atropellado por un Tesla Model 3 que según el conductor estaba en modo «piloto automático».

En los EE. UU., el regulador de seguridad vial está investigando una serie de accidentes donde Teslas en piloto automático se estrellaron contra vehículos de primeros auxilios con luces intermitentes durante las paradas de tráfico.

Un accidente automovilístico en la carretera por la noche con luces de emergencia parpadeando
Un Tesla modelo 3 choca con un vehículo de respuesta a emergencias estacionado en los EE. UU.
NBC/YouTube

Los procesos de toma de decisiones de los coches «autónomos» suelen ser opaco e impredecible (incluso a sus fabricantes), por lo que puede ser difícil determinar quién debe rendir cuentas por incidentes como estos. Sin embargo, el creciente campo de la «IA explicable» puede ayudar a proporcionar algunas respuestas.

¿Quién es responsable cuando los autos sin conductor chocan?

Si bien los automóviles autónomos son nuevos, siguen siendo máquinas fabricadas y vendidas por los fabricantes. Cuando causan daño, debemos preguntarnos si el fabricante (o desarrollador de software) ha cumplido con sus responsabilidades de seguridad.

La ley de negligencia moderna proviene del famoso caso de Donoghue contra Stevenson, donde una mujer descubrió un caracol en descomposición en su botella de cerveza de jengibre. El fabricante fue declarado negligente, no porque se esperara que predijera o controlara directamente el comportamiento de los caracoles, sino porque su proceso de embotellado no era seguro.

Según esta lógica, es posible que los fabricantes y desarrolladores de sistemas basados ​​en IA, como los automóviles autónomos, no puedan prever y controlar todo lo que ocurre. El sistema lo hace, pero pueden tomar medidas para reducir los riesgos. Si sus prácticas de gestión de riesgos, pruebas, auditorías y monitoreo no son lo suficientemente buenas, deben rendir cuentas.

¿Cuánta gestión de riesgos es suficiente?

La pregunta difícil será «¿Cuánto cuidado y cuánta gestión de riesgos es suficiente?» En software complejo, es imposible de probar para cada error por adelantado. ¿Cómo sabrán los desarrolladores y fabricantes cuándo detenerse?

Afortunadamente, los tribunales, los reguladores y los organismos de estándares técnicos tienen experiencia en el establecimiento de estándares de atención y responsabilidad para actividades riesgosas pero útiles.

Los estándares pueden ser muy exigentes, como los de la Unión Europea proyecto de reglamento de IA, que exige que los riesgos se reduzcan “en la medida de lo posible” sin importar el costo. O pueden parecerse más a la ley de negligencia australiana, que permite una gestión menos estricta para riesgos menos probables o menos graves, o donde la gestión de riesgos reduciría el beneficio general de la actividad riesgosa.

Los casos legales se complicarán por la opacidad de la IA

Una vez que tenemos un estándar claro para los riesgos, necesitamos una forma de hacerlo cumplir. Un enfoque podría ser otorgar poderes a un regulador para imponer sanciones (como lo hace la ACCC en casos de competencia, por ejemplo).

Individuos perjudicados por IA los sistemas también deben poder demandar. En los casos que involucren automóviles autónomos, las demandas contra los fabricantes serán particularmente importantes.

Sin embargo, para que dichas demandas sean efectivas, los tribunales deberán comprender en detalle los procesos y los parámetros técnicos de los sistemas de IA.

Los fabricantes a menudo prefieren no revelar esos detalles por motivos comerciales. Pero los tribunales ya cuentan con procedimientos para equilibrar los intereses comerciales con una cantidad adecuada de divulgación para facilitar el litigio.

Puede surgir un desafío mayor cuando los propios sistemas de IA son opacos” cajas negras”. Por ejemplo, la función de piloto automático de Tesla se basa en «redes neuronales profundas”, un tipo popular de sistema de IA en el que incluso los desarrolladores nunca pueden estar completamente seguros de cómo o por qué llega a un resultado determinado.

¿’IA explicable’ al rescate?

Abrir la caja negra de los sistemas modernos de IA es el foco de un nuevo ola de informática y humanidades eruditos: el llamado movimiento de “IA explicable”.

El objetivo es ayudar a los desarrolladores y usuarios finales a comprender cómo los sistemas de IA toman decisiones, ya sea cambiando la forma en que se construyen los sistemas o generando explicaciones después del hecho.

En un ejemplo clásico, un sistema de inteligencia artificial clasifica por error una imagen de un husky como un lobo. Un método de «IA explicable» revela que el sistema se centró en la nieve en el fondo de la imagen, en lugar del animal en primer plano.

(Derecha) Una imagen de un husky frente a un fondo nevado. (Izquierda) Un método de 'IA explicable' muestra en qué partes de la imagen se centró el sistema de IA al clasificar la imagen como un lobo.

La forma en que esto podría usarse en una demanda dependerá de varios factores, incluida la tecnología de IA específica y el daño causado. Una preocupación clave será cuánto acceso se le da a la parte lesionada al sistema de inteligencia artificial.

El caso Trivago

El análisis de un importante caso judicial reciente en Australia proporciona una visión alentadora de cómo podría ser esto.

En abril de 2022, el Tribunal Federal sancionó a la empresa mundial de reservas de hoteles Trivago con 44,7 millones de dólares por engañar a los clientes sobre las tarifas de las habitaciones de hotel en su sitio web y en la publicidad televisiva, después de un caso iniciado por organismo de control de la competencia la ACCC. Una pregunta crítica fue cómo el complejo algoritmo de clasificación de Trivago eligió la oferta mejor clasificada para habitaciones de hotel.

El Tribunal Federal estableció reglas para el descubrimiento de pruebas con garantías para proteger la propiedad intelectual de Trivago, y tanto la ACCC como Trivago llamaron a testigos expertos para que proporcionaran pruebas que explicaran cómo funcionaba el sistema de IA de Trivago.

Incluso sin tener acceso total al sistema de Trivago, el testigo experto de la ACCC pudo producir pruebas convincentes de que el comportamiento del sistema no era coherente con la afirmación de Trivago de ofrecer a los clientes el «mejor precio».

Esto muestra cómo los expertos técnicos y los abogados juntos pueden superar la opacidad de la IA en los casos judiciales. Sin embargo, el proceso requiere una estrecha colaboración y una profunda experiencia técnica, y probablemente será costoso.

Los reguladores pueden tomar medidas ahora para simplificar las cosas en el futuro, como exigir a las empresas de IA que documenten adecuadamente sus sistemas.

El camino por delante

Vehículos con varios grados de automatización son cada vez más comunes, y los taxis y autobuses totalmente autónomos se están probando tanto en Australia y exterior.

Este artículo de Aaron J. Snoswell becaria de investigación posdoctoral, derecho computacional y responsabilidad de IA, Universidad Tecnológica de Queensland; Henry Fraser Investigador en Derecho, Responsabilidad y Ciencia de Datos, Universidad Tecnológica de Queenslandy Rhyle Simcock Candidato a doctor, Universidad Tecnológica de Queensland se vuelve a publicar de La conversación bajo una licencia Creative Commons. Leer el artículo original.

Deja un comentario

Ir arriba