“La influencia del secretario de IA en los resultados legales no se considera menos legítima” que la del secretario humano

De Brian Flanagan, Guilherme Almeida, Daniel Chen y Angela Gitahi, ¿El Estado de derecho o el Estado de los robots? Evidencia de una encuesta representativa a nivel nacional de Kenia:

Exploramos la legitimidad de los asistentes legales de chatbot mediante la realización de un experimento de encuesta representativa a nivel nacional en Kenia, una sociedad cuyas opiniones sobre tales asuntos tienen especial relevancia a la luz de la voluntad del poder judicial de Kenia de probar los efectos de las medidas de justicia electrónica. Nuestra elección de población también responde a las críticas de que la jurisprudencia experimental se ha centrado hasta ahora en poblaciones EXTRAÑAS (blancas, educadas, industrializadas, ricas y democráticas) (Tobia 2024), que se ha descubierto que se desvían sistemáticamente de las tendencias globales según varias métricas (Henrich et al 2010). ; Barrett 2020)….

El estudio comparó las respuestas de cuatro cohortes representativas a nivel nacional (un total de 2246) a un conjunto de cuatro casos de prueba, cada uno de los cuales presentaba la misma situación de hecho pero que variaba según a) si el veredicto se alineaba con el texto de la ley o con su propósito, y b) si el veredicto se basó en el análisis jurídico de un asistente legal humano o artificial….

Por ejemplo, la viñeta “No Bodabodas en el centro comercial” se presentó de la siguiente manera:

El gobierno ha emitido una norma: “Será un delito montar en bodaboda en un centro comercial”. Esta regla tiene como objetivo evitar lesiones a los compradores. {Bodabodas son taxis en bicicleta o motocicleta que son comunes en Kenia.}

Luego, describimos una situación en la que un agente había actuado en contra del texto de la ley pero de manera consistente con su propósito:

Al presenciar un ataque violento dentro de un centro comercial, Martin entra en su bodaboda para detenerlo. Más tarde, Martin es acusado del delito de montar en bodaboda en un centro comercial.

Finalmente, describimos un procedimiento legal que varió tanto según su resultado como según la fuente de la investigación jurídica en la que se basó el tribunal:

El tribunal, guiado por una investigación jurídica realizada por un investigador jurídico/programa informático especial, decide que Martin violó/no violó la norma.

Se pidió a los participantes que indicaran su acuerdo con la frase “La decisión del tribunal es legítima”, en una escala Likert de 5 puntos….

Confirmando nuestra hipótesis, el estudio no reveló ninguna diferencia general en la legitimidad percibida de las interpretaciones legales asistidas por IA y humanos. Con la excepción de un pequeño sesgo contra los asistentes legales de IA en un escenario específico (“No dormir en la estación”), los participantes consideraron que las decisiones legales que se basaban en investigaciones legales generadas por IA eran tan legítimas como las decisiones que se basaban en investigaciones legales generadas por IA. investigación….

Para conocer algunas de mis ideas sobre esto, consulte Robots del presidente del Tribunal Supremo. Aquí hay un extracto de mi pensamiento sobre los jueces de IA, que creo que debería ser aún más adecuado para los jueces asistidos por IA:

De hecho, algunos observadores pueden ser hostiles a los jueces de IA simplemente porque son IA, y consideran que incluso las opiniones escritas son menos persuasivas cuando se sabe que provienen de IA. O puede que ni siquiera les importe el poder persuasivo de las opiniones, porque creen que la toma de decisiones humana es la única forma legítima de toma de decisiones judiciales; por ejemplo, porque piensan que la dignidad humana requiere que sus reclamaciones sean escuchadas por sus semejantes. Y la percepción es una realidad en los sistemas legales: si el público no acepta la legitimidad de un tipo particular de juicio, eso puede ser razón suficiente para rechazar ese juicio, incluso si pensamos que las opiniones del público no son racionales.

Sin embargo, por algunas de las razones expuestas anteriormente, los jueces de IA pueden en realidad ser más creíbles que los jueces humanos. Los litigantes generalmente no deben temer que el juez de AI falle en su contra porque es amigo del abogado de la otra parte o quiere ser reelegido o tiene prejuicios contra la raza, el sexo o la religión del litigante. El juez de AI podría presentar una explicación detallada de sus motivos. Los argumentos del juez de IA serán cada vez más convincentes a medida que se desarrolle la tecnología.

La reacción final de las personas ante un nuevo invento, una vez que se han acostumbrado a él, puede ser mucho más amigable que su reacción inicial. Lo hemos visto con muchos avances, desde los seguros de vida hasta la fertilización in vitro. Es posible, por supuesto, que la gente nunca se acostumbre a los jueces de IA; pero no hay razón para descartar el juicio sobre la IA sólo porque la primera reacción de muchas personas ante el concepto pueda ser de shock o incredulidad.

Finalmente, mi sensación es que existe una gran hostilidad pública hacia el sistema legal actual porque se percibe como demasiado costoso para los ciudadanos comunes y corrientes que no pueden permitirse contratar a los mejores abogados, o incluso a ningún abogado. Por lo tanto, se percibe que el sistema está sesgado a favor de los ricos y las instituciones. Y también se percibe como muy lento. Si la evaluación por IA resuelve estos problemas, eso debería darle una gran ventaja, tanto en la realidad como en la mente de muchos observadores, y sospecho que esta ventaja en el mundo real superará cualquier inquietud conceptual que la gente pueda tener con un sistema de este tipo.