¿Justicia de los algoritmos?: El espíritu santo se queda corto…
Por Erika Zárate
Dos campos que en nada se relacionan. Ahora los uno. El lazo que
les doy es la tecnología. Ambos círculos son afectados, cuando se les
consideraba totalmente seguros, hoy son de riesgo. No exagero.
Les contaré de literatura y derecho probatorio. Para no separarme del tema principal del blog. Mi exposición resalta la promesa de la tecnología. Ésta ofrece evitar el error humano. Casi la perfección. Sin embargo, es mentira. Los algoritmos son una serie de pasos, unos más sencillos que otros, para obtener un resultado. Ni siquiera son inteligencia de las máquinas. Pero dañan los derechos de las personas si los llevamos al campo del cientismo (para saber todo sobre ese término y porque no debemos inmacular a la ciencia y la tecnología les recomiendo leer los textos de Susan Haack uno de ellos lo encuentran aquí.
Los algoritmos están en casi todo. Su uso genera la convergencia que anuncié. Hoy la literatura y el derecho probatorio los utilizan, aunque debemos cuidar las consecuencias que generan.
La literatura se ha transformado en exceso desde que se escribió El Quijote a este día. Es el fenómeno llamado la biopersonificación, en la cual el escritor tiene que diversificarse y no estar únicamente dedicado a escribir. El mercado lo lleva a tener sus cuentas en redes sociales, para generar “contenidos” que le ayuden a tener like y a que su producto literario se transmita de boca en boca. (Se sugiere leer El amor por la literatura en tiempos de algoritmos de Hernán Vanoli, libro que inspiró muchas de las referencias que hago a la literatura en este escrito).
Como se ve la persona escritora tiene una mezcla de competencias
que le exige la era digital y tecnológica. Y si de mezclas se trata el ADN también
participa de ellas. Cuando se presenta una combinación en un objeto las
técnicas “tradicionales” de esa prueba tienen dificultades.
Para resolver los problemas de falta de fiabilidad asociados a las
técnicas subjetivas que se suelen utilizar e interpretar los resultados de las
mezclas complejas de ADN, varias empresas y organizaciones están trabajando en
el desarrollo de sistemas algorítmicos. Los programas generan preocupación por
su fiabilidad. Se cuestiona su validez científica y la falta de transparencia del
algoritmo.
Una vez más se transforma el derecho probatorio. Lo hizo cuando llegó
la prueba de ADN con toda la serie de sus tropiezos y perfeccionamiento a lo
largo de treinta años. Hoy es una de las pruebas con mayor reputación. Exige
conocimientos científicos para entenderla y dominarla. Para interpretar sus
resultados es necesario el manejo de la estadística y la probabilidad. Ahora, en
el escenario del delito puede encontrarse el ADN de diversas personas. Saber
con certeza quién estuvo ahí y que tocó es imposible para esa prueba, cuya
confiablidad se logró en análisis de muestras de fuente única o mezcla simple. La
técnica que usa esa prueba empezó a sustituirse por algoritmos. Ellos son poco
transparentes y no se tiene manera de medir su fiabilidad. Se pensaba que los
algoritmos solucionarían los problemas, por ejemplo, de la falacia del fiscal,
pero no lo logró y trajo otros retos como usar programas para esa problemática.
Los creadores de los algoritmos para las mezclas de ADN consideran
que sus programas son una mejora que inhibe el subjetivismo en la
interpretación del estudio. Ellos usan la técnica genotipo probabilístico, que
es un algoritmo matemático para interpretar esas mezclas complejas y determinan
si el ADN de una persona forma parte de ese conjunto.
En la literatura los algoritmos también cambian el modo en el que
elegimos los libros que leemos. A veces parece que no es indispensable acudir a
la librería porque recibimos anuncios y sugerencias en los correos
electrónicos, al abrir una red social, al hacer la compra de otro objeto.
Sin duda los algoritmos cambian todos los espacios de la vida, a
veces no sólo para bien. Por eso los ojos los debemos mantener bien abiertos.
Por ejemplo, en EUA se han utilizado en casos penales. Como lo es Commonwealth
v. Foley, que se trata de un homicidio. El señor Foley fue juzgado por el
asesinato del marido separado de la mujer con la que vivía. Las pruebas de ADN
de la uña de la víctima contenían el ADN de dos personas, la víctima y la
persona que presuntamente la había asesinado. La muestra de ADN se analizó en
un laboratorio de la Oficina Federal de Investigación, y los datos de las
pruebas realizadas en el laboratorio del FBI fueron utilizados por tres
expertos diferentes para elaborar un testimonio sobre la importancia del ADN. Los
tres expertos -Mark Perlin, un científico forense del FBI y un tercer
científico- coincidieron en que el perfil de ADN de Foley coincidía con el ADN
encontrado en la muestra, pero cada uno de ellos testificó sobre probabilidades
radicalmente diferentes de que alguien distinto de Foley coincidiera con el ADN
encontrado en la muestra. El científico forense del FBI testificó que la
probabilidad de que otra persona contribuyera con esa parte de la muestra de
ADN era de 1 entre 13.000; el otro científico testificó que la probabilidad era
de 1 entre 23 millones; y el Dr. Perlin testificó que las probabilidades eran
de 1 entre 189.000 millones.
Foley argumentó que el testimonio del Dr. Perlin debía ser
declarado inadmisible por no superar el estándar del caso Frye. En ese caso se
refirió que "las pruebas científicas novedosas son admisibles si la
metodología en la que se basan tiene una aceptación general en la comunidad
científica pertinente". El tribunal decidió que la técnica empleada por el
Dr. Perlin era una aplicación refinada del método previamente aceptado para
calcular las probabilidades en el análisis forense de ADN.
El tribunal de apelación también consideró que el testimonio del
Dr. Perlin no era novedoso y concluyó que era correcta la admisión de su
testimonio. El tribunal de apelación rechazó los argumentos de Foley dirigidos
a alegar que el algoritmo de la empresa TrueAllele debía considerarse novedoso
porque nunca se había utilizado anteriormente para analizar una muestra mixta
de ADN y porque "ningún científico externo puede replicar o validar la
metodología del Dr. Perlin porque su software informático es de su propiedad".
El tribunal consideró irrelevante el hecho de que TrueAllele se hubiera
utilizado anteriormente en casos judiciales, argumentando que el hecho de que
un método científico sea objeto de controversia entre los científicos (y, por
tanto, que un método sea novedoso) no viene determinado por el hecho de que un
tribunal haya decidido previamente admitir la prueba. En cualquier caso, el
tribunal afirmó que TrueAllele se estaba utilizando en ese momento para otros
fines, como la identificación de las víctimas del World Trade Center, así como
para crear la base de datos nacional de ADN del Reino Unido, lo que desvirtuaba
los argumentos de Foley de que la tecnología no se estaba utilizando.
En cuanto al argumento de Foley de que la negativa de TrueAllele a
revelar su código fuente impedía su validación, el tribunal declaró que
"los científicos pueden validar la fiabilidad de un proceso informático
incluso si el "código fuente" en el que se basa ese proceso no está
disponible para el público". TrueAllele es un programa informático de
propiedad exclusiva; no sería posible comercializar TrueAllele si estuviera
disponible de forma gratuita". Además, el tribunal dijo que TrueAllele
había sido objeto de estudios de validación publicados en revistas especializadas,
lo que indicaba que el contenido de los estudios de validación había sido
"revisado por otros especialistas en la materia". Sin embargo, el
tribunal omitió señalar que los dos estudios que citó para este punto habían
sido redactados por Dr. Perlin y sus colegas.
La empresa dueña de TrueAllele promueve el algoritmo como una
herramienta para los fiscales y los abogados de la defensa. En 2013, Mark
Perlin accedió a proporcionar pruebas gratuitas de TrueAllele para Darryl
Pinkins, que había sido condenado por una violación en grupo. Después de
realizar las pruebas, Perlin declaró que estaba "increíblemente
seguro" de que los resultados excluían a Pinkins como sospechoso sobre la
base de las pruebas de ADN proporcionadas. Esta nueva evidencia finalmente
llevó a los fiscales a admitir que estaban equivocados y a aceptar anular la
condena de Pinkins. Cuando Cybergenetics ha sido cuestionada, Perlin ha
invocado habitualmente el uso de TrueAllele en los casos de exoneración,
argumentando que estos casos ayudan a demostrar la fiabilidad de TrueAllele.
Así en el proceso penal la tecnología cambia la interacción de las
partes. Tal como nos hace entender Vanoli en su libro de la literatura, la cual
ha sido trastocada por los algoritmos, la tecnología no está resultando neutral
y de todo benéfica a todas las personas, realmente no es democrática, genera
brechas o puede “manipular” o infringir derechos.
Como
ejemplo de lo último es que los acusados, los equipos de defensa y el público
en general no suelen tener acceso al código fuente que define estos programas. No
tienen información sobre cómo se construyó el software o el grado de fiabilidad
de éste. El proveedor suele prohibir la revisión independiente del sistema por
parte de terceros. Incluso las solicitudes de testigos expertos para de revisar
los detalles del sistema se niegan bajo la idea de proteger los derechos de
autor. Esas denegaciones tienden a hacer reflexionar cómo podrían revisarse
protegiendo los derechos de todos los involucrados.
Es hasta
cierto punto lógico que las empresas no revelen su código fuente. Su negocio es
el algoritmo, su producto es su código. Como sucede al escritor de literatura
en la era del algoritmo, que se convierte en una mercancía que debe tener
presencia en todas las redes sociales y entrar a retos de escritura (lograr
escribir novelas en un lapso). Un escritor en esta era y esos métodos no
querría revelar su modo de hacerlo, porque todo eso constituye el propio
producto que él es.
Sin
embargo, la revisión del "código fuente" proporciona u análisis mucho
más útil que simplemente que la versión ejecutable del software. El código
fuente es la lista de comandos legibles para el ser humano (por ejemplo,
"si el usuario introduce X, entonces haz Y", "repite probando posibles
soluciones hasta que una funcione") escrito por los programadores y
utilizado para generar la propia versión ejecutable. Es como poder ver los
planos de la casa en lugar de simplemente recorrerla. Un perito testigo experto
que revise estas líneas de código fuente tiene la oportunidad de validar y
cuestionar el comportamiento del software a un nivel mucho más profundo de lo
que sería posible utilizando simplemente la versión ejecutable del programa.
Frente a esa opacidad, que poco a poco van derrotando los tribunales en EUA, los propios dueños de los algoritmos, con habilidad han permitido su utilización para lograr absoluciones de personas. Y parece loable, pero siempre estará la incógnita si es altruismo o una manera de legitimar la falta de revelación de su código, al proyectar que su algoritmo no sólo sirve para condenar. De algún modo es pretender legitimar su tecnología con un supuesto uso masivo en beneficio de todos. En cierto modo es lo que la literatura exige en la era del algoritmo a los escritores con presencia masiva en la que deben tomar postura y demostrar que sirven a una causa, ya no basta escribir artísticamente, el algoritmo exige mucho. Sin que se me mal entienda. En sí mismo el nanoactivismo o el altruismo a los proyectos de inocencia no son reprochables, pero siempre quedara la duda, si es bondad o la obligación del algoritmo para defender al algoritmo mismo.
Comentarios
Publicar un comentario