Dos profesores y un estudiante de posgrado de la Universidad de Harrisburg afirman haber desarrollado un programa de reconocimiento facial para predecir predisposición criminal. Sobre este curioso caso conversamos esta semana.
Por: Víctor Ramos | Zona3punto0
El estudiante de Ph.D. Jonathan Korn y los profesores Nathaniel Ashby y Roozbeh Sadeghian afirmaron a principios de mayo en su investigación “A Deep Neural Network Model to Predict Criminality Using Image Processing” que su modelo puede predecir, basado en un programa de reconocimiento facial, con 80% o más de certeza, y sin sesgo racial, la predisposición de cualquiera a convertirse en criminal.
Los gritos de alarma no se hicieron esperar. Pocos días después del anuncio de este programa, que formaría parte de una colección de artículos a ser publicados por la prestigiosa revista Springer Nature, más de mil investigadores, sociólogos, historiadores y otros académicos presentaron una carta pública condenando el artículo, generando una rápida respuesta vía Twitter por parte de Springer Nature, afirmando que no publicará este trabajo en su revista.
No es la primera vez que aparece un algoritmo de este tipo ni será la última. En 2016 investigadores de la Universidad Jiao Tong de Shanghai afirmaron que su algoritmo podría predecir la criminalidad basado en análisis facial. En 2017 investigadores de Stanford afirmaron que podrían predecir si alguien es o no gay basado en su cara. El año pasado investigadores de la Universidad Keele (Inglaterra) afirmaron que su algoritmo puede predecir autismo analizando videos de niños en YouTube.
Cada uno de estos trabajos ha desatado una avalancha de críticas contra la percepción que se puedan extraer atributos de personalidad basados en la forma de la cara de alguien.
Los autores del trabajo de la Universidad de Harrisburg habrían afirmado que el algoritmo estaría específicamente desarrollado para uso por parte de fuerzas del orden.
¿Qué les parece este tópico? Quedamos atentos a sus comentarios y sugerencias.
@vr2310, [email protected]