Cualquiera que sea el nivel de inteligencia artificial al que se haga referencia, su sola mención aterra a niños y adultos. Hoy en medio de un mundo digital, el peso de “Charlie No Face”, “Pitssburgh’s Green Man” o “el fantasma de Suscon Road”, no mortifica a nadie en comparación con el terror que provoca un “Prometeo de códigos” conocido como el “algoritmo del doctor Berk”.
En los laboratorios de Ciencias Sociales de la Universidad de Pensilvania se creó y desde hace cinco años está operando un algoritmo que ayuda a manejar la experiencia de los que están en libertad condicional.
Puedes leer: La AI y el desempleo es un tema que no se menciona en la campaña de los Dems
El asunto no es nada novedoso, tal vez el único plus es que utiliza aprendizaje automático, una capa de inteligencia artificial que ayuda a procesar y a disponer de una mayor variedad de información para la toma de decisiones.
Las autoridades locales utilizan los llamados algoritmos predictivos para establecer las patrullas policiales, las penas de prisión y las reglas de la libertad condicional.
Con miras a desalentar a los generadores de “leyendas urbanas”, el creador del proceso sistematizado para procesar las normas de libertad condicional en Pensilvania, el profesor Richard Berk, comparó los algoritmos con los sistemas de piloto automático de los aviones comerciales. “El piloto automático es un algoritmo”, dijo. “Hemos aprendido que el piloto automático es fiable, más fiable que un piloto humano individual. Lo mismo va a pasar aquí”.
Pancartas y gritos
En varias ocasiones las calles de Pensilvania y otros estados de la Unión han sido tomados por los escépticos, esas personas quienes movidas por experiencias negativas pasadas no confían en cederle ni un ápice de control a un algoritmo y menos en materia judicial.
Como ejemplo citan a un incidente donde Google estuvo involucrado, el gigante de los motores de búsqueda que tuvo que modificar un algoritmo “racista” que mezclaba gorilas con personas.
Las protestas se cimientan en la perturbación que causa la creciente dependencia de los sistemas automatizados que están sacando a los humanos y la transparencia del proceso.
A menudo no está claro cómo los sistemas están tomando sus decisiones. ¿Es el género un factor? ¿La edad? ¿Código postal? Es difícil de decir, ya que muchos estados y países tienen pocas reglas que requieren que los fabricantes de algoritmos revelen sus fórmulas.
NYT lo hizo tema
Cade Metz y Adam Satariano dos periodistas del The New York Times hicieron del algoritmo de Berk un amplísimo reportaje. El trabajo editorial titulado “Un algoritmo que otorga la libertad, o la aleja”, revisa varias situaciones en torno al software está tomando decisiones sobre la libertad condicional y prediciendo si los adolescentes cometerán un delito en los Estados Unidos y Europa. Los opositores quieren más supervisión humana.
Puedes leer: Danielle Outlaw inicia su trabajo como Comisionada de la Policía de Filadelfia
En esta carrera dispar que impone la tecnología a los humanos carentes de ella, dos organizadores comunitarios, el Media Mobilizing Project de Filadelfia y MediaJustice de Oakland, California, compilaron recientemente una base de datos nacional de algoritmos de predicción. Y Community Justice Exchange, una organización nacional que apoya a los organizadores comunitarios, está distribuyendo una guía de 50 páginas que aconseja a los organizadores sobre cómo enfrentar el uso de los algoritmos.