miércoles, 12 de diciembre de 2018

Algoritmos seleccionadores


PELIGROSOS ALGORITMOS Y SUS EFECTOS EN EL MUNDO DEL TRABAJO
Lic. Fernando Britos V.



En el mundo del trabajo y en general en los intercambios humanos aparecen los algoritmos1 y su aplicación no puede ser ignorada, especialmente en psicología del trabajo porque han venido a sumarse a técnicas muy dañinas e incluso a desplazarlas, nos referimos a las técnicas psicológicas. Las pruebas psicolaborales, que durante la segunda mitad del siglo pasado alcanzaron su auge, parecen estar declinando en la medida en que los algoritmos seleccionadores las sustituyen con ventaja como cancerberos en la puerta de acceso al trabajo.
En general, quienes se interesen en los grandes temas del trabajo, desde cualquier disciplina e inclusive desde el ejercicio de una ciudadanía consciente tenemos la obligación de atender las voces que se han levantado contra el uso abusivo de ciertos modelos matemáticos. Esta obligación es particularmente exigente para los psicólogos que operan con las técnicas de reclutamiento y selección de personal que los algoritmos están reemplazando y Cathy O'Neil es una autora estadounidense que hace un aporte especialmente importante desde las matemáticas.
O'Neil se doctoró en matemáticas en Harvard, después se dedicó a trabajar en análisis de riesgos de inversión para el mundo de las altas finanzas. En aquel entonces ella creía que los capitales financieros era éticamente neutros pero pronto se dio cuenta que la matemática podía ser destructiva y se unió al movimiento Occupy Wall Street 2 y se especializó en el estudio y denuncia del llamado “big data” 3 y del uso de algoritmos que permiten la manipulación masiva, aumenta las desigualdades y amenaza a la democracia en todo el mundo. Mantiene un sitio Web cuyo acceso recomendamos: mathbabe.org
Ella sostiene que los algoritmos se basan en modelos matemáticos concebidos para reproducir prejuicios, equívocos, rumores, falsedades y vicios. Las crisis financieras y políticas han demostrado como ese uso de las matemáticas y los algoritmos, están relacionados con grandes problemas de la humanidad y que los agravan. O'Neil considera que estamos transfiriendo la confianza en las matemáticas a ciertos modelos cuyo funcionamiento no entendemos. Sin embargo, detrás de cada algoritmo siempre hay una opinión, una intención, alguien que decide que es lo importante y que es lo que debe ser descartado. Esto es lo que se percibe claramente en las redes sociales.
En Facebook y Twitter los contenidos son ordenados en función de la cantidad de entradas y “me gusta”. Hay mecanismos ocultos, los bots, robots o máquinas que multiplican en segundos las “entradas” para hacer “viral” un comentario, una foto una información falsa. Eso no es matemáticas sino una discriminación, una manipulación hecha por humanos que desarrollaron el algoritmo para definir que es lo exitoso o lo bueno y que es lo negativo y lo malo.
O'Neil considera que quienes producen los algoritmos no son matemáticos sino especialistas en fórmulas lógicas con conocimientos de programación, de estadística y de matemáticas. Se especializan en traducir formas de pensar en sistemas de procesamiento de datos. Ganan mucho dinero con eso y aunque puedan darse cuenta de los efectos nocivos de sus creaciones prefieren no pensar en eso. Esos técnicos, en empresas como Google, son presionados para que a cualquier compromiso con la justicia antepongan el compromisos con los accionistas de la empresa y con el objetivo de aumentar las ganancias.
En ese marco no hay incentivos para transformar el sistema y hacerlo justo. Los objetivos éticos no suelen ir acompañados de mayores ganancias. No es preciso tener formación matemática para comprender que una decisión adoptada por un algoritmo es injusta, inhumana. O'Neil postula que los gobiernos deben legislar y reglamentar los algoritmos, estableciendo, por ejemplo, en que casos un algoritmo es racista o sexista porque se trata de mecanismos opacos incluso para quienes los diseñan y manejan. Estos operadores muchas veces ni siquiera son bien remunerados y no tienen la inquietud necesaria para entender como funcionan sus creaciones o para comprobar si cumplen con las leyes.
En uno de sus libros O'Neil se refiere a una profesora estadounidense que fue despedida por decisión de un algoritmo. Esto sucedió en el distrito escolar de Washington que comenzó a utilizar el sistema de puntuación “Mathematica”4 para identificar a los profesores menos productivos. Más de doscientos docentes fueron despedidos porque ese modelo los consideró malos maestros aunque en la actualidad no hay como saber si un trabajador es eficiente tomando en cuenta únicamente ciertos datos. La cuestión de su un maestro es bueno o malo no puede ser decidida con tecnología porque es un problema típicamente humano.
Muchos de esos profesores no pudieron presentar recurso contra el despido porque el secretismo acerca del funcionamiento del algoritmo Mathematica les priva de ese derecho. Al esconder los detalles de funcionamiento es más difícil cuestionar las puntuaciones o recurrir. Poder hacerlo en el futuro no es fácil porque primero debería haber un consenso en la comunidad educativa acerca de lo que es ser un buen educador.
Por ejemplo si lo que se evaluará es la capacidad del docente para generar curiosidad e interés por aprender en los alumnos hay que preguntarse ¿cuál es la fórmula para evaluar esa capacidad? Si observamos una clase podríamos determinar si el docente incluye a todos los alumnos en los intercambios o si consigue que trabajen en grupos y alcancen conclusiones o si solamente hablan entre si en el aula. Programar una computadora para esa observación es virtualmente imposible. Los especialistas en manejo de datos tienen la arrogancia de creer que pueden resolver esas cuestiones e ignoran que es indispensable un consenso entre los educadores. Un algoritmo tonto no puede resolver una cuestión en la que no existe tal acuerdo.
Los algoritmos están sustituyendo a los tests psicológicos, las infames pruebas psicolaborales, en materia de selección de personal y reclutamiento de trabajadores aunque lo hacen con los mismos procedimientos que dichas pruebas pero a un costo considerablemente menor para las empresas. Esto deberían tenerlo en cuenta mis colegas que todavía se empeñan en que las pruebas psicolaborales son herramientas idóneas para seleccionar personal o que creen que son injustas las críticas que demuestran que sus herramientas, carentes de validez, son simples recursos de manipulación de las personas.
Lo más importante en el uso de algoritmos para descubrir “perfiles” entre el personal a promover o a contratar no es la economía en gastos sino, al igual que en las pruebas psicolaborales, la forma en que el procedimiento les permite a los gerentes, a los directores y a los jerarcas en general, eludir la responsabilidad por una selección amañada. Cuando se utiliza un algoritmo o una prueba psicolaboral el fracaso de los aspirantes se atribuye a ellos mismos porque “lo dice el test o la máquina”. “Mejore su preparación y siga intentándolo, otra vez será; confórmese con el resultado, no proteste, no reclame, no quiera saber”.
En los Estados Unidos, la patria de las pruebas psicolaborales y de los algoritmos seleccionadores, hace años que más del 70% de los curriculum u hojas de vida de los aspirantes a trabajar no son examinados por seres humanos sino por máquinas y en general la automatización de los procesos de selección aumenta a un ritmo superior al 10% anual. Los algoritmos tal como las pautas de entrevista y las pruebas psicolaborales (tipo cuestionarios de múltiple opción) tienden a castigar a los más pobres, a quienes tienen más necesidades básicas insatisfechas, menor nivel de escolaridad, peores condiciones de vivienda, edades y aún género que no “encaja en el perfil” con que se ha alimentado la herramienta de selección.
Hace muchos años que insistimos en que la aplicación de pruebas psicolaborales se hace con un criterio clasista y elitista. En los organismos públicos y en las empresas privadas los profesionales y cargos superiores no suelen pasar por pruebas psicolaborales y en los pocos casos en que deben enfrentar entrevistas psicológicas no son interrogados sobre aspectos profundos de personalidad, asuntos de su intimidad ni sometidos a las llamadas “pruebas proyectivas”.
Ahora que las pruebas psicolaborales parecen estar en retirada son los algoritmos los que han tomado la posta. Los cargos superiores son evaluados por personas pero los puestos de ingreso y en particular los no especializados son “filtrados” por máquinas mediante algoritmos seleccionadores que consideran “datos clave” o “conjuntos de datos” que nadie conoce. Ahí es donde vivir en el Borro o en el Marconi, tener cierta edad, género o estado civil, puede implicar la exclusión automática e instantánea.
En general los privilegiados con vinculaciones acceden a un trato más personalizado. Una cosa es aspirar a un empleo en un supermercado, en un call-center o en una empresa de vigilancia y otra muy distinta es ser profesor en un colegio privado de elite, abogado en una multinacional o aspirante a un cargo gerencial. En el primer caso se enfrentará un filtro inhumano, en el segundo se conversará con seres humanos. Sin embargo, no debe concluirse que el trato humano, aún en cargos superiores, será necesariamente benévolo y sobre todo justo o equitativo.
Lo cierto es que las posibilidades de éxito son mucho más reducidas cuando se enfrenta un test o un cuestionario que será evaluado por una máquina. Las diferencias son cualitativas: para un trabajo gerencial se tendrán en cuenta ciertos rasgos o factores humanos (aquellos que el empleador considera convenientes aunque en ello la ética tenga poco o nada que hacer) mientras que en los cargos de ingreso o de baja especialización el análisis o categorización lo hará un algoritmo que producirá una etiqueta inapelable y mucho más letal para las aspiraciones de los trabajadores.
Los “mercaderes de la certeza”, que aplican o promueven pruebas psicolaborales o algoritmos seleccionadores, le venden tranquilidad a quienes deben adoptar las decisiones. Los ponen a cubierto de sus fallas, errores o incompetencias. O'Neil, por ejemplo, investigó el uso de algoritmos en el sistema de ayudas para los sin techo que se desarrollaba en Nueva York y se dio cuenta que los mismos no pretendían mejorar las condiciones de vida de las personas en situación de calle sino evitar el fracaso de las políticas que se habían diseñado al más alto nivel para eliminar el problema. The New York Times publicó un artículo que daba cuenta de la muerte de un niño a consecuencia de una falla en las redes de ayuda y resultó que la culpa era del algoritmo que seleccionaba a quienes podían ingresar y que, en ese caso, había impedido la entrada del menor. Quienes toman decisiones no deben usar algoritmos para evitar sus responsabilidades.
Una mejor formación en psicología, en estadística o en matemáticas no incide en la justicia y la eficacia de los procesos de reclutamiento y selección porque de lo que se trata es del control que se aplica sobre los trabajadores. En ese marco no es necesaria ninguna formación profesional para entender lo que es justo y lo que es injusto. Ni siquiera los cursos de deontología, de ética profesional, las conferencias y libros que se han escrito sobre la materia sirven para garantizar la conducta ética de los profesionales.
La formación de los profesionales, en particular de los psicólogos, debería hacer un especial hincapié en el papel del profesional en el campo de la psicología del trabajo, desarrollar su espíritu crítico, darle herramientas conceptuales para combatir la manipulación y propender a combatir las fallas éticas y técnicas de los procesos de selección . El rechazo a los psicólogos que se han prestado a participar en torturas e interrogatorios y otras graves violaciones de los derechos humanos se ha manifestado en muchos países, entre ellos en el Uruguay, y esto se ha reflejado en los códigos de ética adoptados por corporaciones profesionales.
Lamentablemente esto no ha evitado que sigan existiendo profesionales y técnicos que participen en actividades éticamente reprobables o conseguido que las mismas hayan sido incluidas como condenables en dichos códigos. Mas allá de algunas generalidades carentes de efectos prácticos los códigos de ética no consideran prevenir a sus asociados (y por ende a la sociedad) acerca de los efectos altamente perjudiciales de la aplicación de pruebas psicolaborales carentes de validez, los cuestionarios y pruebas que incursionan en la personalidad y cuyos resultados son eliminatorios e inapelables y ahora, crecientemente, acerca del uso de algoritmos seleccionadores.
Es imprescindible que este tema sea incorporado claramente en la orden del día de las comisiones gremiales que tratan las cuestiones de salud y bienestar de los trabajadores, ya sea a nivel del PIT-CNT como en los sindicatos que integran la central y en las organizaciones sociales que defienden los derechos de la población o que desarrollan su actividad en las áreas de la salud y la enseñanza, entre otras, porque en definitiva se trata de conseguir que quien sea excluido por un algoritmo o vea impedido su acceso al trabajo por una prueba psicolaboral carente de validez pueda exigir el derecho inalienable del consentimiento informado, antes de la selección, y reclamar justicia, obtener una devolución oportuna y adecuada y segundas opiniones u oportunidades, después de haber sido etiquetado.
Un algoritmo es el resultado de un proceso de toma de decisiones y no solamente perjudica a los trabajadores cuando se aplica a la evaluación del desempeño y a los procesos de selección. Por ejemplo se han diseñado algoritmos para maximizar los beneficios, reduciendo los costos por fuerza de trabajo, mediante los horarios continuos (clopening) y otras formas de precarización que se intenta aplicar en negocios de servicios que operan durante las 24 horas, en la salud y en otros sectores de funcionamiento continuo. Es decir, el trabajador que cierra a las 22 hs., por ejemplo, es el mismo que abre a las 6 hs. En países como los Estados Unidos, los algoritmos concebidos para aumentar la eficiencia y economizar en remuneraciones mediante la manipulación de los horarios de los trabajadores hacen que las dos terceras partes de quienes lo hacen en el sector servicios y más de la mitad de quienes se desempeñan como vendedores se enteren de sus horarios de trabajo con una semana o menos de antelación.
Donde existen leyes que otorgan ciertos beneficios a quienes trabajan por lo menos 35 horas semanales, ya funcionan algoritmos que se aseguran de que ningún trabajador sobrepase las 34 horas semanales. Como generalmente no existen normas que digan que se debe trabajar en el mismo horario todos los días, el algoritmo no tiene en cuenta la vida del empleado y le asigna los horarios más beneficiosos para la empresa.
En cambio, el sistema puede incorporar las predicciones meteorológicas de modo que si se ha previsto mal tiempo y consiguientemente una baja en ventas debido a la disminución de la clientela, el algoritmo cambia los turnos y los horarios. De este modo aumenta la explotación de los trabajadores que, entre otras cosas, no pueden organizar su tiempo libre, el cuidado de sus hijos o el estudio. Además hay efectos nocivos producto, por ejemplo, de la falta de sueño que inciden inevitablemente sobre el desempeño y la salud (entre otros, aumento de la tensión, disminución de los tiempos de reacción, propensión a errores y accidentes, depresión, hipertensión, obesidad, desórdenes metabólicos).
La única solución para enfrentar estos sistemas inhumanos pasa por su reglamentación por parte del Estado. La prohibición de la aplicación de técnicas carentes de validez y el respeto a los principios fundamentales de la ética en el trabajo con seres humanos (consentimiento informado, devolución completa y oportuna, propiedad de los datos por los sujetos y prohibición de su uso, derecho a segundas opiniones, prohibición de algoritmos seleccionadores, prohibición de algoritmos cuyas decisiones afecten la salud y el bienestar de las personas, transparencia de los procesos de decisión, prohibición de la enajenación o utilización de los datos para cualquier fin distinto de aquel para que se recabaron, etc.) debe de estar sobre la mesa en las negociaciones colectivas y debe laudarse con claridad.
1 En matemáticas, computación y disciplinas relacionadas, un algoritmo es un conjunto preestablecido de instrucciones o reglas definidas, ordenadas y finitas que permiten llevar a cabo una actividad mediante pasos sucesivos que no generen dudas a quien deba hacer dicha actividad. Dados un estado inicial y una entrada, siguiendo los pasos sucesivos se llega a un estado final y se obtiene una solución.

2 Occupy Wall Street fue un movimiento de protesta que empezó en setiembre de 2011 en un parque situado en el distrito financiero en Nueva York. Tuvo gran repercusión internacional, se extendió a distintas capitales de los países desarrollados y ha seguido actuando como un movimiento contra la inequidad económica y de denuncia del capitalismo salvaje, especialmente en su variante neoliberal.
3 Big data es el nombre genérico que se da a un inmenso conjunto de datos que pueden ser analizados por computadoras para extraer “perfiles”, tendencias y asociaciones en materia de conductas humanas que se utilizan para inducir al consumo, a seguir tendencias, a creer en “noticias falsas” y en todo caso a manipular a las personas.
4Wolfram Mathematica es un sistema técnico de computación que abarca las más diversas áreas desde las redes neuronales, máquinas que aprenden, procesamiento de imágenes, geometría, ciencias de la información, visualizaciones y, desde luego, tiene un sistema de evaluación de maestros de enseñanza primaria y secundaria. El sistema es muy utilizado en ámbitos técnicos, científicos, de ingeniería, matemáticas y computación.

No hay comentarios:

Publicar un comentario