Armas de destrucción matemática - Cathy O'Neil

Armas de destrucción matemática
Cathy O'Neil

Agradecimientos

Quiero dar las gracias a mi marido y a mis hijos por su increíble apoyo. Gracias también a John Johnson, Steve Waldman, Maki Inada, Becky Jaffe, Aaron Abrams, Julie Steele, Karen Burnes, Matt LaMantia, Martha Poon, Lisa Radcliffe, Luis Daniel y Melissa Bilski. Y también gracias a las personas sin las que este libro no existiría: Laura Strausfeld, Amanda Cook, Emma Berry, Jordan Ellenberg, Stephen Baker, Jay Mandel, Sam Kanson-Benanav y Ernie Davis.

Este libro está dedicado a todos los desamparados

Introducción

Cuando era pequeña, solía quedarme mirando el tráfico a través de la ventanilla del coche estudiando los números de las matrículas de los vehículos que pasaban. Me gustaba reducir cada matrícula a sus elementos básicos —los números primos que la componen—. 45 = 3 × 3 × 5. Esto se denomina factorización y era mi pasatiempo de investigación favorito. Yo era una empollona de matemáticas en ciernes y sentía una fascinación particular por los números primos.
Mi amor por las matemáticas acabó convirtiéndose en una auténtica pasión. Fui a un campamento de matemáticas cuando tenía catorce años y volví a casa agarrando con fuerza un cubo de Rubik contra mi pecho. Las matemáticas me ofrecían un refugio ordenado frente al desorden del mundo real. Avanzaban a grandes pasos y su ámbito de conocimiento se ampliaba inexorablemente, prueba tras prueba. Y yo podía contribuir a su desarrollo. Me especialicé en matemáticas en la facultad y decidí estudiar un doctorado. Mi tesis versaba sobre la teoría de los números algebraicos, un campo cuyas raíces estaban precisamente en esa factorización que me gustaba hacer cuando era niña. Con el tiempo, conseguí un trabajo de profesora con opción a un contrato fijo en la universidad de Barnard College, que compartía con la Universidad de Columbia el departamento de Matemáticas.
Al cabo de un tiempo, decidí cambiar radicalmente mi carrera profesional. Dejé mi puesto y empecé a trabajar como analista cuantitativa (quant en inglés) para D. E. Shaw, un destacado fondo de cobertura. Al dejar el mundo académico por las finanzas, llevé las matemáticas de la teoría abstracta a la práctica. Las operaciones que hacíamos con números se traducían en billones de dólares que pasaban de una cuenta a otra. Al principio estaba entusiasmada y asombrada con la idea de trabajar en este nuevo laboratorio, la economía mundial, pero en otoño de 2008, cuando llevaba poco más de un año en ese mundo, todo se desplomó.
La crisis financiera dejó bien claro que las matemáticas, que una vez habían sido mi refugio, no solo estaban profundamente involucradas en los problemas del mundo, sino que además agravaban muchos de ellos. La crisis inmobiliaria, la ruina de grandes entidades financieras, el aumento del desempleo: todo esto había sido impulsado e inducido por matemáticos que blandían fórmulas mágicas. Además, gracias a los extraordinarios poderes que tanto amaba, las matemáticas podían combinarse con la tecnología para multiplicar el caos y la desgracia, lo que añadía eficacia y magnitud a unos sistemas que entonces comprendí que eran defectuosos.
Si hubiéramos estado lúcidos, habríamos dado un paso atrás en este punto para analizar cómo habíamos hecho un mal uso de las matemáticas y cómo podíamos evitar una catástrofe similar en el futuro. Sin embargo, en lugar de eso, justo después de la crisis, las nuevas técnicas matemáticas estaban más de moda que nunca y se extendían a un creciente número de áreas. Funcionaban veinticuatro horas al día procesando petabytes de información, en gran parte datos extraídos de las redes sociales o de páginas web de comercio electrónico. Y en lugar de prestar cada vez más atención a los movimientos de los mercados financieros mundiales, se dedicaban cada vez más a analizar a los seres humanos, a nosotros. Los matemáticos y los especialistas en estadísticas estudiaban nuestros deseos, nuestros movimientos y nuestro poder adquisitivo. Predecían nuestra solvencia y calculaban nuestro potencial como estudiantes, trabajadores, amantes o delincuentes.
Esta era la economía del big data, y prometía ganancias espectaculares. Un programa de ordenador era capaz de procesar miles de currículos o solicitudes de préstamos en un par de segundos y clasificarlos en listas bien ordenadas, con los candidatos más prometedores situados en los primeros puestos. Estos programas no solo permitían ahorrar tiempo, sino que además se anunciaban como procesos más justos y objetivos. Al fin y al cabo, eran procesos en los que no había seres humanos, con sus prejuicios, escarbando en montones de papel, sino simplemente máquinas procesando números de manera objetiva. En el año 2010 aproximadamente las matemáticas se habían impuesto como nunca antes en los asuntos humanos, y el público en general recibió el cambio con los brazos abiertos.
Y, sin encargo, yo veía problemas en el horizonte. Estas aplicaciones fundamentadas en las matemáticas que alimentaban la economía de los datos se basaban en decisiones tomadas por seres humanos que no eran infalibles. Seguro que algunas de esas decisiones se tomaban con la mejor de las intenciones, pero muchos de estos modelos programaban los prejuicios, las equivocaciones y los sesgos humanos en unos sistemas informáticos que dirigían cada vez más nuestras vidas. Cuales dioses, estos modelos matemáticos eran opacos y sus mecanismos resultaban invisibles para todos, salvo para los sumos sacerdotes del sector: los matemáticos y los ingenieros informáticos. Sus veredictos, incluso cuando estaban equivocados o eran perjudiciales, eran indiscutibles e inapelables y solían castigar a los pobres y los oprimidos de nuestra sociedad, al tiempo que enriquecían a los ricos.
Se me ocurrió un nombre para este tipo de modelos perniciosos: armas de destrucción matemática o ADM. Veamos un ejemplo, en el que iré señalando sus características destructivas poco a poco.
Como ocurre a menudo, este caso empezó con un objetivó loable. En 2007, el nuevo alcalde de Washington D. Q, Adrian Fenty, estaba decidido a corregir la situación de las escuelas deficientes de la ciudad. Tenía un gran desafío por delante: en ese momento, apenas uno de cada dos alumnos de instituto llegaba a la graduación después del noveno curso[1] (el equivalente a tercero de secundaria) y solo un 8 % de los alumnos de octavo curso[2] (el equivalente a segundo de secundaria) tenía un nivel de matemáticas acorde a su curso. Fenty contrató a la experta en reformas educativas Michelle Rhee para que ocupara un importante puesto de nueva creación: sería nombrada rectora de los centros educativos de primaria y secundaria de Washington.
La teoría generalmente aceptada era que los alumnos no aprendían lo suficiente porque sus profesores no trabajaban bien. De modo que, en 2009, Michelle Rhee puso en marcha un plan para extirpar del sistema a los docentes de bajo rendimiento. Esta era la tendencia generalizada en los distritos escolares con problemas en todo el país y, desde el punto de vista de la ingeniería de sistemas, este razonamiento tiene mucho sentido. Hay que evaluar a los profesores, deshacerse de los peores y colocar a los mejores donde puedan producir el mayor efecto positivo posible. En el lenguaje de los científicos de datos, de este modo «se optimiza» el sistema escolar y presuntamente se garantizan mejores resultados para los alumnos. Exceptuando a los «malos» profesores, ¿quién podría no estar de acuerdo con este razonamiento? Rhee desarrolló una herramienta de evaluación del personal docente[3] a la que llamó IMPACT y, a finales del curso académico 2009-2010, el distrito escolar despidió a todos los docentes cuyas puntuaciones los situaban en el 2 % inferior.[4] A finales del siguiente curso, echaron a otro 5 %, es decir a 206 maestros y profesores.[5]
No parecía que Sarah Wysocki, una maestra de quinto curso[6] (el equivalente a quinto de primaria), tuviera nada por lo que preocuparse. Llevaba trabajando solo dos años en el colegio MacFarland, pero el director del colegio y los padres de sus alumnos tenían ya una excelente opinión de ella. En una evaluación la elogiaban por lo atenta que era con los niños;[7] en otra se decía que era «una de las mejores maestras con las que he tratado nunca».
No obstante, a finales del curso de 2010-2011, Wysocki sacó una penosa puntuación en su evaluación de IMPACT.[8] El problema fue un nuevo sistema de puntuación llamado modelación de valor añadido, que pretendía medir su eficacia en la enseñanza de competencias lingüísticas y matemáticas. Esa puntuación, generada por un algoritmo, representaba la mitad de su valoración global,[9] y tenía más peso que las valoraciones positivas de los cargos directivos del colegio y de la comunidad. De modo que el distrito escolar no tuvo más remedio que despedirla, junto con otros 205 docentes que habían tenido puntuaciones de IMPACT por debajo del umbral mínimo.
No parecía tratarse de una caza de brujas ni de un ajuste de cuentas. De hecho, el enfoque del distrito escolar tenía lógica. Al fin y al cabo, los cargos directivos de los centros educativos podían ser amigos de personas que hicieran muy mal su trabajo, o quizá admiraran su estilo o su aparente dedicación. Los malos docentes pueden parecer buenos. Por lo tanto, el distrito de Washington, al igual que otros muchos sistemas escolares, decidió que debía minimizar este sesgo humano y prestar más atención a las puntuaciones basadas en resultados irrefutables: las puntuaciones de rendimiento de los alumnos en matemáticas y lectura. Los números hablarían alto y claro, prometieron los funcionarios del distrito escolar. Serían más justos.
Obviamente, Sarah Wysocki pensó que los números eran terriblemente injustos y quiso saber de dónde venían. «No creo que nadie los entendiera», me dijo después. ¿Cómo podía una buena maestra sacar tan malas puntuaciones? ¿Qué medía exactamente el modelo de valor añadido?
Según descubrió Sarah Wysocki, la respuesta era muy complicada. El distrito había contratado a una consultora con sede en Princeton, Mathematica Policy Research, para que creara el sistema de evaluación.[10] Mathematica se enfrentó al reto de medir el progreso educativo de los alumnos del distrito y a continuación calcular qué parte de ese progreso o retroceso podía atribuirse a sus maestros y profesores. Evidentemente, no fue tarea fácil. Los investigadores sabían que muchas variables diferentes, desde el contexto socioeconómico de los alumnos hasta las dificultades de aprendizaje, podían afectar a los resultados de los alumnos. Los algoritmos tenían que tener en cuenta dichas diferencias, lo que explicaba en parte por qué eran tan complejos.
Efectivamente, intentar reducir el comportamiento, el rendimiento y el potencial humanos a algoritmos no es tarea fácil. Para comprender lo que intentaba evaluar Mathematica, imaginemos a una niña de diez años de un barrio pobre del sureste de Washington D. C. Al final de un curso escolar, hace la prueba homologada de quinto curso. Y luego la vida sigue. Puede que haya problemas en su familia o que tengan dificultades económicas. Quizá se muden a una nueva casa o a la niña le preocupen los problemas que tiene su hermano mayor con la ley. Tal vez esté descontenta con su peso, o quizá esté asustada porque la acosan en el colegio. Pase lo que pase, al final del curso siguiente hace otra prueba homologada, la prueba diseñada para los alumnos de sexto curso.
Al comparar los resultados de ambas pruebas, la puntuación debería mantenerse estable o, con suerte, subir. Mientras que si sus resultados caen en picado, resulta fácil calcular la diferencia entre su rendimiento y el de los alumnos con buenos resultados.
Pero ¿qué parte de esa diferencia es responsabilidad de su maestra? Es difícil saberlo, y los modelos de Mathematica solo pueden comparar unas cuantas cifras. En empresas de big data como Google, por el contrario, los investigadores están constantemente haciendo pruebas y controlan miles de variables. Pueden preparar dos versiones de un mismo anuncio —una con las letras en azul y otra en rojo—, presentar cada una de estas versiones a diez millones de personas y hacer un seguimiento para saber cuál de las dos recibe más clics. Utilizan esta retroalimentación para pulir sus algoritmos y ajustar su funcionamiento. Aunque considero que Google presenta muchos problemas, como veremos más tarde, es cierto que en este tipo de pruebas hace un uso efectivo de las estadísticas.
Intentar calcular el impacto que una persona puede tener sobre otra a lo largo de un curso escolar es un proceso mucho más complejo, «Hay tantos factores implicados en la enseñanza y en el aprendizaje que sería muy difícil medirlos todos», decía Sarah.[11] Por otra parte, intentar puntuar la eficacia de un docente analizando los resultados de una prueba de solo veinticinco o treinta alumnos no tiene solidez estadística y es incluso ridículo. El número de valores es insuficiente si se tiene en cuenta todo lo que puede fallar. De hecho, si quisiéramos analizar a los docentes con el rigor estadístico de un motor de búsqueda, tendríamos que probarlos en miles o incluso millones de alumnos seleccionados al azar. Los estadísticos utilizan grandes cifras para compensar las excepciones y las anomalías (y las ADM, como veremos más adelante, a menudo castigan a personas concretas que resultan ser la excepción).
Otro aspecto igualmente importante es que los sistemas estadísticos requieren una retroalimentación, algo que les indique cuándo se están desviando. Los estadísticos utilizan los errores para enseñar a sus modelos y hacerlos más inteligentes. Si Amazon.com empleara una correlación defectuosa y empezara a recomendar libros sobre el cuidado del césped a chicas adolescentes, el número de clics caería en picado y la empresa se aseguraría de corregir el algoritmo hasta que funcionara bien. Sin embargo, si no se tiene en cuenta la retroalimentación, un motor estadístico puede seguir realizando análisis defectuosos y perjudiciales sin aprender nunca de sus errores.
Muchas de las ADM de las que hablaré en este libro, incluido el modelo de valor añadido del distrito escolar de Washington, se comportan así. Definen su propia realidad y la utilizan para justificar sus resultados. Este tipo de modelo se autoperpetúa y es altamente destructivo —y además está muy extendido—.
Cuando el sistema de puntuación de Mathematica etiquetó a Sarah Wysocki y a otros 205 docentes como malos enseñando, el distrito escolar los despidió. Pero ¿cómo puede confirmar el sistema que su análisis fue correcto? No puede, El sistema decidió él sofito que estos docentes eran un desastre y los trataron como tal. Doscientos seis «malos» enseñantes menos. Este simple hecho ya parece demostrar lo efectivo que es el modelo de valor añadido: está limpiando el distrito de los maestros de bajo rendimiento. En lugar de buscar la verdad, la puntuación que produce el modelo la personifica.
Este es un ejemplo del bucle de retroalimentación de un ADM. Veremos muchos otros en este libro. Las empresas, por ejemplo, utilizan cada vez más las calificaciones de solvencia crediticia para evaluar a los posibles candidatos. Se basan en la creencia de que las personas que pagan pronto sus facturas tienen más probabilidades de llegar puntualmente a su puesto de trabajo y de cumplir las normas. Aunque en realidad hay muchas personas responsables y buenos trabajadores que tienen mala suerte y cuya calificación crediticia cae en picado. No obstante, esta idea de que una mala calificación crediticia está relacionada con un mal rendimiento en el trabajo hace que las personas que tienen una calificación más baja tengan menos probabilidades de encontrar trabajo. El desempleo los empuja a la pobreza, lo que a su vez empeora aún más sus calificaciones de solvencia, con lo que les resulta aún más difícil encontrar trabajo. Es una espiral que se retroalimenta. Y las empresas nunca descubren cuántos buenos empleados han dejado de contratar por centrarse únicamente en las calificaciones crediticias. En las ADM, hay muchas premisas perniciosas camufladas bajo las matemáticas y se mantienen sin que nadie las verifique ni las cuestione.
Esto nos lleva a hablar de otra característica común de las ADM: suelen castigar a los pobres. Esto se debe, en parte, a que han sido diseñadas para evaluar grandes cantidades de personas. Están especializadas en trabajar con grandes volúmenes, y son baratas. Eso forma parte de su atractivo. Los ricos, en cambio, reciben a menudo un trato más personal. Un bufete de abogados de dase alta o un exclusivo instituto privado se basarán más en recomendaciones y entrevistas personales durante los procesos de selección que una cadena de comida rápida o un distrito escolar urbano con escasos fondos. Los privilegiados, como veremos una y otra vez, son analizados por personas; las masas, por máquinas.
El hecho de que Sarah Wysocki no consiguiera encontrar a nadie que le pudiera explicar su pésima puntuación también es muy revelador. Los veredictos de las ADM son como los dictados de los dioses de los algoritmos. El modelo en sí es una caja negra, su contenido, un secreto corporativo fieramente guardado, De este modo, las consultoras como Mathematica pueden cobrar más, aunque este secretismo sirve también a otros propósitos: se supone que, si las personas evaluadas no saben cómo se hace la evaluación, es menos probable que intenten engañar al sistema. Y así no les quedará otra alternativa que simplemente trabajar duro, cumplir las normas y rezar por que el modelo registre y valore sus esfuerzos. Por otra parte, al esconder los detalles de su funcionamiento, también resulta más difícil cuestionar la puntuación resultante o protestar contra ella.
Durante años, los docentes de Washington se quejaron de las puntuaciones arbitrarias y pidieron los detalles de los aspectos que se valoraban. Es un algoritmo, les dijeron, es muy complejo. Esto disuadió a muchos de seguir presionando. Desgraciadamente, hay muchas personas que se sienten intimidadas por las matemáticas. Pero Sarah Bax, una profesora de Matemáticas, siguió presionando al administrador del distrito, Jason Kamras, un antiguo colega suyo, para que le diera los detalles.[12] Después de meses de tira y afloja, Jason Kamras le dijo que esperara un poco, que se publicaría pronto un informe técnico. Sarah Bax le contestó: «¿Cómo puedes justificar el hecho de que estéis evaluando a personas con un método que no sois capaces de explicar?». Pero esa es precisamente la naturaleza de las ADM. El análisis se subcontrata a programadores y estadísticos, y, por lo general, dejan que sean las máquinas las que hablen.
A pesar de todo, Sarah Wysocki sabía que las puntuaciones de las pruebas estandarizadas de sus alumnos tenían un gran peso en la fórmula. Y tenía ciertas sospechas sobre ese punto. Antes de empezar el que sería su último curso en el centro de enseñanza media MacFarland, se había llevado una alegría al descubrir que sus nuevos alumnos de quinto curso habían tenido unas notas sorprendentemente buenas en las pruebas que habían hecho al finalizar el curso anterior. En el centro de primarla Barnard, del que venían muchos de sus alumnos, el 29 % de los alumnos[13] obtuvo la calificación de «nivel avanzado» en lectura. Era un porcentaje cinco veces mayor que la media del distrito escolar.
Sin embargo, cuando empezaron las clases, Sarah descubrió que a muchos de sus alumnos les costaba leer incluso frases sencillas. Mucho después, los periódicos Washington Post y USA Today publicaron que se había descubierto un alto número de tachaduras en las pruebas homologadas de 41 centros escolares del distrito, incluido el Barnard.[14] Encontrar un alto número de respuestas corregidas apunta a una mayor probabilidad de que se hayan hecho trampas en el examen. En algunos centros se sospechaba de hasta el 70 % de las clases.
¿Y qué tiene esto que ver con las ADM? Pues un par de cosas. En primer lugar, los algoritmos de evaluación de docentes son una herramienta poderosa para la modificación del comportamiento. Ese es su propósito, y en los centros educativos de Washington sirvieron al mismo tiempo de palo y de zanahoria. Los maestros sabían que si sus alumnos tropezaban en la prueba, sus propios empleos estarían amenazados. Y esto supuso una fuerte motivación para los maestros, que querían asegurarse de que sus alumnos aprobarían, especialmente en un momento en el que la Gran Recesión azotaba el mercado laboral, Al mismo tiempo, si sus alumnos obtenían mejores resultados que otros alumnos del mismo curso, los maestros y los directivos de los centros recibirían primas de hasta 8000 dólares.[15] Si se combinan estos poderosos incentivos con las pruebas del caso —el alto número de respuestas borradas y las puntuaciones anormalmente altas en las pruebas—, hay razones para sospechar que los maestros de cuarto curso, cediendo ante el miedo o la codicia, habían corregido los exámenes de sus alumnos.
Esto significa que existe la posibilidad de que los alumnos de quinto curso de Sarah Wysocki empezaran el curso escolar con unas puntuaciones artificialmente infladas. Si esto fue así, los resultados que obtuvieron al final del quinto curso condujeron a la falsa conclusión de que sus competencias habían retrocedido… y de que tenían una mala maestra, Sarah estaba convencida de que este había sido su caso. Esta explicación encajaría con los comentarios de los padres, los compañeros y su director, que decían que era una buena docente. Esto aclararía toda la confusión. Sarah Wysocki tenía argumentos sólidos.
Sin embargo, no es posible apelar la decisión de un ADM. Esto forma parte de su temible poder. No escuchan. Ni se doblegan. Son sordas, y no solo al encanto, las amenazas y las adulaciones, sino también a la lógica, incluso cuando hay buenas razones para cuestionar los datos que alimentan sus conclusiones. Sí, es cierto que si resulta evidente que los sistemas automatizados están metiendo la pata de forma vergonzosa y sistemática, los programadores abrirán los sistemas y retocarán los algoritmos, pero en casi todos los casos los programas emiten veredictos inquebrantables, y a los seres humanos que los utilizan solo les queda encogerse de hombros como si dijeran: «Bueno, ¿y qué podemos hacer?».
Y esa es precisamente la respuesta que Sarah Wysocki recibió finalmente del distrito escolar. Jason Kamras declaró después al Washington Post que las tachaduras eran «sugerentes»[16] y que era posible que hubiera algún error en las puntuaciones de los alumnos de quinto curso de Sarah Wysocki, pero que las pruebas no eran concluyentes. Según Jason Kamras la habían tratado con justicia.
¿Es clara la paradoja? Un algoritmo procesa un montón de estadísticas y produce como resultado una cierta probabilidad de que una persona concreta pueda ser un mal empleado, un prestatario de riesgo, un terrorista o un pésimo maestro. Esa probabilidad se condensa en una puntuación, que puede llegar a destrozar la vida de alguien. Y, sin embargo, cuando esa persona decide defenderse, las «sugerentes» pruebas en contra del veredicto son insuficientes para aclarar las cosas. El caso debe quedar blindado. Como veremos a lo largo de este libro, en lo que a las pruebas se refiere, las víctimas humanas de las ADM tienen que responder a un nivel de exigencia mucho mayor que los propios algoritmos.
Después de la terrible sorpresa de su despido, Sarah Wysocki solo estuvo unos cuantos días en paro.[17] Había mucha gente dispuesta a responder por su trabajo como maestra, entre ellas su director, y en seguida la contrataron en un colegio de un próspero distrito al norte de Virginia. La consecuencia final fue que, gracias a un modelo altamente cuestionable, un colegio pobre perdió a una buena maestra, y un colegio rico que no despedía a los docentes por las puntuaciones que obtuvieran sus alumnos ganó una.

* * *

Tras el estallido de la burbuja hipotecaria, fui consciente de la proliferación de ADM en la banca y del peligro que suponían para nuestra economía, A principios de 2011 dejé mi trabajo en el fondo de cobertura. Más tarde, tras añadir a mi currículo las palabras «científica de datos», empecé a trabajar en una start-up de comercio electrónico. Desde ese lugar estratégico veía que había legiones de ADM operando en todos los sectores imaginables, muchas de ellas exacerbando la desigualdad y castigando a los pobres. Estaban en el corazón de la atroz economía de los datos.
Quería hacer correr la voz sobre las ADM y empecé a escribir un blog, MathBabe. Con él pretendía movilizar a otros matemáticos contra el uso de estadísticas chapuceras y de modelos sesgados que crean sus propios bucles de retroalimentación perniciosos. Mi blog atrajo en particular a muchas personas especializadas en datos, que me advirtieron de la propagación de ADM a otros sectores. Pero a mediados de 2011, cuando arrancó el movimiento Occupy Wall Street al sur de Manhattan, comprendí que teníamos mucho trabajo que hacer con el gran público. Miles de personas se habían reunido para exigir justicia económica y rendición de cuentas, pero cuando escuchaba las entrevistas que hacían a los miembros del movimiento, a menudo saltaba a la vista que no sabían nada de los aspectos más elementales de las finanzas. Era obvio que no habían leído mi blog (aunque debo añadir que no es necesario entender todos los detalles de un sistema para saber que ha fracasado).
Me di cuenta de que tenía dos opciones: podía criticarlos o unirme a ellos; y decidí unirme a ellos. Poco después empecé a dirigir las reuniones semanales del Grupo de Banca Alternativa en la Universidad de Columbia, donde debatíamos sobre la reforma financiera, Durante este proceso, descubrí que mis dos aventuras fuera del mundo académico, una en finanzas y la otra en la ciencia de los datos, me habían abierto las puertas a la tecnología y a la cultura que alimentan las ADM.
En la actualidad, los modelos matemáticos mal diseñados microgestionan la economía, desde la publicidad hasta las cárceles. Estas ADM presentan muchas de las características que tiene el modelo de valor añadido que arruinó la carrera de Sarah Wysocki en los centros educativos públicos de Washington. Son opacas, nadie las cuestiona, no dan ningún tipo de explicaciones y operan a tal escala que clasifican, tratan y «optimizan» a millones de personas. Al confundir sus resultados con la realidad sobre el terreno, la mayoría de ellas crean bucles de retroalimentación perniciosos.
No obstante, hay una diferencia importante entre un modelo de valor añadido de un distrito escolar y, por ejemplo, un ADM que busca a posibles clientes para los abusivos préstamos rápidos: las recompensas que obtienen son diferentes. En el caso del distrito escolar, la recompensa es una especie de divisa política, la sensación de que se están arreglando los problemas. Mientras que en el caso de las empresas, la recompensa es la divisa habitual: dinero. En muchas de las empresas que utilizan estos algoritmos canallas, el dinero que ganan a raudales parece demostrar que sus modelos funcionan bien. Si lo consideramos desde su punto de vista, tiene mucho sentido. Construyen sistemas estadísticos para encontrar clientes o manipular a prestatarios desesperados, y sus crecientes ingresos parecen demostrar que van por el buen camino. El software cumple su función. El problema es que los beneficios acaban actuando como un valor sustitutivo de la verdad. Veremos que esta peligrosa confusión se repite una y otra vez.
Esto ocurre porque los científicos de datos se olvidan con demasiada frecuencia de la gente que está al otro lado de la transacción, Sin duda alguna saben que un programa de procesamiento de datos malinterpretará a las personas parte del tiempo, lo que significa que las clasificará en grupos que no les corresponden, o les negará el acceso a un empleo o la oportunidad de comprar la casa de sus sueños. Y, sin embargo, en términos generales, las personas que ejecutan las ADM no se paran a pensar en esos errores, Su retroalimentación es el dinero, que es también su incentivo. Sus sistemas están diseñados para engullir más y más datos y perfeccionar sus análisis con el objetivo de que les llueva más dinero. Los inversores, evidentemente, celebran estos rendimientos y colman a las empresas de ADM con más dinero.
¿Y las víctimas? Bueno, un científico de datos nos diría que ningún sistema estadístico es perfecto. Esas personas son daños colaterales. Y, con frecuencia, como en el caso de Sarah Wysocki, son consideradas indignas y prescindibles. Olvidémonos de las víctimas por un momento, nos diría, y pensemos en todas las personas que reciben sugerencias provechosas de los motores de recomendación y que encuentran música que les apasiona en la radio en línea Pandora, su trabajo ideal en LinkedIn o quizá el amor de su vida en Match.com. Pensemos en la prodigiosa escala de estos modelos e ignoremos las imperfecciones.
El big data cuenta con muchos predicadores, pero yo no me cuento entre sus filas. Este libro va claramente en otra dirección, trata sobre el daño que infligen las ADM y las injusticias que perpetúan. Repasaremos ejemplos dañinos que afectan a las personas en momentos cruciales de la vida: empezar la universidad, pedir un préstamo, ser condenado a prisión o encontrar y conservar un trabajo. Todos estos ámbitos de nuestras vidas están cada vez más en manos de unos modelos secretos que blanden castigos arbitrarios.
Bienvenidos al lado oscuro del big data.

Capítulo 1
Partes de una bomba ¿Qué es un modelo?

Era una calurosa tarde de agosto de 1946. Lou Boudreau, el jugador y director técnico del equipo de los Cleveland Indians, llevaba un día terrible. En el primer partido de un doble juego, Ted Williams, que jugaba con el adversario, casi había logrado aniquilar a todo su equipo él solito. Ted, quien tal vez fuera el mejor bateador de la historia hasta el momento, había anotado tres jonrones y llevado a ocho jugadores al home. Los Indians acabaron perdiendo 11 a 10.
Lou Boudreau tenía que hacer algo. De modo que, cuando Ted Williams apareció por primera vez durante el segundo partido, los jugadores de los Indians cambiaron de posición. Lou, el campocorto, corrió hasta donde solía colocarse el jugador de segunda base y este se retiró al campo exterior derecho. El jugador de tercera base se fue hacia la izquierda, al agujero del campocorto. Resultaba obvio que Lou Boudreau, quizá por pura desesperación,[18] estaba cambiando toda la orientación de su defensa para intentar poner a Ted William out cada vez que bateara.
En otras palabras, Lou Boudreau estaba pensando como un científico de datos. Había analizado los datos primarios, en general mediante observación: Ted Williams normalmente bateaba la pelota al campo derecho. Así que Lou se adaptó a eso. Y funcionó. Los jardineros consiguieron interceptar más veloces líneas de Williams que antes (aunque no pudieron hacer nada contra los jonrones que volaban sobre sus cabezas).
En cualquier partido de béisbol de una liga importante en la actualidad, los defensores tratan a casi todos los jugadores como Lou Boudreau trató a Ted Williams. Mientras que Lou simplemente observó dónde solía batear la pelota Ted Williams, los directores técnicos de hoy en día saben exactamente dónde ha bateado la pelota cada jugador durante la última semana, en el último mes, a lo largo de su carrera, contra lanzadores zurdos, cuando lleva dos strikes, etc. Utilizan estos datos históricos para analizar cada situación y calcular el posicionamiento de los jugadores que está asociado a la mayor probabilidad de éxito, lo que en ocasiones implica colocar a los jugadores en posiciones alejadas.
Cambiar a los defensores de posición es solo una parte de una pregunta mucho más amplia: ¿qué medidas pueden tomar los equipos de béisbol para maximizar la probabilidad de ganar? En su búsqueda de respuestas, los estadísticos del béisbol han desmenuzado cada una de las variables que han podido cuantificar y le han adjudicado un valor. ¿Qué diferencia de valor hay entre un doble y un sencillo? ¿Cuándo merece la pena dar un toque de bola para que un jugador pase de primera a segunda base? ¿Tiene algún sentido hacerlo?
Las respuestas a todas estas preguntas se mezclan y combinan en los modelos matemáticos de este deporte. Estos modelos constituyen universos paralelos del mundo del béisbol, y cada uno de ellos es un complejo tapiz de probabilidades. Incluyen todas las relaciones medibles entre los distintos componentes del béisbol, desde las bases por bolas hasta los jonrones, pasando por los propios jugadores. La finalidad del modelo es ejecutar diferentes escenarios en cada coyuntura para dar con las combinaciones óptimas. Si los Yankees ponen a un lanzador diestro para enfrentarse a Mike Trout, el bateador de los Angels que batea con más fuerza, en lugar de dejar al lanzador que tenían, ¿tendrán más probabilidades de eliminarlo? ¿Y cómo afectará eso a sus probabilidades de ganar el partido?
El béisbol es el entorno ideal para probar los modelos matemáticos predictivos. Tal y como explicó Michael Lewis en su best seller de 2003, Moneyball,[19] este deporte ha atraído a empollones obsesionados con los datos a lo largo de toda su historia. Hace décadas, los aficionados leían con atención las estadísticas que aparecían en el reverso de las cartas de béisbol para analizar los patrones de jonrón de Carl Yastrzemski o comparar los strikes totales de Roger Clemens y Dwight Gooden. Sin embargo, desde la década de 1980, algunos estadísticos profesionales empezaron a investigar lo que significaban realmente todas estas cifras, junto con una avalancha de nuevos datos: cómo estas cifras se traducían en victorias y cómo los directivos podían maximizar el éxito con una pequeña inversión.
«Moneyball» es ahora sinónimo de cualquier enfoque estadístico aplicado a terrenos que han estado tradicionalmente dominados por el instinto. El béisbol es un caso práctico sin efectos perniciosos, y nos servirá de ejemplo positivo con el que comparar los modelos tóxicos o ADM que están aflorando en tantísimas áreas de nuestra vida. Los modelos del béisbol son justos, en parte, porque son transparentes. Todo el mundo tiene acceso a las estadísticas y todos entienden más o menos bien cómo interpretarlas. Es cierto que el modelo de un equipo puede conceder más valor a los bateadores que batean jonrones, mientras que tal vez otro reduzca un poco su valor, porque los bateadores suelen hacer muchos strikeouts. En cualquier caso, el número de jonrones y strikeouts está ahí y todo el mundo tiene acceso a esas cifras.
El béisbol tiene también rigor estadístico. Sus gurús cuentan con un inmenso conjunto de datos, la inmensa mayoría de los cuales están directamente relacionados con la actuación de los jugadores en los partidos. Además, sus datos son muy relevantes para los resultados que intentan predecir. Esto puede parecer obvio, pero, como veremos en este libro, es muy habitual que los que construyen ADM a menudo no dispongan de datos relativos a los comportamientos que más les interesan, por lo que los reemplazan por datos sustitutivos o proxies: Establecen correlaciones estadísticas entre el código postal de una persona o sus patrones de uso del lenguaje y su potencial para devolver un préstamo o realizar un trabajo. Estas correlaciones son discriminatorias y algunas de ellas incluso ilegales. Los modelos del béisbol, en su mayoría, no emplean datos sustitutivos porque utilizan datos relevantes como bolas, strikes y hits.
Y, lo más importante, estos datos se acumulan de manera constante, gracias a las nuevas estadísticas que generan una media de doce o trece partidos diarios durante la temporada, que va de abril a octubre. Los estadísticos pueden comparar los resultados de estos partidos con las predicciones de sus modelos e identificar en qué se han equivocado. Quizá predijeron que un relevista zurdo perdería muchos hits frente a bateadores diestros, y, sin embargo, arrasa. En ese caso, el equipo de estadística tiene que retocar el modelo e investigar por qué se equivocaron. ¿Afectó la nueva bola de tornillo del lanzador a sus estadísticas? ¿Lanza mejor por la noche? Cuando descubren algo nuevo, lo introducen en el modelo para perfeccionarlo. Así es como funcionan los modelos fiables. Mantienen un constante ir y venir con los elementos del mundo real que intentan comprender o predecir. Y cuando las condiciones cambian, el modelo debe cambiar también.
En este punto podríamos preguntarnos cómo se nos habrá podido ocurrir comparar el modelo del béisbol, que incluye miles de variables cambiantes, con el modelo utilizado para evaluar a los docentes de los centros educativos de Washington D. C. En el primer caso se modelan todos y cada uno de los elementos del deporte hasta el más mínimo detalle y se incorpora información actualizada de forma continua. Mientras que el otro modelo, rodeado de misterio, parece basarse en gran medida en la comparación de los resultados de un puñado de pruebas de un curso al siguiente. ¿Podemos considerarlo realmente un modelo?
Y la respuesta es sí. Un modelo, al fin y al cabo, no es más que una representación abstracta de ciertos procesos, ya se trate de un partido de béisbol, de la cadena de suministro de una petrolera, de las acciones de un Gobierno extranjero o de la asistencia del público a un cine. Independientemente de que se ejecute en un programa de ordenador o en nuestra cabeza, el modelo coge lo que sabemos y lo utiliza para predecir respuestas en distintas situaciones. Todos nosotros tenemos miles de modelos en la cabeza. Nos dicen qué esperar y nos guían al tomar decisiones.
Veamos un ejemplo de un modelo informal que yo empleo a diario. Tengo tres hijos, y soy yo la que cocina en casa —mi marido, bendito sea, ni siquiera se acuerda de echar sal al agua cuando cuece pasta—. Cada noche, cuando me pongo a cocinar para toda la familia, de manera interna e intuitiva, modelo el apetito que tendrá cada uno de los miembros de mi familia. Sé que uno de mis hijos se comerá solo la pasta (con queso parmesano rallado) y que a otro le encanta el pollo (pero odia las hamburguesas). Pero también tengo que tener en cuenta que el apetito de una persona varía de un día a otro, por lo que si se produce un cambio, la nueva situación podría pillar a mi modelo por sorpresa. Siempre hay una inevitable cantidad de incertidumbre.
Los datos de entrada de mi modelo interno para cocinar son la información que tengo sobre mi familia, los ingredientes que tengo a mano o disponibles y mi propia energía, tiempo y ambición. El resultado es lo que decido cocinar y cómo lo cocino. Evalúo el éxito de una comida en función de lo satisfecha que queda mi familia, de cuánto han comido y de lo saludable que era. Ver cómo se la han comido y cuánto han disfrutado de ella me permite actualizar mi modelo para la próxima vez que cocine. Las actualizaciones y los ajustes lo convierten en lo que los estadísticos denominan un «modelo dinámico».
Estoy orgullosa de poder afirmar que con el paso de los años he mejorado mucho y ahora se me da muy bien cocinar para mi familia. Pero ¿qué pasa si mi marido y yo nos vamos de viaje una semana y quiero explicarle a mi madre el sistema que utilizo para que ella pueda sustituirme? ¿O qué pasa si una de mis amigas con hijos quiere aprender mis métodos? Ese será el momento en el que empezaré a formalizar mi modelo y a convertirlo en un modelo mucho más sistemático y, en cierto sentido, más matemático. Y, si me sintiera con ánimos, tal vez incluso me lanzaría a expresarlo en un programa informático.
Idealmente, el programa informático incluiría todas las opciones de comida disponibles, su valor nutricional y su coste, así como una base de datos completa sobre los gustos de mi familia: las comidas que prefieren y lo que no le gusta a cada uno de ellos. Aunque lo cierto es que me costaría bastante ponerme delante del ordenador y recordar toda esa información de repente. Tengo miles de recuerdos de los miembros de mi familia sirviéndose espárragos por tercera vez o dejando las judías verdes en el borde del plato, pero todos esos recuerdos están mezclados y resulta difícil formalizarlos en una lista exhaustiva.
La mejor solución sería ir construyendo el modelo a lo largo del tiempo, introduciendo cada día los datos de lo que he comprado y cocinado y anotando las respuestas de cada miembro de la familia. Incluiría también algunos parámetros y limitaciones. Podría limitar las frutas y verduras a los productos de temporada y autorizar una cantidad restringida de dulces, aunque sería justo la cantidad suficiente para evitar que estalle una rebelión. También añadiría una serie de reglas, Al mayor le encanta la carne, al mediano le gustan el pan y la pasta, y el pequeño bebe mucha leche e intenta untar de Nutella todo lo que pilla.
Si me dedicara a introducir todos estos datos de manera sistemática a lo largo de muchos meses, podría conseguir un buen modelo. Habría convertido toda la gestión de la comida que guardo en la cabeza, mi modelo informal interno, en un modelo formal externo. Al crear mi modelo, expandiría mi poder e influencia sobre el mundo. Habría creado un yo automatizado que otros podrían ejecutar cuando no estoy:
No obstante, el modelo seguiría cometiendo errores, ya que todo modelo es, por su propia naturaleza, una simplificación. Ningún modelo puede incluir toda la complejidad del mundo ni los matices de la comunicación humana. Es inevitable que parte de la información importante se quede fuera. Puede que se me pasara informar a mi modelo de que podemos saltamos las reglas sobre la comida basura en los cumpleaños o que mis hijos prefieren comer las zanahorias crudas en lugar de cocidas.
Al crear un modelo, por tanto, tomamos decisiones sobre lo que es suficientemente importante como para incluirlo en el modelo, y simplificamos el mundo en una versión de juguete que pueda ser fácil de comprender y de la que se puedan deducir hechos y acciones importantes. Esperamos que el modelo realice una única tarea y aceptamos que en ocasiones se comportará como una máquina que no tiene idea de nada, una máquina con enormes puntos ciegos.
A veces los puntos diegos de un modelo no tienen ninguna importancia. Cuando pedimos a Google Maps que nos indique cómo llegar a un lugar, modela el mundo como una serie de carreteras, túneles y puentes. Ignora los edificios, porque no son relevantes para la tarea. Cuando el software de aviónica guía a un avión, modela el viento, la velocidad del avión y la pista de aterrizaje en tierra, pero no las calles, los túneles, los edificios, ni las personas.
Los puntos ciegos de un modelo reflejan las opiniones y prioridades de sus creadores. Mientras que las decisiones que se han tomado en Google Maps o en el software de aviónica parecen claras y sencillas, otras son mucho más problemáticas. El modelo de valor añadido de los centros educativos de Washington D. C, volviendo a nuestro ejemplo, evalúa a los docentes basándose fundamentalmente en las puntuaciones de las pruebas de los alumnos e ignora el hecho de que los docentes motiven a los alumnos, trabajen competencias específicas, hagan una buena gestión del aula o ayuden a los alumnos con sus problemas personales y familiares. Es excesivamente simple, renuncia a la precisión y la comprensión detallada de las situaciones y se centra únicamente en la eficiencia. A pesar de todo, desde la perspectiva de los administradores, este modelo es una herramienta eficaz para descubrir cientos de docentes aparentemente de bajo rendimiento, incluso a riesgo de equivocarse con algunos de ellos.
Vemos, pues, que los modelos, a pesar de su reputación de imparcialidad, reflejan objetivos e ideologías. Cuando eliminé la posibilidad de tomar dulces en todas las comidas, estaba imponiendo mi ideología en el modelo de las comidas. Son cosas que hacemos sin pararnos a reflexionar. Nuestros propios valores y deseos influyen en nuestras elecciones, desde los datos que decidimos recopilar hasta las preguntas que hacemos. Los modelos son opiniones integradas en matemáticas.
El hecho de que un modelo funcione bien o no también es cuestión de opiniones. Al fin y al cabo, un componente clave de todos los modelos, tanto de los formales como de los informales, es cómo se define el éxito del modelo. Este es un punto importante al que volveremos cuando exploremos el oscuro mundo de las ADM. En cada caso, deberemos preguntarnos no solo quién diseñó el modelo, sino también qué es lo que la persona o la empresa en cuestión intentan lograr con él. Si el Gobierno de Corea del Norte construyera un modelo de comidas para mi familia, por ejemplo, es posible que estuviera optimizado para mantenernos por encima del umbral de la inanición al menor coste y en función de las existencias de alimentos disponibles. Las preferencias de cada uno no contarían apenas o quizá nada en absoluto. Por el contrario, si mis hijos fueran los que crearan el modelo, el éxito podría consistir en tomar helado en cada comida. Mi propio modelo intenta mezclar parte de la gestión de recursos de los norcoreanos con la felicidad de mis hijos, junto con mis propias prioridades sobre la salud, la comodidad, la diversidad de experiencias y la sostenibilidad, Como consecuencia de todo esto, mi modelo es mucho más complejo, aunque sigue reflejando mi propia realidad personal. Y un modelo construido para hoy en día funcionará peor en el futuro. Se quedará obsoleto en seguida si no se actualiza constantemente. Los precios cambian, así como las preferencias de las personas. Un modelo construido para un niño de seis años no funcionará con un adolescente.
Esto es cierto también en el caso de los modelos internos. Con frecuencia vemos que surgen algunos problemas cuando unos abuelos visitan a una nieta a la que no han visto desde hace tiempo. En su visita anterior, los abuelos recopilaron datos sobre lo que la niña sabía, lo que le hacía reír y el programa de televisión que le gustaba y, de manera inconsciente, crearon un modelo para relacionarse con esa niña de cuatro años en concreto. Cuando la vuelven a ver un año más tarde, se sienten incómodos durante unas horas porque sus modelos se han quedado anticuados. Resulta que Thomas la Locomotora ya no tiene interés alguno. Los abuelos tardan un tiempo en recoger nuevos datos sobre la niña y ajustar sus modelos.
Esto no significa que un buen modelo no pueda ser rudimentario. Algunos de los modelos más efectivos dependen de una única variable. El modelo más comúnmente utilizado en los sistemas de detección de incendios en hogares y oficinas pondera una única variable con una fuerte correlación: la presencia de humo. Eso suele ser suficiente. Sin embargo, los creadores de modelos se meten en problemas —o nos meten a nosotros en problemas— cuando aplican modelos tan sencillos como el de la alarma de humo a sus congéneres humanos.
El racismo, a escala individual, puede ser considerado un modelo predictivo que runrunea en miles de millones de mentes humanas en todo el mundo. Se construye a partir de datos imperfectos, incompletos o generalizados. Independientemente de que provengan de la experiencia propia o sean de oídas, los datos indican que ciertos tipos de personas se han comportado mal. Eso genera una predicción binaria de que todas las personas de esa raza se comportarán del mismo modo.
Evidentemente, los racistas no dedican mucho tiempo a buscar datos fiables para desarrollar sus retorcidos modelos. Y cuando este modelo se transforma en creencia, queda profundamente arraigado. El modelo genera entonces supuestos perniciosos, aunque rara vez los verifica, y elige datos que parecen confirmarlos y reforzarlos. Es un modelo alimentado por datos recogidos al azar y por correlaciones espurias, reforzado por desigualdades institucionales y contaminado por sesgos de confirmación. De este modo, aunque parezca extraño, el racismo opera como muchas de las ADM que describiré en este libro.

* * *

En 1997, un jurado del condado de Harris (Texas) tenía que decidir la condena de Duane Buck, un afroamericano condenado por asesinato.[20] El acusado había matado a dos personas y el jurado debía decidir entre la pena capital y la cadena perpetua con la posibilidad de acceder a la libertad provisional en algún momento. La abogada de la acusación presionaba para conseguir la pena de muerte y argumentaba que si el acusado salía de la cárcel podría volver a matar.
El abogado defensor de Duane Buck trajo a un experto para que declarara durante el juicio, el psicólogo Walter Quijano, que no ayudó en absoluto a su cliente. Walter Quijano, que había estudiado los índices de reincidencia en el sistema penitenciario de Texas, hizo una referencia a la raza de Duane Buck[21] y la abogada de la acusación fue a por él durante el interrogatorio.
—Ha determinado que el…, el factor de la raza, negra, incrementa la peligrosidad futura por varias razones complejas. ¿Es eso correcto? —preguntó la abogada de la acusación.
—Sí —contestó Walter Quijano.
La abogada de la acusación recordó este testimonio en sus conclusiones finales y el jurado condenó a Duane Buck a muerte.
Tres años más tarde, el fiscal general de Texas, John Cornyn, descubrió que Walter Quijano había hecho este mismo tipo de referencias a la raza en sus declaraciones como experto en otros seis casos de pena capital, en la mayoría de los casos contratado por la acusación. John Cornyn, que fue elegido senador en 2002, ordenó que se repitieran los juicios de estos siete reclusos en un nuevo proceso en el que no se hiciera distinción alguna por la raza. En un comunicado de prensa, el fiscal general declaró: «Es inaceptable permitir que la raza sea tratada como un factor a tener en cuenta en nuestro sistema de justicia penal […] El pueblo de Texas desea y se merece un sistema que imparta la misma justicia para todos».[22]
Se repitieron seis juicios y los seis presos volvieron a ser condenados a muerte. El tribunal dictaminó que la declaración discriminatoria de Walter Quijano no había sido decisiva. Duane Buck no ha vuelto a ser juzgado,[23] tal vez porque fue su propio testigo el que mencionó el factor de la raza. Sigue en el corredor de la muerte.
Independientemente de si la cuestión de la raza surge de forma explícita en un juicio o no, durante mucho tiempo ha sido uno de los factores más influyentes a la hora de determinar las condenas. Un estudio de la Universidad de Maryland demostró que en el condado de Harris, al que pertenece Houston, es tres veces más probable que la acusación pida la pena de muerte cuando el acusado es afroamericano y cuatro veces más probable si el acusado es hispano que cuando un blanco es juzgado por los mismos cargos.[24] Este patrón no es exclusivo de Texas. Según la Unión Estadounidense por las Libertades Civiles, las condenas de cárcel impuestas a hombres de color en el sistema federal son casi un 20 % más largas que las impuestas a hombres blancos por delitos similares.[25] Y aunque los presos de color representan solo el 13 % de la población, el 40 % de las celdas de Estados Unidos está ocupado por reclusos negros.[26]
Por lo tanto, podríamos pensar que la utilización de modelos de riesgo informatizados nutridos con datos debería reducir la influencia de los prejuicios en las condenas y que contribuiría a que el trato impartido sea más imparcial. Esa es la esperanza que ha impulsado a los tribunales de veinticuatro estados del país a recurrir a los denominados modelos de reincidencia,[27] que ayudan a los jueces a evaluar el peligro que representa cada convicto. Y en muchos aspectos estos modelos suponen una mejora. Hacen que las condenas sean más congruentes y reducen la probabilidad de que dependan del estado de ánimo y de los sesgos de los jueces. También ayudan a ahorrar fondos, ya que reducen la duración de la condena media (mantener a un recluso cuesta una media de 31.000 dólares al año,[28] y el doble en los estados más caros como Connecticut y Nueva York).
La cuestión que debemos considerar, no obstante, es si hemos eliminado el sesgo humano o si simplemente lo hemos camuflado con tecnología. Es cierto que los nuevos modelos de reincidencia son complicados y matemáticos, pero hay multitud de supuestos incrustados en sus entrañas, y algunos de ellos son discriminatorios. Y mientras que las palabras de Walter Quijano quedaron reflejadas en el acta, con lo que posteriormente podía ser leída y denunciada ante los tribunales, el funcionamiento de un modelo de reincidencia está bien guardado en algoritmos que solo son inteligibles para una élite muy reducida.
Uno de los modelos más populares, conocido como LSI-R, o Inventario de Nivel de Servicio Revisado, incluye un extenso cuestionario que el detenido debe rellenar. Una de las preguntas —«¿Cuántas condenas previas ha tenido?»— es particularmente relevante para determinar el riesgo de reincidencia. También hay otras preguntas claramente relacionadas con ese riesgo: «¿Qué papel tuvieron otras personas en el delito? ¿Qué papel tuvieron las drogas y el alcohol?».
No obstante, a lo largo del cuestionario las preguntas van hurgando cada vez más en la vida de la persona y es fácil imaginar que los reclusos de origen privilegiado contestarán de una manera y los de las calles de los barrios desfavorecidos de otra. Al preguntarle a un delincuente que creció en un barrio acomodado por «la primera vez que tuvo trato con la policía», es posible que no tenga ni un solo incidente que contar aparte del que le llevó a la cárcel. Por el contrario, es probable que a un joven negro lo haya parado la policía docenas de veces, incluso sin que hubiera hecho nada malo. Un estudio de 2013 de la Unión por las Libertades Civiles de Nueva York concluyó que, aunque los hombres negros e hispanos de entre 14 y 24 años constituyen tan solo el 4,7 % de la población de la ciudad, fueron objeto del 40,6 % de los controles policiales con cacheo.[29] Más del 90 % de los jóvenes a los que controlaron eran inocentes. Del resto, algunos estaban consumiendo alcohol pese a ser menores o llevaban un porro. Y, al contrario de lo que les ocurre a la mayoría de los niños ricos en las mismas circunstancias, tuvieron problemas por ello. Por lo que si «haber tenido trato» con la policía a una edad temprana es indicio de un mayor riesgo de reincidencia, las personas pobres y las minorías raciales parecen presentar un riesgo mucho mayor.
Y las preguntas del cuestionario no se detienen ahí. A los detenidos se Les pregunta también si sus amigos o familiares tienen antecedentes penales. De nuevo se repite el patrón. Si le hacemos esa pregunta a un condenado que se haya criado en un barrio de dase media, es mucho más probable que la respuesta sea no. Efectivamente, el cuestionario no pregunta en ningún momento por la raza, ya que esa pregunta es ilegal, pero teniendo en cuenta la abundancia de detalles que obtiene de la vida de cada preso, esa única pregunta ilegal es prácticamente superflua.
Desde su invención en 1995, se ha pasado el cuestionario LSI-R a miles de reclusos. Los estadísticos han utilizado esos resultados para diseñar un sistema en el que las preguntas que tienen una alta correlación con la reincidencia tienen más peso que las demás y dan más puntos. Tras contestar al cuestionario, los convictos son clasificados como delincuentes de riesgo elevado, medio o bajo en función del número de puntos que hayan acumulado. En algunos estados, como en Rhode Island,[30] estas pruebas se utilizan únicamente para identificar a los reclusos con puntuaciones de alto riesgo con el objetivo de incluirlos en programas de prevención de la reincidencia durante su estancia en la cárcel. Sin embargo, en otros estados, como Idaho[31] y Colorado,[32] los jueces utilizan estas puntuaciones como directrices para decidir condenas.
Esto es injusto. El cuestionario incluye las circunstancias del nacimiento y la educación de los delincuentes, incluida información sobre su familia, su barrio y sus amigos. Estos detalles no deberían ser tenidos en consideración en el proceso penal ni en la condena. De hecho, si la acusación intentara atacar a un acusado mencionando los antecedentes penales de su hermano o el alto índice de delincuencia del barrio en el que vive, un buen abogado defensor gritaría: «¡Protesto, Señoría!». Y un juez serio admitiría la protesta. En esto se basa nuestro sistema jurídico. Somos juzgados por lo que hacemos, no por lo que somos. Y aunque no sabemos exactamente qué peso tienen esas partes del cuestionario, cualquier puntuación por encima de cero es ya inaceptable.
Muchas personas dirían que los sistemas estadísticos como el LSI-R son efectivos para estimar el riesgo de reincidencia —o, al menos, que son más precisos que la conjetura aleatoria de un juez—. El problema es que si dejamos de lado, aunque sea durante un segundo, la cuestión esencial de la justicia, nos sumiremos sin darnos cuenta en el bucle de retroalimentación pernicioso de un ADM. Es probable que una persona calificada «de alto riesgo» esté en paro y provenga de un barrio en el que muchos de sus amigos y familiares hayan tenido roces con la ley. Gracias en parte a su alta puntuación en la evaluación como consecuencia de sus orígenes, esa persona será condenada a una pena más larga, lo que la encerrará en la cárcel durante más años, donde estará rodeada de otros delincuentes, lo que incrementa la probabilidad de que vuelva a prisión. Cuando finalmente sea puesta en libertad, volverá al mismo barrio pobre, aunque ahora con antecedentes penales, con lo que le resultará mucho más difícil conseguir un empleo. Si comete otro delito, el modelo de reincidencia se atribuirá otro éxito, pero lo cierto es que el propio modelo está alimentando un círculo tóxico y ayuda a mantenerlo. Esa es una cualidad distintiva de un ADM.

* * *

En este capítulo hemos analizado tres clases de modelos. Los modelos del béisbol, en general, son razonables. Son transparentes y se actualizan constantemente, y tanto los supuestos como las conclusiones son claros y accesibles para cualquiera. Estos modelos se nutren de las estadísticas de cada partido, no de valores sustitutivos, y las personas que son objeto de la modelación entienden el proceso y comparten el objetivo del modelo: ganar la Serie Mundial de béisbol (aunque esto no evite que muchos jugadores refunfuñen por las valoraciones de algún modelo cuando llega la temporada de fichajes: «Es cierto que tuve 200 outs, pero ¿qué pasa con todos mis jonrones…?»).
Desde mi posición estratégica dentro del segundo modelo, creo que tampoco hay nada de malo en el hipotético modelo de comidas para mi familia. Si mis hijos quisieran conocer las premisas subyacentes al modelo, tanto las de naturaleza económica como las dietéticas, yo estaría encantada de facilitárselas. Y, aunque a veces se quejan cuando ven algo verde en el plato, si se les pregunta en serio, admiten que comparten los objetivos de comodidad, economía, salud y buen sabor —aunque puede que los ponderen de manera diferente en sus propios modelos (y podrán crearlos en cuanto empiecen a comprarse su propia comida)—.
Debo añadir que es muy poco probable que mi modelo llegue a alcanzar una gran escala. No me imagino a los grandes almacenes de descuento Walmart, al Departamento de Agricultura de Estados Unidos ni a ningún otro titán adoptando mi app e imponiéndosela a cientos de millones de personas, como hacen con algunas de las ADM de las que hablaremos en este libro. No, mi modelo es benigno, especialmente porque es muy poco probable que llegue a salir de mi cabeza y alguien lo formalice para convertirlo en un programa informático.
El ejemplo del modelo de reincidencia que hemos visto al final del capítulo, sin embargo, es algo completamente diferente. Despide un olor familiar y nocivo. Hagamos con él un rápido ejercicio de taxonomía de las ADM y veamos dónde encaja.
La primera pregunta; aunque el participante sea consciente de que es objeto de una modelación o de para qué se utiliza el modelo, ¿es el modelo opaco o incluso invisible? Bien, la mayoría de los detenidos a los que se les pide que rellenen un cuestionario obligatorio no son tontos. Como mínimo tendrán razones para sospechar que la información que faciliten será utilizada contra ellos para controlarlos durante su estancia en prisión o quizá para encerrarlos durante más tiempo. Saben de qué va la cosa. Pero los funcionarios de prisiones también lo saben. Y no dirán nada sobre la finalidad del cuestionario LSI-R. Saben que, si explican para qué se utiliza, muchos reclusos intentarán hacer trampas y contestarán a las preguntas de forma que parezca que serán ciudadanos ejemplares en cuanto salgan del trullo. Por lo tanto, a los reclusos se les dice lo menos posible y nunca se les informa de la puntuación de riesgo que han obtenido.
Y esto es algo que se repite en muchos otros casos. Los modelos opacos e invisibles son lo habitual, mientras que los modelos transparentes son raras excepciones. Nos modelan como clientes y telespectadores tirados en el sofá, como pacientes y solicitantes de préstamos, y apenas nos damos cuenta —incluso en los formularios que firmamos alegremente—. Incluso cuando los modelos actúan bien, su opacidad genera una sensación de injusticia, Si un acomodador nos dice, al llegar a un concierto al aire libre que no podemos sentarnos en las diez primeras filas de asientos, puede que pensemos que eso es inaceptable. Sin embargo, si nos explica que las diez primeras filas están reservadas para personas en silla de ruedas, nos parecería perfectamente lógico. La transparencia importa, marca la diferencia.
Pese a todo, un gran número de empresas se toman muchas molestias por ocultar los resultados de sus modelos o incluso su existencia. Una justificación común es que el algoritmo es un «secreto industrial» crucial para su actividad. Afirman que es propiedad intelectual y la defenderán con legiones de abogados y grupos de presión si es necesario. En el caso de los gigantes web como Google, Amazon y Facebook, solo sus algoritmos hechos meticulosamente a medida valen cientos de miles de millones de dólares. Las ADM son, por su diseño, cajas negras inescrutables. Y esto hace que sea especialmente difícil contestar categóricamente a la segunda pregunta: ¿opera el modela en contra de los intereses del sujeto? En otras palabras, ¿es injusto? ¿Daña o destruye vidas?
En este sentido, el LSI-R cumple claramente los requisitos para ser considerado un ADM. Las personas que lo crearon en la década de 1990 lo veían como una herramienta que aportaría imparcialidad y eficiencia al sistema de la justicia penal. Ayudaría además a los delincuentes que no suponen una amenaza a cumplir condenas menos severas. Esto se traduciría en más años de libertad para ellos y grandes ahorros para los contribuyentes estadounidenses, que pagan por el sistema penitenciario una factura de 70.000 millones de dólares al año. No obstante, puesto que el cuestionario juzga al detenido por detalles que serían inaceptables ante un tribunal, es injusto. Y aunque muchas personas puedan beneficiarse de él, causa mucho sufrimiento a otras tantas.
Un componente clave de este sufrimiento es el bucle de retroalimentación pernicioso. Como ya hemos visto, los modelos para determinar la condena que dan el perfil de una persona en función de sus circunstancias ayudan a crear el entorno que justifica sus supuestos. Este bucle destructivo se alimenta a sí mismo y así el modelo se vuelve cada vez más injusto.
La tercera pregunta que debemos hacernos es si el modelo tiene la capacidad de crecer exponencialmente. O, como lo diría un estadístico, ¿es escalable? Esto puede sonar a una objeción quisquillosa de un empollón de las matemáticas, pero la escala es lo que marca la diferencia entre que un ADM sea una pequeña molestia localizada o un auténtico tsunami que define y delimita nuestras vidas. Como veremos más adelante, las ADM en desarrollo en los sectores de los recursos humanos, la salud y la banca, por mencionar solo algunos de ellos, están estableciendo con rapidez normas generales que ejercen sobre nosotros una fuerza muy similar al poder de la ley. Si el modelo de un banco nos clasifica como prestatarios de alto riesgo, el mundo entero nos tratará como a holgazanes —aunque se haya producido un terrible error—. Y si ese modelo alcanza una gran escala, como es el caso del modelo sobre la solvencia crediticia, llegará a afectar todos los aspectos nuestras vidas: determinará si tendremos acceso a una hipoteca, si conseguiremos un empleo o si nos concederán un préstamo para comprar un coche para poder ir de casa al trabajo.
En lo que se refiere a la escala, el potencial del modelo de reincidencia sigue creciendo. La mayoría de los estados de Estados Unidos lo están empleando ya, y el cuestionario LSI-R es la herramienta más extendida (utilizada en, al menos, veinticuatro estados).[33] Aparte del cuestionario LSI-R, las cárceles son un activo y abarrotado mercado para los científicos de datos. El sistema penal está plagado de datos, especialmente porque los reclusos tienen aún menos derecho a la intimidad que los demás ciudadanos. Además, el sistema es tan miserable, ineficiente, caro e inhumano, y está tan abarrotado, que está pidiendo a gritos una mejora. ¿Quién no querría una solución barata como esta?
La reforma penal es algo extraño en el mundo político polarizado de hoy en día, es un tema en el que tanto los liberales como los conservadores son de la misma opinión. A principios de 2015, los hermanos conservadores Charles y David Koch se unieron al think-tank liberal Center for American Progress para presionar a favor de la reforma de las cárceles y reducir el número de reclusos. Pero tengo ciertas sospechas: es prácticamente seguro que el esfuerzo de ambos partidos para reformar las cárceles, junto con muchos otros, conducirá a la eficiencia y la aparente justicia de una solución nutrida con datos. Es la era que nos ha tocado vivir. Aunque otras herramientas acaben reemplazando al LSI-R como principal ADM del sector, es muy probable que el sistema penitenciario sea una potente incubadora de ADM a gran escala.
Resumiendo, estos son los tres elementos que conforman un ADM: la opacidad, la escala y el daño. Estos tres elementos estarán presentes, en mayor o menor medida, en los ejemplos que vamos a ver. Y sí, se admiten objeciones. Se podría decir, por ejemplo, que las puntuaciones de reincidencia no son completamente opacas, ya que producen puntuaciones que los reclusos pueden ver en algunos casos. No obstante, estas puntuaciones están rodeadas de misterio, porque los reclusos no pueden ver cómo sus respuestas influyen en el resultado: el algoritmo que produce la puntuación está oculto. Puede que haya otras ADM que no parezcan cumplir el requisito de la escala, No son enormes, o al menos por ahora no lo son. Y, sin embargo, son especies peligrosas de ADM, listas para crecer, y tal vez lo hagan de forma exponencial. Por eso las incluyo. Y, por último, veremos que no todas estas ADM son universalmente dañinas. Al fin y al cabo, envían a algunas personas a Harvard, asignan préstamos baratos o buenos empleos a otras personas y reducen las condenas de cárcel de algunos afortunados. No obstante, la cuestión aquí no es si algunas personas se benefician de ellas, sino el hecho de que muchas sufren por su causa. Estos modelos, impulsados por algoritmos, dan con la puerta en las narices a millones de personas, a menudo por la razón más absurda, y no permiten apelación alguna. Son injustas.
Y otra cosa más sobre los algoritmos: pueden saltar de un sector a otro, y a menudo lo hacen. La investigación en epidemiología puede aprender de las predicciones del éxito de taquilla de las películas; se copian y reajustan los filtros de spam para identificar el virus del sida. Y esto ocurre también con las ADM. Lo que significa que si los modelos matemáticos utilizados en las cárceles parecen funcionar bien —lo que en realidad se reduce a una gestión eficiente de las personas—, podrían extenderse por el resto de la economía junto con las demás ADM, lo que nos convertiría en daños colaterales.
De eso se trata. Esta amenaza está creciendo. Y deberíamos aprovechar lo que ocurrió en el mundo de las finanzas para extraer algunas lecciones.

Capítulo 2
Conmocionada. Mi viaje hacia el desencanto

Imaginemos que todas las mañanas, en el trayecto al trabajo, antes de coger el tren desde Joliet hasta la estación de la calle LaSalle en Chicago, metemos dos dólares en una máquina de café. La máquina nos devuelve siempre dos monedas de 25 centavos y el café, pero un día nos devuelve cuatro monedas de 25 centavos. Y tres veces a lo largo del mes siguiente la máquina de café vuelve a hacer lo mismo. Se está desarrollando un patrón.
Pues bien, si esto fuera una pequeña anomalía en los mercados financieros, y no en una estación de trenes de cercanías, una analista cuantitativa de un fondo de cobertura —alguien como yo— lo estudiaría con mucha atención. Para hacerlo tendría que revisar años de datos, quizá décadas, y luego crearla un algoritmo que predijera este error recurrente —una alteración de 50 céntimos en el precio— para poder así apostar por ello. Incluso los patrones más insignificantes pueden suponer millones de dólares de ganancias para el primer inversor que los descubra. Y dicho inversor seguirá obteniendo beneficios hasta que ocurra una de estas dos cosas: o el fenómeno deja de repetirse o el resto del mercado se percata de él y entonces la oportunidad desaparece. Para cuando ocurra cualquiera de estas dos cosas, un buen analista ya estará sobre la pista de docenas de otras pequeñas irregularidades.
La búsqueda de lo que los analistas llaman ineficiencias del mercado se parece mucho a la búsqueda del tesoro, y puede ser muy divertida. Cuando empecé en mi nuevo trabajo en D. E. Shaw, me pareció un cambio agradable con respecto a lo que había estado haciendo en el mundo académico. Aunque había disfrutado mucho dando clases en Barnard y estaba apasionada con la investigación sobre la teoría de los números algebraicos, me parecía que avanzaba con una desesperante lentitud, Me apetecía formar parte del acelerado mundo real.
En ese momento pensaba que los fondos de cobertura, también llamados fondos de gestión alternativa, eran entidades neutras desde el punto de vista ético (como mucho, podía sospechar que tal vez eran los carroñeros del sistema financiero). Me sentía orgullosa de empezar a trabajar en Shaw, a la que llamaban el Harvard de los fondos de cobertura, y quería demostrar a los que trabajaban allí que mi inteligencia podía traducirse en dinero. Además, iba a ganar el triple de lo que había ganado como profesora. Cuando empecé a trabajar allí no podía siquiera imaginar que este nuevo trabajo me ofrecería un asiento de primera fila durante la crisis financiera y que recibiría una aterradora lección sobre lo insidiosas y destructivas que pueden llegar a ser las matemáticas. En el fondo de cobertura fue donde vi por primera vez un ADM de cerca.
Al principio había muchas cosas de las que disfrutar. En Shaw todo se regía por las matemáticas. En muchas empresas los gestores de fondos son las estrellas del espectáculo, cierran los grandes negocios, ladran órdenes a diestro y siniestro y consiguen dividendos multimillonarios. Los analistas son sus subordinados. Sin embargo, en Shaw los gestores de fondos son poco más que administrativos —los llaman ejecutores—, mientras que los matemáticos son dueños y señores. Yo formaba parte de un equipo de diez personas, el «grupo de futuros». En una empresa en la que todo depende de lo que pase mañana, ¿qué podía ser más importante que ese grupo?
En nuestra empresa había unos cincuenta analistas en total, Al principio todos eran hombres, menos yo. Casi todos habían nacido en el extranjero. Muchos habían trabajado en física o en matemáticas abstractas; y unos pocos, como yo misma, nos habíamos especializado en la teoría de los números. Puesto que nuestras ideas y algoritmos constituían los cimientos del negocio del fondo de cobertura, era obvio que los analistas también representábamos un riesgo: si nos largábamos de allí, podíamos utilizar rápidamente nuestros conocimientos para ayudar a un fiero competidor.
Para evitar que ocurriera algo así a gran escala, a una escala que pudiera llegar a suponer una amenaza para la empresa, Shaw básicamente nos prohibía hablar con los compañeros de otros grupos —y a veces incluso con los compañeros de nuestra propia oficina— sobre lo que estábamos haciendo. En cierto modo, la información estaba confinada en una estructura de células en red, una estructura similar a la de Al Qaeda. De este modo, si una de las células se derrumbaba —si uno de nosotros se largaba a Bridgewater o a J. P. Morgan, o se lo montaba por su cuenta—, el analista en cuestión solo se llevaría sus propios conocimientos. El resto de la actividad de Shaw podría continuar sin verse afectada. Y como cualquiera comprenderá, este tipo de prohibición no era lo mejor para favorecer un ambiente de camaradería entre los compañeros.
En el grupo de futuros los nuevos nos turnábamos las guardias cada trece semanas. Eso significaba que la persona que estaba de guardia debía estar disponible para responder a cualquier problema informático que se produjera mientras estuviera abierto alguno de los mercados mundiales, desde el domingo por la noche en nuestro huso horario, cuando abrían sus puertas los mercados asiáticos, hasta que sonaba la campana de cierre de la Bolsa de Nueva York a las 16.00 del viernes. Era difícil soportarlo porque apenas nos quedaba tiempo para dormir. Aunque lo peor para mí era la impotencia que sentía cuando intentaba solucionar los problemas que habían surgido en una oficina que no compartía información conmigo. Por ejemplo, si había un algoritmo que no funcionaba bien, yo tenía que localizarlo primero y luego encontrar a la persona a cargo de ese algoritmo a cualquier hora del día o de la noche y decirle a él (y siempre era él) que lo arreglara. No siempre era una conversación agradable.
Y luego estaban los momentos de pánico. Durante las vacaciones, cuando había poco personal trabajando, solían pasar cosas extrañas. En nuestra enorme cartera había todo tipo de cosas, incluidos contratos de divisas a plazo, que básicamente eran promesas de comprar grandes cantidades de una divisa extranjera al cabo de un par de días. No obstante, en lugar de comprar la divisa extranjera, el gestor de fondos solía «renovar» la posición cada día para posponer la promesa un día más. Así manteníamos nuestra apuesta sobre la dirección del mercado sin tener que llegar nunca a pagar realmente grandes cantidades de efectivo. Un día, durante las Navidades, me di cuenta de que una importante posición en yenes japoneses estaba a punto de vencer. Alguien tenía que renovar ese contrato para otra fecha. De esto solía encargarse un compañero que trabajaba en Europa y que supuestamente estaba en casa con su familia. Comprendí que si no hacíamos nada pronto, teóricamente alguien tendría que presentarse en Toldo con go millones de dólares en yenes. Resolver ese problema supuso unas cuantas horas de trabajo frenético durante aquellas fiestas.
Todos estos problemas podrían entrar dentro de la categoría de riesgo profesional, pero el problema real surgió a raíz de una sensación desagradable que empecé a tener en el estómago. Me había acostumbrado a nadar en estos océanos de divisas, bonos y valores de renta variable y entre los billones de dólares que fluían por los mercados internacionales, pero, al contrario de lo que ocurría con los números de mis modelos académicos, las cifras de los modelos que utilizaba en el fondo de cobertura representaban algo. Eran las hipotecas y los fondos de pensiones de muchas personas. Mirando hacia atrás, esto parece completamente obvio y, evidentemente, yo lo sabía todo el tiempo, pero no me había parado a valorar la naturaleza de los centavos y los dólares con los que jugábamos en nuestras herramientas matemáticas. No era dinero que nos hubiéramos encontrado, como las pepitas de oro de una mina o monedas de un galeón español hundido. Esta riqueza venía de los bolsillos de la gente. Para los fondos de gestión alternativa, las entidades más engreídas de todo Wall Street, ese capital no era más que «dinero bobo».
Y cuando los mercados se hundieron en 2008 fue cuando comprendí la horrible verdad. Era incluso peor que robar dinero bobo de las cuentas de la gente, el sector financiero estaba en el negocio de crear ADM y yo tenía un pequeño papel en todo aquello.
En realidad, los problemas habían empezado un año antes. En julio de 2007 los tipos de interés «interbancarios» empezaron a subir. Tras la recesión que siguió a los ataques terroristas de 2001, los tipos de interés bajos habían alimentado una burbuja inmobiliaria. Parecía que cualquiera podía conseguir una hipoteca, las constructoras convertían zonas muy alejadas de los municipios, desiertos y prados en nuevas y extensas urbanizaciones y los bancos apostaron miles de millones en toda clase de instrumentos financieros vinculados a la prosperidad inmobiliaria.
Sin embargo, estos crecientes tipos de interés eran un indicio de que había problemas. Los bancos habían dejado de confiar en la capacidad de los demás bancos para devolver los préstamos de un día para otro. Estaban empezando a comprender la peligrosa basura que tenían en sus carteras y llegaron sabiamente a la conclusión de que los demás estaban expuestos al mismo riesgo que ellos o quizá incluso a más. Mirando hacia atrás se podría decir que las subidas de los tipos de interés fueron en realidad un síntoma de sensatez, aunque obviamente llegaron demasiado tarde.
En Shaw, estos temores enfriaron los ánimos un poco. Era evidente que muchas empresas iban a pasarlo mal. El sector iba a llevarse un golpe, y tal vez fuera uno bien gordo. Aunque, bueno, quizá no fuera problema nuestro. Nosotros no nos zambullíamos de cabeza en mercados de riesgo. Los fondos de cobertura, al fin y al cabo, cubrían inversiones. Esa era nuestra naturaleza. Al principio, llamamos a la turbulencia del mercado «el jaleo». Puede que generara algunos dolores de cabeza en Shaw, tal vez incluso un par de episodios embarazosos, como cuando rechazan la tarjeta de crédito de un rico en un restaurante elegante. Pero había muchas posibilidades de que no nos pasara nada grave.
Los fondos de cobertura, al fin y al cabo, no trabajaban en esos mercados, solo jugaban con ellos. Por lo tanto, cuando el mercado estallara, como sabíamos que ocurriría, surgirían grandes oportunidades de sus cenizas. Estos fondos no sacaban realmente provecho de que los mercados subieran, sino de predecir los movimientos de los mercados. La caída de los mercados podía resultar igualmente lucrativa.
Para comprender cómo operan los fondos de cobertura en los márgenes de los mercados, imaginemos Un partido de la Serie Mundial de béisbol en el estadio Wrigley Field de Chicago. Con un espectacular jonrón al final de la novena entrada, los Chicago Cubs ganan su primer campeonato desde 1908, la época en la que Teddy Roosevelt era presidente. El estadio irrumpe en celebraciones. Sin embargo, hay una fila de aficionados en la que no se mueve nadie, están analizando en silencio un montón de resultados. Estas personas no hacen las tradicionales apuestas por el que pierde o el que gana, sino que quizá hayan apostado a que los relevistas de los Yankees tendrían más bases por bolas que strikeouts, a que en el partido se produciría al menos un toque de bola, pero no más de dos, o a que el abridor de los Chicago Cubs aguantaría al menos seis entradas. Apuestan incluso a que otros ganarán o perderán sus apuestas. Apuestan por muchos movimientos asociados con el partido, pero no apuestan mucho por el partido en sí. Y en esto se comportan igual que los fondos de cobertura.
Esto era precisamente lo que hacía que nos sintiéramos seguros, o al menos más seguros. Recuerdo una gala en honor de los arquitectos del sistema que estaba a punto de colapsar. La empresa daba la bienvenida a Alan Greenspan, el expresidente de la Reserva Federal, y a Robert Rubin, el exsecretario del Tesoro y antiguo ejecutivo de Goldman Sachs. Robert Rubin había presionado para conseguir en 1999 que se revisara la Ley Glass-Steagall, aprobada en la época de la Gran Depresión y que regulaba el sector bancario. Esta revisión eliminó el muro de cristal que existía entre las transacciones de la banca de depósito y las de la banca de inversión, lo que facilitó la orgía de especulaciones que tuvo lugar durante la década siguiente. Los bancos podían crear préstamos (muchos de ellos fraudulentos) y venderlos a sus clientes en forma de valores. No era algo demasiado fuera de lo común y podía considerarse un servicio del banco a sus clientes. Sin embargo, una vez eliminada la Ley Glass-Steagall, los bancos podían apostar contra los mismos valores que habían vendido a sus propios clientes y a veces lo hacían. Esto generó montañas de riesgo… y un infinito potencial de inversión para los fondos de cobertura. Al fin y al cabo, estos fondos apostaban por los movimientos del mercado, tanto de subida como de bajada, y los mercados tenían un ritmo frenético.
Durante la gala organizada por D. E. Shaw, Alan Greenspan nos advirtió de los problemas de los títulos con garantía hipotecaria. Este recuerdo me atormentaría más tarde cuando, un par de años después, me di cuenta de que Robert Rubin, que entonces trabajaba en Citigroup, había sido clave en la decisión de reunir una inmensa cartera de precisamente ese tipo de contratos tóxicos (una de las principales causas por las que Citigroup tuvo que ser rescatado a costa de los contribuyentes).
Junto a estas dos grandes figuras se sentaba Larry Summers, el protegido de Robert Rubin y socio a tiempo parcial de Shaw. Larry Summers había seguido a Robert Rubín hasta el Tesoro y posteriormente había sido nombrado rector de la Universidad de Harvard, En Harvard, Summers tuvo problemas con el profesorado, que se había rebelado contra él porque sugirió que el hecho de que hubiera pocas mujeres en matemáticas y en las ciencias duras podía deberse a la inferioridad genética, lo que él denominó la distribución desigual de «las aptitudes intrínsecas».
Cuando Larry Summers dimitió de su cargo en Harvard, aterrizó en Shaw, Recuerdo que David Shaw, el fundador de nuestro fondo de cobertura, dio un discurso dedicado a este prestigioso trío y bromeó diciendo que el traslado de Larry Summers de Harvard a Shaw había sido un «ascenso». Los mercados podían haber empezado a tambalearse, pero Shaw seguía en la cima del mundo.
No obstante, a medida que la crisis empeoraba, los socios de la empresa empezaron a perder parte de su fanfarronería. Al fin y al cabo, los mercados estaban interconectados. Por ejemplo, circulaban rumores sobre la vulnerabilidad de Lehman Brothers, que poseía el 20 % de D. E. Shaw y gestionaba muchas de nuestras transacciones. A medida que aumentaban las sacudidas y los temblores en los mercados, en nuestra empresa empezó a reinar un ambiente de preocupación. Podíamos hacer números con lo mejor de lo mejor. Pero ¿qué ocurriría si el temible mañana que avistábamos en el horizonte no se parecía a nada de lo que habíamos conocido en el pasado? ¿Qué ocurriría si el mañana era completamente nuevo y diferente?
Eso era lo que nos preocupaba, porque los modelos matemáticos, por su propia naturaleza, se basan en el pasado y en la premisa de que se repetirán los patrones. Poco tiempo después, el grupo de renta variable liquidó sus participaciones a un coste sustancial y se puso fin al programa de contratación constante de nuevos analistas, el programa que me había llevado a mí hasta la empresa. Aunque el personal intentaba tomarse a broma este nuevo ambiente, el miedo iba creciendo. Todas las miradas estaban fijas en los productos titulizados, especialmente en los títulos con garantía hipotecaria de los que nos había advertido Alan Greenspan.
Durante décadas, los títulos con garantía hipotecaria habían sido lo opuesto a algo que diera miedo. Eran aburridos instrumentos financieros que los inversores particulares y los fondos de inversión por igual utilizaban para diversificar sus carteras. La idea que sustentaba esta estrategia era que la cantidad compensaba el riesgo. Cada hipoteca individual conllevaba la posibilidad de impago: el propietario de la vivienda podía declararse en bancarrota, lo que significaría que el banco no podría recuperar nunca todo el dinero que había prestado. En el extremo opuesto estaba la posibilidad de que el propietario devolviera la hipoteca antes del plazo previsto, lo que interrumpiría la entrada de pagos de intereses.
De modo que a finales de la década de 1980 los bancos de inversión empezaron a comprar miles de hipotecas y a empaquetarlas en títulos —una especie de bono, es decir, un instrumento que paga dividendos de forma periódica, en muchos casos trimestralmente—. Como es obvio, algunos de los propietarios no pagaban sus hipotecas, pero la mayoría se mantenía a flote y seguía pagando sus hipotecas, lo que generaba un flujo regular y predecible de ingresos. Con el tiempo, estos bonos fueron creciendo hasta convertirse en un sector aparte, uno de los pilares de los mercados de capital. Los expertos agrupaban las hipotecas en distintas clases o tramos. Algunos de estos tramos se consideraban muy robustos. Otros conllevaban mayores riesgos —y tipos de interés más altos—. Los inversores tenían razones para sentirse seguros porque las agencias de calificación crediticia, Standard & Poor’s, Moody s y Fitch, habían estudiado los títulos y les daban una calificación de riesgo. Los consideraban inversiones prudentes. No obstante, reflexionemos sobre la opacidad de estos instrumentos. Los inversores no sabían en realidad nada sobre la calidad de las hipotecas incluidas en esos títulos. El único atisbo que tenían de lo que había escondido dentro provenía de las calificaciones de los analistas. Y estos analistas cobraban sus honorarios de las mismas empresas cuyos productos estaban calificando. Los títulos con garantía hipotecaria, huelga decirlo, eran una plataforma ideal para el fraude.
Podemos expresarlo a través de una metáfora muy utilizada en este ámbito y que se inspira en las salchichas. Imaginémonos que las hipotecas son pequeños trozos de carne de diversa calidad y que los títulos con garantía hipotecaria son las salchichas que se obtienen al poner toda la carne junta, añadir algunos ingredientes y darles forma. Evidentemente, hay salchichas de distintas calidades, pero es difícil saber con solo mirarlas qué tipo de carne llevan dentro. No obstante, como tienen un sello de las autoridades sanitarias que dice que son adecuadas para el consumo, nos olvidamos de las posibles dudas.
Como el mundo descubrió más tarde, las empresas hipotecarias ganaron pingües beneficios durante la época de bonanza concediendo hipotecas para la compra de viviendas a personas que no podían permitírselo. La estrategia consistía simplemente en firmar hipotecas insostenibles, cobrarlas comisiones y luego soltar los títulos resultantes —las salchichas— en el mercado de los títulos hipotecarios en pleno auge. En un caso tristemente célebre, Alberto Ramírez, que se ganaba la vida recolectando fresas y ganaba 14.000 dólares al año, consiguió una hipoteca para comprar una casa de 720.000 dólares en Rancho Grande (California).[34] Al parecer, su agente le dijo que podría conseguir refinanciación al cabo de unos meses y después revender la casa y sacar un buen beneficio. Meses después dejó de pagar el préstamo.
En el periodo previo al hundimiento del mercado inmobiliario, los bancos hipotecarios no solo ofrecían hipotecas insostenibles, sino que además buscaban activamente a sus víctimas en los barrios pobres y las zonas habitadas por las minorías. En un juicio federal, los funcionarios de Baltimore acusaron a Wells Fargo de dirigirse deliberadamente a barrios con población mayoritariamente negra para ofrecer allí los denominados préstamos de los guetos.[35] El departamento de «mercados emergentes» del banco, según un antiguo responsable de créditos del banco, Beth Jacobson, concentraba sus esfuerzos en las iglesias con feligreses de color.[36] La idea era que los pastores, en los que la congregación confiaba, animarían a los feligreses a solicitar un préstamo. Estos préstamos eran siempre hipotecas subprime (de alto riesgo), que tienen los tipos de interés más altos del mercado. El banco vendía sistemáticamente este tipo de hipotecas en estos barrios, incluso a personas que tenían una sólida solvencia crediticia y que deberían haber accedido a préstamos en condiciones mucho mejores. Cuando Baltimore presentó la demanda, en 2009, más de la mitad de los inmuebles en proceso de ejecución hipotecaria no estaban habitados y el 71 % de ellos estaban situados en barrios mayoritariamente afroamericanos.[37] En 2012, Wells Fargo llegó a un acuerdo con los demandantes y se comprometió a pagar 175 millones de dólares a 30.000 víctimas de todo el país.[38]
Debemos ser claros: las hipotecas subprime que se acumularon durante el auge inmobiliario, concedidas tanto a recolectores de fresa de California como a feligreses negros a los que les costaba llegar a fin de mes, no eran ADM. Eran instrumentos financieros, no modelos, y tenían muy poco que ver con las matemáticas (de hecho, los agentes hipotecarios tuvieron que esforzarse mucho para ignorar los incómodos números).
Sin embargo, cuando los bancos empezaron a cargarlas hipotecas como la de Alberto Ramírez en distintas clases de títulos para venderlas, sí que utilizaron modelos matemáticos defectuosos. El modelo del riesgo asociado a los títulos con garantía hipotecaria era un ADM. Los bancos sabían que algunas de las hipotecas entrarían en impago, pero confiaron en dos falsos supuestos que mantuvieron su confianza en el sistema.
El primer falso supuesto era pensar que en todas estas empresas había matemáticos de primera haciendo números y compensando cuidadosamente el riesgo. Los bonos eran comercializados como productos cuyo riesgo había sido evaluado por especialistas que empleaban los algoritmos más vanguardistas, pero desgraciadamente esto no era así. Al igual que ocurre con tantísimas otras ADM, las matemáticas se presentaban ante el consumidor como una mera cortina de humo. Su propósito era únicamente optimizar los beneficios a corto plazo de los vendedores. Y Los vendedores confiaban en que podrían deshacerse de los títulos antes de que explotaran. Los listos saldrían ganando. Y los bobos, los que entregan el dinero bobo, acabarían con miles de millones (o billones) de pagarés impagables. Incluso los matemáticos más rigurosos —y había unos cuántos— trabajaban con números que les suministraban personas que estaban llevando a cabo un fraude a gran escala. Muy pocas personas contaban con los conocimientos especializados y la información necesaria para saber lo que realmente estaba ocurriendo desde el punto de vista estadístico y la mayoría de los que sí lo sabían no tenían la integridad suficiente para denunciar la situación. Las calificaciones de riesgo de los títulos habían sido diseñadas deliberadamente para resultar opacas y matemáticamente intimidantes, en parte con el propósito de asegurarse de que los compradores no percibirían el nivel real de riesgo asociado a los contratos que compraban.
El segundo falso supuesto era que no se producirían muchos impagos al mismo tiempo. Este supuesto se basaba en la teoría, pronto refutada, de que los impagos eran en general sucesos aleatorios y no relacionados entre sí. Esta teoría condujo a la creencia de que las hipotecas más robustas compensarían los impagos dentro de cada tramo. Los modelos de riesgo estaban asumiendo que el futuro no sería diferente del pasado.
Para vender estas obligaciones con garantía hipotecaria, los bancos necesitaban calificaciones crediticias de triple A. Y para conseguirlas, pidieron ayuda a las tres agencias de calificación crediticia. Con la expansión del mercado, la calificación del creciente mercado de miles de millones de dólares de valores hipotecarios se convirtió en un gran negocio para las agencias, con el que ganaban comisiones muy lucrativas. Las agencias se volvieron adictas a estas comisiones y comprendieron rápidamente que si sus calificaciones eran inferiores a la triple A, los bancos se irían a la competencia. Así que decidieron cooperar. Otorgaron más importancia a la satisfacción del cliente que a la precisión de sus modelos. Estos modelos de riesgo también crearon su propio bucle de retroalimentación pernicioso. Las calificaciones AAA en productos defectuosos se convirtieron en dólares. Los dólares crearon confianza en los productos y en el proceso de trampas y mentiras que los fabricaba. El ciclo resultante de intercambio de favores y acumulación de beneficios era la base del funcionamiento de este sórdido negocio hasta que explotó.
De las tres características clave de las ADM, la que convirtió estos modelos de riesgo en una fuerza monstruosa de dimensiones globales fue la escala. Siempre han existido estafadores, evidentemente, y en otras burbujas inmobiliarias anteriores los compradores habían acabado descubriendo que poseían parcelas de ciénagas o montones de escrituras falsas. No obstante, en esta ocasión, el poder de la informática moderna impulsó el fraude hasta una escala sin precedentes en la historia. El daño se trasladó a otros grandes mercados que habían crecido en torno a los títulos con garantía hipotecaria: permutas de riesgo crediticio y obligaciones garantizadas por deuda (CDO, por sus siglas en inglés). Las permutas de riesgo crediticio eran pequeñas pólizas de seguro que transferían el riesgo de una obligación. Las permutas daban a los bancos y a los fondos de cobertura por igual una sensación de seguridad, ya que supuestamente podían utilizarlas para equilibrar el riesgo. No obstante, si las entidades que tenían estas pólizas de seguro se iban al garete, que es lo que ocurrió con muchas de ellas, la reacción en cadena crearía montones de agujeros en la economía mundial. Las obligaciones sintéticas garantizadas por deuda iban un paso más allá: eran contratos cuyo valor dependía de la rentabilidad de las permutas de riesgo crediticio y de los títulos con garantía hipotecaria. Y esto permitía a los ingenieros financieros apalancar sus apuestas aún más.
En 2007 el mercado estaba en pleno auge (y poco después se derrumbó) y representaba 3 billones de dólares en hipotecas subprime, y el mercado en torno a él —incluidas las permutas de riesgo crediticio y las CDO sintéticas, que aumentaban los riesgos— era veinte veces mayor. Ninguna economía nacional podía compararse a estos mercados.
Paradójicamente, los supuestamente potentes algoritmos que crearon el mercado, los que analizaban el riesgo en tramos de deuda y los distribuían en títulos, resultaron inútiles cuando llegó el momento de poner orden en el desastre y calcular lo que realmente valían todos esos papeles. Las matemáticas podían multiplicar la basura, pero no eran capaces de descifrarla. Eso era algo que solo podían hacer los seres humanos. Únicamente las personas podían examinar cuidadosamente las hipotecas, extraer las falsas promesas y las ilusiones sin fundamento y colocar los dólares con valor auténtico en los préstamos. Fue un proceso arduo, porque la gente —al contrario que las ADM— no puede multiplicar su trabajo de forma exponencial y gran parte del sector no lo consideraba una tarea prioritaria. Durante esta interminable desintoxicación, el valor de la deuda —y de las viviendas de las que dependía la deuda— no hizo más que caer, como es obvio. Y cuando la economía cayó en picado, incluso los propietarios que sí podían permitirse sus hipotecas al principio de la crisis de repente se encontraban también en riesgo de impago.
Como ya he mencionado, Shaw escapó por los pelos del epicentro del hundimiento del mercado. Pese a todo, cuando otros actores empezaron a caer, nos pusimos frenéticamente a deshacer operaciones que afectaban a lo que teníamos en nuestros libros. Esto produjo un efecto cascada y a principios del segundo semestre de 2008 estábamos perdiendo dinero a espuertas.
Durante los siguientes meses, el desastre finalmente se extendió a toda la economía. Fue entonces cuando al fin empezamos a fijarnos en las personas que estaban al otro lado de los algoritmos. Eran personas desesperadas que perdían sus casas y millones de estadounidenses que se quedaban sin empleo. La morosidad en las tarjetas de crédito alcanzó máximos récord. El ser humano que sufría, que había estado oculto a la vista detrás de los números, las hojas de cálculo y las calificaciones de riesgo, se hizo palpable.
En Shaw teníamos los nervios a flor de piel. Tras la caída de Lehman Brothers en septiembre de 2008, todo el mundo hablaba de las consecuencias que tendría en la política. Parecía que Barack Obama podía ganar las elecciones en noviembre. ¿Machacaría al sector con nueva normativa? ¿Subiría los impuestos sobre los intereses obtenidos? Nosotros no perderíamos nuestras casas ni tendríamos que exprimir al máximo nuestras tarjetas de crédito simplemente para mantenernos a flote, pero también teníamos muchas preocupaciones. No nos quedaba otra que esperar, dejar que los grupos de presión hicieran su trabajo y ver si nos permitían continuar como siempre.
En 2009 ya resultaba obvio que las lecciones del hundimiento del mercado no habían cambiado el rumbo del mundo de las finanzas ni habían inculcado nuevos valores en él. Los grupos de presión lograron casi todos sus propósitos y el juego siguió siendo el mismo: hacer malabarismos con dinero bobo. Salvando unas cuantas normas que añadían algunos obstáculos que habría que evitar, todo continuó igual.
Este drama marcó el inicio de mi viaje hacia el desencanto. Estaba particularmente decepcionada por el papel que habían jugado los matemáticos en todo esto. Me vi obligada a afrontar la terrible verdad: los matemáticos habían blandido deliberadamente sus fórmulas para impresionar en lugar de para explicar. Era la primera vez que me encontraba con este concepto tóxico y me entraron unas ganas terribles de escapar, de volver atrás en el tiempo al mundo de las pruebas y los cubos de Rubik.
Así que en 2009 dejé mi trabajo en el fondo de cobertura convencida de que debía ayudar a arreglar el ADM financiera. La nueva normativa obligaba a los bancos a contratar a expertos independientes para analizar el riesgo de sus entidades y empecé a trabajar en una de las empresas encargadas de estos análisis, RiskMetrics Group, cuyas oficinas estaban situadas una manzana al norte de Wall Street. Nuestro producto era un aluvión de números, y cada uno de ellos predecía la probabilidad de que un tramo concreto de títulos o productos básicos se fuera al traste durante la semana siguiente, el año siguiente o los cinco años siguientes. Cuando todo el mundo apuesta por todo lo que se mueve en el mercado, una lectora inteligente del riesgo tiene un enorme valor.
Para el cálculo del riesgo, nuestro equipo empleaba el método Monte Cario. Para explicarlo, imaginemos que hacemos girar la rueda de un casino 10.000 veces y tomamos nota del resultado cada vez. Al utilizar el método Monte Carlo, cogeríamos los datos históricos del mercado y los aplicaríamos a miles de escenarios posibles. ¿Cuál sería la cotización de la carteara que estamos estudiando en cada sesión bursátil a partir de 2010, o desde 2005? ¿Sobreviviría a los días más oscuros de la crisis? ¿Cuál es la probabilidad de que surja una amenaza mortal para esa cartera en el próximo año o en los próximos dos años? Para calcular estas probabilidades, los científicos de datos llevaban a cabo miles de simulaciones. Había muchas quejas sobre este método, pero era una manera fácil de conseguir lidiar con el riesgo.
Mi trabajo consistía en actuar de intermediaria entre nuestra unidad de gestión de riesgo y los mayores y más expertos entendidos del riesgo, los fondos de cobertura cuantitativos. Yo llamaba por teléfono a los fondos de cobertura o ellos me llamaban a mí, y repasábamos las dudas que tuvieran sobre nuestros números. No obstante, con frecuencia solo me llamaban cuando había algún error en nuestras cifras. Lo cierto es que los fondos de cobertura siempre se habían considerado los más listos de la dase y, dado que entender el riesgo era esencial para su existencia, nunca confiaban completamente en desconocidos como nosotros. Ellos tenían sus propios equipos de análisis de riesgo y solo compraban nuestro producto para quedar bien ante los inversores.
Yo me encargaba también de contestar al teléfono de la línea de atención al cliente y a veces tenía que responder a las preguntas de los clientes de los grandes bancos. Deseosos de reparar su ruinosa imagen, querían que el público los percibiera como entidades responsables, que es precisamente la razón por la que llamaban. Sin embargo, al contrario que los fondos de cobertura, estos dientes no mostraban ningún interés por nuestros análisis. El riesgo de sus carteras era algo que parecían ignorar. Durante el tiempo que estuve trabajando en atención al cliente, tuve la sensación de que a todos los que nos dedicábamos a advertir del riesgo nos veían como a auténticos aguafiestas o, incluso peon como a una amenaza para la cuenta de resultados del banco. Esto era así incluso después del catastrófico hundimiento de 2008 y no resulta difícil entender por qué. Si sobrevivieron a eso —porque eran demasiado grandes como para caer—, ¿por qué razón tendrían que preocuparse por el riesgo de la cartera ahora?
El rechazo a reconocer el riesgo está profundamente arraigado en las finanzas. Los gestores de fondos son los que definen la cultura de Wall Street, y el riesgo es algo que intentan subestimar activamente. Esto es a su vez consecuencia directa de la forma en la que se determina la habilidad de un gestor de fondos, es decir, su «índice de Sharpe», que se calcula dividiendo los beneficios que el gestor de fondos genera entre los riesgos incluidos en su cartera. Este índice es crucial para la carrera de un gestor de fondos, su bonificación anual e incluso el propio sentido de su existencia. Si despersonificamos a los gestores de fondos y los vemos como si fueran un conjunto de algoritmos, esos algoritmos están implacablemente dedicados a optimizar su índice de Sharpe. Lo ideal sería que subiera constantemente, o al menos que nunca cayera demasiado. Por tanto, si uno de los informes de riesgo de las permutas de riesgo crediticio hiciera que subiera de golpe el cálculo del riesgo de una de las participaciones clave del gestor, su índice de Sharpe se desplomaría. Esto podría costarle cientos de miles de dólares en su bonificación a final del año.
Poco después comprendí que mi trabajo en realidad consistía simplemente en poner un sello de conformidad sin que hubiera un escrutinio real. En 2011 había llegado el momento de volver a cambiar y descubrí que había un mercado enorme en crecimiento para matemáticos como yo. Añadí tres palabras a mi currículo, me autoproclamé «científica de datos» y en seguida estuve lista para zambullirme en la economía de Internet Fui a parar a una start-up de Nueva York llamada intent Media.
Mi trabajo consistía en crear modelos para anticipar el comportamiento de los internautas que visitaban distintos sitios web de viajes. La cuestión clave era determinar si una persona que entraba en el sitio web de Expedia estaba simplemente curioseando o si realmente iba a gastar dinero. Los que no tenían previsto comprar nada tenían un valor muy pequeño en términos de ingresos potenciales, por lo que les mostrábamos anuncios similares de la competencia, como las agencias de viajes en línea Travelocity u Orbitz. Si hacían clic en el anuncio, nos ganábamos unos cuantos peniques, que era mejor que nada. No obstante, no debíamos presentar estos anuncios a los auténticos compradores. Si nos equivocábamos en esto, podíamos acabar ganando diez centavos en ingresos por publicidad mientras enviábamos a los clientes potenciales a nuestros rivales, donde quizá gastaran miles de dólares en habitaciones de hotel en Londres o Tokio. Harían falta miles de clics en anuncios para compensar aunque fuera solo en parte las comisiones perdidas. Por eso era crucial conseguir que esos compradores se quedaran con nosotros.
El reto que tenía ante mí consistía en diseñar un algoritmo que distinguiera a las personas que solo estaban mirando de los auténticos compradores. Había algunos indicios evidentes. ¿Habían iniciado sesión? ¿Qué hora era? ¿Qué día del año? Hay algunas semanas que son especialmente fuertes para los compradores. Por ejemplo, el boom del Día de los Caídos (último lunes de mayo en el que se recuerda a los caídos en la guerra), a mediados de primavera, es un momento en el que muchísimas personas están planeando sus vacaciones de verano casi al unísono. Mi algoritmo daba un valor elevado a los compradores en esos periodos, ya que era más probable que realizaran la compra en esos días.
Resultó que el trabajo estadístico era fácilmente transferible del fondo de cobertura al comercio electrónico; la principal diferencia consistía en que, en lugar de predecir los movimientos de los mercados, ahora predecía los clics de los internautas.
De hecho, encontré innumerables paralelismos entre las finanzas y el big data. Ambos sectores extraen a su personal de las mismas reservas de talento, en gran medida de universidades de élite como MIT, Princeton o Stanford. Estos jóvenes empleados están desesperados por tener éxito y han dedicado toda su vida a la métrica externa —como las notas del examen SAT para el acceso a la universidad y las admisiones en las universidades—. Independientemente de que hayan estudiado finanzas o tecnología, el mensaje que han recibido es que serán ricos, que dirigirán el mundo. Su productividad indica que están en el buen camino y eso se traduce en dólares, lo que les lleva a la engañosa conclusión de que todo lo que hagan para conseguir más dinero estará bien. «Añade valor». Si no fuera así, ¿por qué iba a premiarlo el mercado?
En ambas culturas, la riqueza ha dejado de ser un medio de vida. Está directamente relacionada con el valor de la persona. Un joven de una zona residencial de las afueras con todas las ventajas —una educación secundaria privada, una exhaustiva preparación para los exámenes de acceso a la universidad, un semestre en el extranjero en París o Shanghái— sigue creyendo en la ilusión de que han sido sus competencias, su trabajo duro y sus prodigiosas habilidades para la resolución de problemas lo que lo ha impulsado hasta alcanzar un mundo de privilegios. El dinero disipa todas las dudas. Y el resto de su círculo coincide plenamente con él, con lo que acaban creando una sociedad de admiración mutua. Quieren convencernos a todos de que estamos ante un ejemplo evidente de darwinismo, cuando desde fuera resulta obvio que se trata de una mezcla de trampas en el sistema y pura suerte.
El mundo real, con todo su desorden, es considerado por estos dos sectores como un mundo aparte. Tienden a sustituir a las personas por rastros de datos y a convertirlas así en compradores, votantes o trabajadores más eficaces con el propósito de optimizar ciertos objetivos. Es fácil de hacer y de justificar cuando el éxito llega como puntuación anónima y las personas afectadas son tan abstractas como los números que van pasando por la pantalla.
En el periodo en el que estuve trabajando como científica de datos ya escribía en un blog y colaboraba cada vez más con el movimiento Occupy Wall Street. Crecía mi preocupación por la separación entre los modelos técnicos y la gente real, así como por las consecuencias morales de esa separación. De hecho, veía cómo emergía el mismo patrón del que había sido testigo en el sector financiero: una falsa sensación de seguridad conducía al uso generalizado de modelos imperfectos, definiciones interesadas del éxito y crecientes bucles de retroalimentación. Los que se oponían eran tachados de retrógrados como los luditas que se resistieron al uso de las máquinas durante la Revolución Industrial porque destruían empleo.
Me preguntaba cuál sería la analogía de la crisis crediticia en el sector del big data. En lugar de la quiebra, veía una creciente distopía y el aumento de las desigualdades. Los algoritmos se asegurarían de que aquellos a los que se consideraba como perdedores siguieran siéndolo. Una minoría afortunada ganaría un control aún mayor sobre la economía de datos, amasaría exorbitantes fortunas y se repetiría a sí misma una y otra vez que se lo merece.
Después de un par de años trabajando y aprendiendo en el universo del big data, había completado mi viaje hacia el desencanto, y el mal uso de las matemáticas se aceleraba. A pesar de escribir en el blog casi a diario, me costaba mantenerme al día con todo lo que descubría sobre las distintas formas en las que se manipulaba, controlaba e intimidaba a la gente mediante el uso de algoritmos. Empecé explicando la situación de los docentes que estaban sufriendo bajo el yugo del modelo del valor añadido, pero no me detuve ahí. Profundamente alarmada, dejé mi empleo para dedicarme a investigar el tema más en serio.

Capítulo 3
Carrera armamentística. Ir a la universidad

Si nos sentamos a cenar con unos amigos en ciertas ciudades —San Francisco y Portland, por mencionar dos ejemplos—, descubrimos fácilmente que compartir unas raciones resulta absolutamente imposible. No habrá dos personas en torno a la mesa que coman lo mismo. Todas tienen dietas diferentes, desde la dieta vegana hasta distintas variedades de la dieta paleolítica, y todos tienen una fe absoluta en su respectiva dieta (aunque solo sea durante un mes o dos). Ahora imaginemos que una de esas dietas, por ejemplo, la dieta del hombre de las cavernas, se convirtiera en el estándar nacional en todo Estados Unidos; imaginemos que 330 millones de personas siguieran sus dictados.
Los efectos serían dramáticos. Para empezar, con una única dieta nacional la economía agrícola se las vería negras. La demanda de carnes y quesos autorizados se dispararía, con lo que los precios subirían, mientras que los sectores prohibidos por la dieta, como la soja y las patatas, se hundirían completamente. La diversidad se reduciría. Los sufridos productores de alubias convertirían sus campos en pastos para vacas y cerdos, incluso en suelos poco apropiados para ello. El ganado adicional consumiría enormes cantidades de agua. Y, obviamente, a muchos de nosotros nos fastidiaría no poder comer otros alimentos.
¿Qué relación puede tener una única dieta nacional con las ADM? La escala. Una fórmula, ya sea una dieta o un código tributario, puede ser perfectamente inocua en teoría. No obstante, si crece hasta convertirse en el estándar nacional o mundial, crea una economía distorsionada y distópica propia. Y esto es lo que ha ocurrido con la educación superior.
Todo empezó en 1983. Ese fue el año en el que una revista de noticias en dificultades, U S. News & World Report, decidió llevar a cabo un ambicioso proyecto; evaluar 1800 facultades y universidades de todo Estados Unidos y clasificarlas según $11 grado de excelencia. El resultado sería una herramienta muy útil que, si tenía éxito, podría ayudar a millones de jóvenes a tomar la primera gran decisión de sus vidas. En muchos casos, esta decisión determina la carrera profesional de una persona, la lleva a conocer a amigos para toda la vida y con frecuencia, incluso a su cónyuge. Además, los editores esperaban que el número en el que publicarían el ranking de universidades pudiera convertirse en un gran éxito. Tal vez, esa semana, U. S, News conseguiría igualar a sus gigantescos rivales, Time y Newsweek.
Pero ¿qué información se utilizaría para establecer este nuevo ranking? Al principio, el personal de U S. News basó todas sus puntuaciones en los resultados de las encuestas de opinión que enviaron a los rectores de las universidades.[39] Stanford quedó como la primera universidad del país y Amherst como la mejor facultad de humanidades. El ranking tuvo mucho éxito entre los lectores, pero volvió locos a los rectores de muchas universidades. Llegaron cientos de quejas a la revista diciendo que la clasificación era injusta. Muchos rectores, estudiantes y antiguos alumnos insistieron en que merecían una mejor puntuación. Lo único que tenía que hacer la revista era analizar los datos.
Durante los años siguientes, los editores de U. S. News intentaron decidir qué podían medir. Así es como empiezan muchos modelos, con una serie de corazonadas. El proceso no es científico e incluye escasos rudimentos de análisis estadístico. En este caso, se reunió a un grupo de personas para reflexionar sobre qué elementos eran los más importantes en la educación, considerar después cuáles de esas variables podían contar y finalmente decidir qué peso específico asignarle a cada una de ellas en la fórmula.
En la mayoría de las disciplinas el análisis que nutre un modelo exigiría mucho más rigor. En agronomía, por ejemplo, los investigadores pueden comparar los aportes —el suelo, la luz solar y el abono— con los resultados, que serían rasgos específicos en los cultivos resultantes. A partir de ahí podrían experimentar y optimizar el proceso en función de sus objetivos, ya fueran estos el precio, el sabor o el valor nutricional. Esto no significa que los agrónomos no puedan crear ADM. Pueden hacerlo y, de hecho, lo hacen (especialmente cuando omiten considerar los efectos a largo plazo y de gran alcance de los pesticidas). No obstante, dado que sus modelos, en su mayoría, están estrechamente relacionados con resultados concretos, son ideales para la experimentación científica.
Los periodistas de U. S. News, sin embargo, se estaban enfrentando a la «excelencia educativa», un valor mucho más abstracto que el coste del maíz o los microgramos de proteínas de cada mazorca. No disponían de ninguna forma directa de cuantificar cómo un proceso de cuatro años afectaba a un único estudiante y aún menos de cuantificar cómo este proceso afectaba a millones de ellos. No podían medir el aprendizaje, la felicidad, la confianza en uno mismo, las amistades y otros muchos aspectos que conforman la experiencia de un estudiante a lo largo de cuatro años. El ideal de la educación superior del presidente Lyndon Johnson —«un camino hacia una realización personal más profunda, una mayor productividad personal y una mayor gratificación personal»— no encajaba en su modelo.
En lugar de buscar ese ideal, tomaron valores sustitutivos que parecían estar correlacionados con el éxito. Analizaron las puntuaciones del examen de acceso a la universidad SAT, las ratios de alumnos por profesor y los índices de aceptación de solicitudes. Analizaron el porcentaje de estudiantes de primer año que pasaban al segundo curso y el porcentaje de alumnos que se graduaban. Calcularon el porcentaje de antiguos alumnos que donaban dinero a su alma mater, suponiendo que si hacían donativos a la universidad sería porque valoraban la educación que habían recibido de ella. Tres cuartos del ranking eran producidos por un algoritmo —una opinión formalizada en un programa— que incorporaba estos valores sustitutivos. En el otro cuarto se tenían en cuenta las opiniones subjetivas de los empleados de las universidades de todo el país.[40]
El primer ranking de U. S. News basado en datos fue publicado en 1988 y los resultados parecían razonables. No obstante, cuando el ranking se convirtió en el estándar nacional, apareció un bucle de retroalimentación vicioso. El problema era que los propios rankings se reforzaban a sí mismos. Si a una universidad le iba mal en U. S. News, su reputación sufría por ello y las condiciones se deterioraban. Los mejores estudiantes la evitaban, al igual que los mejores profesores. Los antiguos alumnos se quejaban y recortaban sus donativos. Y la clasificación de la universidad empeoraba aún más. El ranking, en pocas palabras, era el destino.
En el pasado, los rectores de las universidades habían empleado distintas formas de medir su éxito, muchas de ellas anecdóticas. Los estudiantes ponían a algunos profesores por las nubes. Algunos antiguos alumnos hacían ilustres carreras como diplomáticos o empresarios. Otros publicaban novelas por las que ganaban premios literarios. Todo esto generaba un boca a boca positivo, que potenciaba la reputación de la universidad en cuestión. Pero ¿era Macalester mejor que Reed? ¿O Iowa mejor que Illinois? Era difícil saberlo. Las universidades eran como distintas clases de música, o diferentes dietas. Había espacio para opiniones diversas, con argumentos válidos en cada una de ellas. Ahora el extenso ecosistema de la reputación de las universidades quedaba eclipsado por una única columna de números.
Si analizamos este cambio desde la perspectiva del rector de una universidad, resulta bastante triste. Sin duda, la mayoría de ellos adoraron su propia experiencia en la universidad —eso fue en parte lo que los motivó a subir en el escalafón académico—. Y, sin embargo, ahí estaban, en la cumbre de sus carreras y dedicando cantidades ingentes de energía a mejorar el rendimiento en quince áreas definidas por un grupo de periodistas de una revista de noticias de segunda. Era como sí volvieran a ser estudiantes de nuevo y tuvieran que esforzarse por conseguir que un profesor les pusiera buenas notas. De hecho, estaban atrapados en un modelo rígido, un ADM.
Si la lista de U. S. News hubiera obtenido un éxito moderado, no habría supuesto ningún problema. Sin embargo, creció hasta convertirse en un titán, y rápidamente se consolidó como estándar nacional. Y desde entonces ha estado confundiendo a nuestro sistema educativo, con una rígida lista de tareas pendientes, tanto para los rectores como para los estudiantes. El ranking de universidades de U. S. News tiene una enorme escala, causa daños generalizados y genera una espiral interminable de bucles de retroalimentación destructivos. A pesar de no ser tan opaco como otros muchos modelos, sigue siendo una auténtica ADM.
Algunos rectores han hecho desesperados esfuerzos por mejorar su clasificación. La Universidad Baylor pagó a los estudiantes ya matriculados la tasa de examen del SAT para que repitieran el examen,[41] con la esperanza de que al hacerlo una segunda vez sacarían mejores puntuaciones, y de que así mejoraría la clasificación de la universidad. Pequeñas universidades de élite, como la Universidad de Bucknell en Pensilvania y la Universidad Claremont McKenna de California, enviaron datos falsos a U. S. News: enviaron mejores puntuaciones del SAT de sus alumnos de primer año de las que realmente habían tenido.[42] Y el Iona College, en Nueva York, reconoció en 2011 que sus empleados habían maquillado los números en prácticamente todas las secciones: las puntuaciones de los exámenes, la tasa de alumnos que consiguen plaza y la tasa de licenciados, el porcentaje de alumnos de primer año que pasan a segundo año, la ratio de alumnos por profesor y el número de antiguos alumnos que hacían donaciones.[43] Mentir les salió bien, al menos durante un tiempo, U. S. News estimó que los datos falsos habían llevado a lona desde el quincuagésimo lugar hasta el puesto número treinta dentro de las universidades del noreste del país.
La mayoría de los rectores buscaron formas menos indignantes de mejorar sus clasificaciones. En lugar de hacer trampas, trabajaron duro para mejorar cada uno de los indicadores que conformaban su puntuación. Podían defender su actuación diciendo que así se garantizaba un uso más eficiente de los recursos, Al fin y al cabo, si trabajaban para mejorar sus resultados en el algoritmo de U. S. News, conseguirían recaudar más dinero, atraer a mejores estudiantes y profesores y seguir escalando puestos en la lista. ¿Tenían realmente alguna otra alternativa?
Robert Morse, que lleva trabajando en U. S. News desde 1976 y está al frente del grupo responsable de elaborar los rankings de universidades, ha declarado en varias entrevistas que los rankings animaban a las universidades a definir metas significativas. Si conseguían mejorar el porcentaje de alumnos que se gradúan o reducir la ratio en las clases, el resultado era positivo. La educación salía ganando. Admitió que los datos más importantes —lo que los estudiantes habían aprendido en cada universidad— eran inaccesibles, pero el modelo de U. S. News, construido a partir de datos sustitutivos, era la segunda mejor manera de evaluar a las universidades.
No obstante, cuando se crea un modelo a partir de valores sustitutivos, es mucho más fácil hacer trampas, ya que son más fáciles de manipular que la compleja realidad que representan. Veamos un ejemplo. Imaginemos que un sitio web quiere contratar a un experto en redes sociales. Muchas personas presentarán su candidatura y enviarán información sobre las distintas campañas de marketing que han realizado. Sin embargo, se tarda demasiado tiempo en buscar y evaluar todo ese trabajo, por lo que la persona responsable de la contratación define un valor sustitutivo. Tendrá más en consideración a los candidatos que tengan un mayor número de seguidores en Twitter. Eso es señal de estar muy metido en las redes sociales, ¿no es cierto?
Bueno, parece un valor sustitutivo bastante razonable. Pero ¿qué ocurrirá cuando se corra la voz, cosa que seguro sucede, de que tener muchos seguidores en Twitter es la clave para conseguir un empleo en esta empresa? Los interesados harán todo lo posible por disparar su número de seguidores en Twitter. Algunos pagarán 19,95 dólares por un servicio que llena sus cuentas con miles de seguidores, la mayoría de ellos generados por robots. Cuando se empiezan a hacer trampas en el sistema, los valores sustitutivos pierden efectividad. Los tramposos aparecen como falsos positivos.
En el caso de los rankings de U. S. News, todo el mundo —desde futuros estudiantes hasta antiguos alumnos, pasando por los departamentos de recursos humanos de las empresas— aceptó inmediatamente su sistema de puntuación como una medida de la calidad de la educación. Con lo que las universidades les siguieron la corriente e intentaron mejorar en cada una de las áreas que medían los rankings. Muchas universidades se sentían en realidad particularmente frustradas con el 25 % del ranking sobre el que no tenían ningún control: la puntuación por reputación, que provenía de los cuestionarios que se enviaban a los rectores y decanos.
Esta parte del análisis, como la recopilación de cualquier otra opinión humana, incorporaba sin duda ignorancia y prejuicios chapados a la antigua. Esta parte solía proteger a las universidades famosas en los primeros puestos de la lista porque esas eran las universidades que la gente conocía. Y esto hada que fuera más difícil para las universidades emergentes escalar puestos en el ranking.
En 2008, la Universidad Cristiana de Texas (TCU, por sus siglas en inglés), situada en Fort Worth, llevaba varios años seguidos perdiendo puestos en elranking de U. S. News.[44] Había estado en el número 97 tres años antes, pero había retrocedido hasta el número 105, luego al 108, y estaba ya en el 113. Esto inquietaba a los antiguos alumnos y a los defensores de esta universidad y puso al rector, Victor Boschini, en el punto de mira. «Todo esto es muy frustrante para mí», declaró el rector a la página web de noticias del campus, TCU 360. Insistió en que la Universidad Cristiana de Texas avanzaba en todos los indicadores. «Hemos mejorado el porcentaje de alumnos que pasan a segundo año y nuestra recaudación de fondos, todo lo que miran».
Había dos problemas en el análisis de Victor Boschini. En primer lugar, el modelo de clasificación de U S. News no juzgaba las universidades de forma aislada. Incluso las universidades que hubieran mejorado sus cifras caerían a puestos inferiores si otras universidades avanzaban con mayor rapidez. Para expresarlo en términos académicos, el modelo de U. S. News clasificaba a las universidades en una curva. Y esto alimentó lo que se convirtió en una creciente carrera armamentística.
El otro problema era la puntuación por reputación, el 25 % que la TCU no podía controlar. Raymond Brown, el decano responsable de la admisión de estudiantes, comentó que la reputación era la variable con mayor peso, «lo que resulta absurdo, porque es completamente subjetiva»[45] Wes Waggoner, director a cargo de la admisión de los estudiantes de primer año, añadió que las universidades se hacían publicidad entre sí para mejorar su puntuación por reputación. «Recibo en el correo mensajes de otras universidades que intentan convencer[nos] de lo buenas que son», declaró Wes Waggoner.
A pesar de estas quejas, la TCU se preparó para mejorar el 75 % de la puntuación que sí podía controlar. Al fin y al cabo, si conseguían incrementar la puntuación de la universidad, su reputación acabaría mejorando también. Con el tiempo, las demás universidades se percatarían de la evolución y le darían mejores puntuaciones. Lo importante era empezar a tomar medidas en la dirección adecuada.
La TCU lanzó una campaña con el objetivo de recaudar 250 millones de dólares.[46] Logró superar con mucho el objetivo que se había fijado y al año siguiente había recibido ya 434 millones de dólares. Este único hecho mejoró mucho la clasificación de la TCU, ya que la recaudación de fondos es uno de los factores que se valoran. La universidad gastó gran parte del dinero en mejorar el campus, incluidos los 100 millones de dólares invertidos en el paseo central y en un nuevo edificio para la asociación de estudiantes con el propósito de que la TCU fuera un destino más atractivo para estos. Evidentemente, no hay nada malo en ello, aunque oportunamente contribuye a un buen resultado en el algoritmo de U. S. News. Cuantos más estudiantes solicitaran plaza en la universidad, más selectiva podía ser la universidad.
Y quizá lo más importante fuera que la TCU construyó unas modernas instalaciones deportivas e inyectó recursos en el programa de fútbol americano. En los años siguientes, el equipo de fútbol americano de la TCU, los Horned Frogs, se convirtió en una potencia a escala nacional. En 2010 completaron la temporada sin perder un solo partido y ganaron a Wisconsin en el famoso partido del estadio Rose Bowl.
Y así la TCU se benefició del llamado «efecto Flutie». En 1984, en uno de los más emocionantes partidos de fútbol americano universitario, un quarterback de Boston College, Doug Flutie, logró en el último segundo un pase largo «Ave María» con el que venció a la Universidad de Miami. Doug Flutie se convirtió en una leyenda. En menos de dos años, las solicitudes de plaza que recibía Boston College habían aumentado un 30 %.[47] La Universidad de Georgetown experimentó ese mismo crecimiento cuando su equipo de baloncesto, impulsado por Patrick Ewing, jugó tres finales del campeonato nacional universitario. Según parece, los programas deportivos universitarios con equipos que ganan campeonatos son la publicidad más efectiva para atraer a algunos alumnos. Para multitud de alumnos de último curso de instituto que tienen un perfil deportista y que siguen las competiciones deportivas universitarias en la televisión, las universidades con grandes equipos resultan muy atractivas. Los estudiantes llevan con orgulloso la camiseta de la universidad, se pintan la cara con los colores de su equipo y disfrutan celebrando sus victorias. Al recibir más solicitudes de plaza, los rectores pueden ser más exigentes con los requisitos y aumentar así la puntuación media del examen de acceso de los alumnos de primer año. Esto también mejora la clasificación de la universidad. Y cuantas más solicitudes rechace la universidad, menor será su tasa de aceptación (y mejor será su situación en el ranking).
La estrategia de la TCU funcionó. En 2013 era la segunda universidad más selectiva de Texas, detrás únicamente de la prestigiosa Universidad Rice de Houston, Ese mismo año registró la máxima puntuación de toda su historia en los exámenes de acceso SAT y ACT. Su clasificación en la lista deU. S. News subió.[48] En 2015 alcanzó el puesto número 76, lo que suponía una escalada de 37 puestos en solo siete años.
Pese a mis críticas al modelo de U. S. News y a su condición de ADM, es importante recordar que esta extraordinaria escalada en los rankings puede haber beneficiado a la TCU Al fin y al cabo, casi todos los valores sustitutivos del modelo de U. S. News reflejan en cierta medida la calidad general de cada universidad, al igual que a muchas personas les va genial con la dieta del hombre de las cavernas. El problema no es el modelo de U. S. News en sí, sino su escala. Obliga a todo el mundo a perseguir exactamente los mismos objetivos, lo que conduce a una carrera de locos y tiene un sinfín de consecuencias nocivas no intencionadas.
En los años anteriores a los rankings, por ejemplo, los alumnos que se preparaban para ir a la universidad podían dormir más tranquilos sabiendo que habían solicitado plaza en alguna de las llamadas «universidades seguras», a saber, universidades cuyos requisitos de acceso eran menos exigentes. Si no conseguían entrar en sus primeras opciones, es decir, las universidades que habían solicitado por probar suerte (que estaban por encima de sus posibilidades) y las que representaban apuestas más ajustadas a la realidad (las universidades en las que pensaban que sí podrían entrar), sabían que recibirían una educación perfectamente aceptable en una de esas universidades seguras (y confiaban en que quizá incluso conseguirían cambiarse a una de las universidades que tenían entre sus primeras opciones al cabo de uno o dos años).
El concepto de universidad segura casi ha desaparecido en la actualidad, gracias parcialmente al ranking de U. S. News. Como hemos visto en el ejemplo de la TCU, para conseguir una buena clasificación es bueno ser selectivo. El que la secretaría reciba un gran número de solicitudes será interpretado como una señal de que en esa universidad se están haciendo bien las cosas. Es una prueba de la reputación de la universidad Y si una universidad puede permitirse rechazar a la gran mayoría de los candidatos, lo más probable es que acabe teniendo una mejor categoría de estudiantes. Al igual que otros muchos valores sustitutivos, este indicador parece tener sentido. Refleja los movimientos del mercado.
Sin embargo, es posible manipular este mercado. Una universidad segura tradicional, por ejemplo, puede analizar sus datos históricos y comprobar que solo una pequeña fracción de los solicitantes con mejores notas acabaron matriculándose allí. La mayoría de sus candidatos consiguieron entrar en las universidades en las que habían solicitado plaza por probar suerte o en las que tenían posibilidades, con lo que no necesitaron recurrir a la universidad segura, su póliza de seguros. Con el objetivo de mejorar su puntuación por ser selectiva, la universidad segura puede decidir rechazar a los candidatos excelentes que, según su propio algoritmo, son los que con mayor probabilidad no acabarán matriculándose allí. Este proceso no es en absoluto preciso y la universidad, a pesar del trabajo desarrollado por los científicos de datos de la secretaría, seguramente acabará perdiendo un cierto número de excelentes estudiantes que sí que habrían optado por matricularse allí. Y esos estudiantes son los que descubren, para su consternación, que las denominadas universidades seguras ya no son una apuesta segura.
Este enrevesado proceso no es nada positivo para la educación, La universidad sufre; pierde a los mejores estudiantes, las estrellas que hacen que la experiencia sea mejor para todos, incluidos los profesores. De hecho, es posible que la antigua universidad segura ahora tenga que dedicar parte de sus escasas becas a atraer a algunas de esas estrellas a su campus, lo que puede traducirse en menos dinero para los alumnos que más lo necesitan.

* * *

Este punto es precisamente donde encontramos las principales deficiencias del ranking de universidades de U. S. News. Los valores sustitutivos que los periodistas eligieron para determinar la excelencia educativa tienen sentido, es cierto. No obstante, su espectacular fracaso proviene, sin embargo, de lo que decidieron no considerar; el coste de la matrícula y las tasas universitarias. Dejaron la financiación de los estudiantes fuera del modelo.
Esto nos lleva a la pregunta crucial que tendremos que considerar una y otra vez: ¿cuál es el objetivo de las personas que han creado el modelo? En este caso, pongámonos en el lugar de los editores de U. S. News en 1988, Cuando estaban creando su primer modelo estadístico, ¿cómo sabrían si había funcionado bien? El modelo tendría mucha más credibilidad desde el principio si reflejaba la jerarquía establecida. Si Harvard, Stanford, Princeton y Yale aparecían en los primeros puestos, esto podría validar su modelo, al replicar los modelos informales que ellos mismos y sus dientes tenían en la cabeza. Para construir dicho modelo, lo único que tenían que hacer era analizar las que se consideraban las mejores universidades y medir lo que las hacía tan especiales. ¿Qué tenían esas universidades en común que las diferenciaba de las universidades seguras de una ciudad cercana? Para empezar, sus estudiantes habían sacado altísimas puntuaciones en el examen de acceso SAT y completaban sus estudios a curso por año como un reloj. Los antiguos alumnos eran ricos y donaban montones de dinero a sus universidades. Al analizar las virtudes de las universidades de primera, el equipo de calificación creó un patrón elitista para medir la excelencia.
Ahora bien, cuando incorporaban el coste de la educación en la fórmula, los resultados se comportaban de forma extraña. Las universidades baratas se abrían paso en la jerarquía de la excelencia, Esto podía dar lugar a sorpresas y sembrar dudas. El público podría tomarse a broma los rankings de U. S. News. Era mucho más seguro empezar con los venerables campeones en lo más alto. Obviamente cuestan mucho dinero, pero quizá fuera ese el precio de la excelencia.
Al dejar el coste fuera de la fórmula, es como si U. S. News hubiera entregado a los rectores de las universidades una chequera de oro. Habían recibido el mandamiento de maximizar el rendimiento en quince áreas diferentes, pero mantener un bajo nivel de costes no era una de ellas. De hecho, si subían los precios, obtendrían más recursos para mejorar las áreas en las que se les medía.
Desde entonces, el precio de la matrícula se ha disparado. Entre 1985 y 2013, el coste de la educación superior ha aumentado más de un 500 casi cuatro veces la tasa de inflación.[49] Para atraer a los mejores estudiantes, las universidades, como vimos en el caso de la TCU, se han entregado al auge de la construcción y han erigido edificios con paredes de cristal, residencias de lujo y gimnasios con rocódromos y piscinas de hidromasaje. Todo esto sería maravilloso para los estudiantes y tendrían mejores experiencias en la universidad si no tuvieran que pagar por ello en forma de préstamos de estudios que serán una carga para ellos durante décadas. No podemos culpar de esta tendencia únicamente a los rankings de U. S. News. Toda nuestra sociedad se ha entregado sin reservas, no solo a la idea de que es esencial recibir una educación universitaria, sino también a la convicción de que un título de una universidad bien situada en los rankings puede catapultar a un estudiante a una vida de poder y privilegios. El ADM de U. S. News se alimentó de estas creencias, miedos y neurosis. Creó poderosos incentivos que han fomentado el gasto al tiempo que se hacía la vista gorda con la rápida subida de las matrículas y las tasas universitarias.
Para posicionarse mejor en las listas de U. S. News, las universidades gestionan a la población estudiantil como si estuvieran frente a una cartera de inversión. Veremos que esto se repite con frecuencia en el mundo de los datos, en sectores como la publicidad o la política por igual. Para los rectores de las universidades, cada posible estudiante representa una serie de activos y habitualmente un par de pasivos también. Una gran deportista, por ejemplo, sería un activo, pero puede que su puntuación en el examen de acceso sea baja o que estuviera entre las peores de su promoción. Esos serían sus pasivos. Para equilibrar la cartera, lo ideal sería encontrar otros candidatos que puedan pagarse la matrícula y tengan muy buenas puntuaciones en el examen de acceso. Sin embargo, esos candidatos ideales, una vez que se les ha adjudicado una plaza, pueden decidir matricularse en otra universidad. Esto representa un riesgo, que también debe ser cuantificado. Todo esto resulta aterradoramente complejo, con lo que ha dado lugar a la aparición de un nuevo sector de consultoría dedicado a «optimizar el reclutamiento de estudiantes».
Noel-Levitz, una empresa consultora del sector de la educación, ofrece un paquete de análisis predictivo denominado Forecast Plus, que permite a los rectores clasificar a los estudiantes que solicitan plaza en sus universidades por geografía, género, origen étnico, ámbito de estudio, posición académica dentro de la promoción o «cualquier otra característica que desee».[50] Otra consultora, RightStudent, recopila y vende datos para ayudar a las universidades a buscar a los candidatos más prometedores. Entre ellos están los estudiantes que pueden pagar la matrícula completa, así como otros que cumplen los requisitos para recibir una beca de otra entidad. Para algunos de estos estudiantes, tener diagnosticada una dificultad de aprendizaje es un plus.
Toda esta actividad se desarrolla dentro de un amplio ecosistema que rodea los rankings de U. S. News, cuyo modelo funciona de facto como la legislación nacional. Si los editores reajustan la ponderación de los valores del modelo y reducen el peso de las puntuaciones del SAT, por ejemplo, o aumentan la importancia de las tasas de graduación, el ecosistema de la educación en su conjunto tendrá que adaptarse a ello. Y esto afecta tanto a las universidades como a las consultoras, los departamentos de orientación de los institutos y, obviamente, también a los estudiantes.
Naturalmente, los rankings en sí son un negocio al alza. La revista U. S. News & World Report, que durante mucho tiempo fue la única actividad de la empresa, fue perdiendo fuelle y dejó de imprimirse en 2010. Sin embargo, el negocio de las clasificaciones ha seguido creciendo, y se ha extendido a las facultades de medicina, las facultades de odontología y los programas de posgrado en humanidades e ingeniería. U. S. News publica rankings incluso de los institutos.
A medida que crecen los rankings, crecen también los esfuerzos por engañarlos. En un ranking de las mejores universidades de todo el mundo que publicó U. S. News en 2014, el departamento de Matemáticas de la Universidad Rey Abdulaziz de Arabia Saudi quedó séptimo, justo después de Harvard.[51] El departamento existía desde hacía solo dos años, pero de algún modo había logrado saltar por encima de varios titanes de las matemáticas, incluidos Cambridge y el MIT.
A primera vista, puede parecer un cambio positivo. Puede que el MIT y Cambridge estuvieran relajadamente viviendo de las rentas de su fama mientras que una potencia insurgente y trabajadora se había abierto camino hasta la élite. Si se hubiera tratado de un ranking exclusivamente basado en la reputación, ese cambio tan radical habría tardado décadas en producirse, pero con los datos las sorpresas pueden brotar de un día para otro.
No obstante, los algoritmos también se pueden manipular. Lior Pachter, biólogo computational de Berkeley, estudió el caso y descubrió que la universidad saudí había contactado a un montón de matemáticos cuyos trabajos tenían un elevado número de citas y les había ofrecido un contrato de 72.000 dólares como profesores adjuntos. El acuerdo, según una carta de reclutamiento que Lior Pachter publicó en su blog, estipulaba que los matemáticos tendrían que trabajar tres semanas al año en Arabia Saudí. La universidad cubriría sus gastos de viaje en clase business y los alojaría en un hotel de cinco estrellas. Posiblemente, el que estos matemáticos trabajaran en Arabia Saudí añadiría valor localmente, pero la universidad también les exigía que cambiaran su afiliación en el sitio web de citas académicas Thomson Reuters, una referencia clave para los rankings de U. S. News. Esto significaba que la universidad saudí podía reclamar las publicaciones de sus nuevos profesores adjuntos como propias. Y dado que las citas eran uno de los principales datos de entrada del algoritmo, la Universidad Rey Abdulaziz escaló a lo más alto de los rankings.

* * *

Los estudiantes de la ciudad china de Zhongxiang eran célebres por bordar el examen estándar nacional gaokao y por conseguir plaza en las mejores universidades del país. Conseguían tan buenos resultados que las autoridades empezaron a sospechar que hacían trampas.[52] Las sospechas aumentaron en 2012, según la información del periódico británico Telegraph cuando las autoridades de la provincia encontraron 99 copias idénticas de un mismo examen.
Al año siguiente, cuando los estudiantes de Zhongxiang llegaron a las instalaciones en las que iban a hacer el examen, quedaron consternados al descubrir que tenían que pasar por detectores de metales y que les obligaban a entregar sus teléfonos móviles. Algunos entregaron transmisores minúsculos que parecían gomas de borran Una vez dentro de las salas de examen, los estudiantes estuvieron vigilados por 56 investigadores de distintos distritos escolares. Algunos de los investigadores descubrieron en un hotel al otro lado de la calle a varias personas posicionadas para comunicarse con los estudiantes a través de los transmisores.
La respuesta a estas duras medidas fue explosiva. Unos dos mil manifestantes se reunieron en la calle delante del edificio lanzando piedras y gritando: «Queremos justicia. No hay justicia si no podemos hacer trampas».
Suena a broma, pero lo decían completamente en serio. En el examen había muchísimo en juego. Era la oportunidad de tener acceso a una educación de élite y una carrera próspera o, de lo contrario, se quedarían para siempre en su ciudad de provincias, un lugar atrasado y sin perspectivas. Y fuera o no verdad, ellos estaban convencidos de que los demás estudiantes hacían trampas. Por eso, desde su punto de vista, impedirles hacer trampas era injusto. En un sistema en el que lo normal es hacer trampas, seguirlas reglas es una desventaja. No hay más que preguntar a los ciclistas del Tour de Francia que fueron aplastados durante siete años seguidos por Lance Armstrong y sus compañeros de equipo dopados.
La única manera de ganar en este tipo de escenarios es conseguir una ventaja y asegurarse de que los demás no consiguen una ventaja mayor, Y esto no ocurre solo en China: también se da en Estados Unidos, donde los responsables de admisiones en secundaria, los padres y los estudiantes quedan atrapados por sus propios frenéticos esfuerzos por engañar al sistema engendrado por el modelo de U. S. News.
Se ha generado un nuevo y próspero sector de clases de profesores particulares y tutores gracias al bucle de retroalimentación del modelo y a la ansiedad que genera. Muchos de ellos cobran una fortuna. Un «campamento para mejorar la solicitud de plaza» de cuatro días de duración organizado por la empresa Top Tier Admissions cuesta 16.000 dólares (alojamiento y comidas aparte).[53] Durante las sesiones, los jóvenes alumnos de secundaria mejoran su estilo de redacción, aprenden a «bordar» una entrevista y crean una «ficha de actividades» en la que resumen todos los premios, actividades deportivas, participaciones en clubes y trabajos comunitarios que los responsables de admisión en las universidades andan buscando.
Dieciséis mil dólares parece mucho dinero, pero al igual que en el caso de los manifestantes chinos en Zhongxiang, a muchas familias estadounidenses les inquieta que el éxito y la realización de sus hijos en el futuro dependa de que sean aceptados en una universidad de élite.
Los profesores particulares más eficaces comprenden los modelos de admisión de cada universidad, lo cual significa que entienden cómo encajaría un posible estudiante. Un empresario con sede en California, Steven Ma, lleva este enfoque basado en el mercado hasta el extremo. Steven Ma, fundador de ThinkTank Learning, introduce los datos de los futuros estudiantes en su propio modelo y calcula la probabilidad de que consigan plaza en las universidades en las que desean entrar.[54] Explicó a la revista Bloomberg Businessweek, por ejemplo, que un estudiante de último curso de secundaria nacido en Estados Unidos, con una nota media de 3,8 en el expediente (sobre un máximo de 4), una puntuación de 2000 en el examen de acceso a la universidad SAT y 800 horas de actividades extracurriculares tiene un 20,4 % de probabilidades de entrar en la Universidad de Nueva York y un 28,1 % de probabilidades de conseguir plaza en la Universidad del Sur de California. ThinkTank ofrece paquetes de consultoría garantizados y si ese estudiante hipotético contrata el coaching de la consultoría y consigue plaza en la Universidad de Nueva York, deberá pagar 25.931 dólares, o 18.826 si entra en la Universidad del Sur de California. Si no consigue entrar, no le cobrarán nada.
Los modelos de admisión de todas las universidades derivan, al menos parcialmente, del modelo de U. S. News, y cada uno de ellos es una mini-ADM. Estos modelos vuelven locos a los estudiantes y a sus familias y los empujan a gastar obscenas cantidades de dinero. Y son modelos opacos. Lo que significa que la mayoría de los participantes (o víctimas) no saben nada sobre ellos. Y esto genera un gran negocio para los consultores que se las arreglan para descubrir sus secretos, como Steven Ma, ya sea dando un trato especial a sus fuentes dentro de las propias universidades o aplicando ingeniería inversa a sus algoritmos.
Las víctimas, obviamente, son la gran mayoría de los estadounidenses, las familias pobres y de clase media que no pueden gastar miles de dólares en cursos y consultores. No tienen acceso a la preciada información privilegiada. Y el resultado es un sistema educativo que favorece a los privilegiados. Es un sistema que actúa en contra de los estudiantes más necesitados, excluyendo a la gran mayoría de ellos (y empujándolos por un camino que conduce a la pobreza). Es un sistema que agrava la brecha entre ricos y pobres.
No obstante, incluso los que consiguen abrirse paso a toda costa hasta una universidad de élite salen perdiendo. Si nos paramos a pensarlo, es evidente que el juego de la admisión en las universidades, aunque resulta muy lucrativo para algunos, no tiene prácticamente ningún valor educativo. La compleja y tensa preparación no hace más que ordenar y clasificar al mismo grupo de jóvenes de dieciocho años una y otra vez según la moda de cada momento. Los alumnos no aprenden a dominar competencias importantes mientras pasan por el aro de todos los requisitos, ni mientras se esfuerzan por escribir redacciones meticulosamente dirigidas a ciertas universidades bajo la atenta mirada de los tutores profesionales. Todos ellos, tanto los ricos como la clase trabajadora, se forman solo para encajar en una enorme maquinaria: para satisfacer a un ADM. Y al final de este suplicio, muchos de ellos estarán hasta arriba de deudas que tardarán décadas en devolver. Son peones en una carrera armamentística, y es una carrera particularmente despiadada.
¿Y hay manera de arreglar este desaguisado? Durante su segundo mandato, el presidente Obama sugirió que habría que crear un nuevo modelo de ranking de universidades, uno que respondiera mejor a las prioridades nacionales y a los medios de la clase media que la versión deU. S. News.[55] Su segundo objetivo era quitarles poder a las universidades privadas con ánimo de lucro (una plaga sacacuartos de la que hablaremos en el siguiente capítulo), La idea de Obama consistía en vincular un sistema de ranking de universidades a un conjunto diferente de indicadores, que incluyera la accesibilidad económica, el porcentaje de estudiantes pobres y de minorías y el empleo después de graduarse. Al igual que el ranking de U. S. News, también consideraría la tasa de graduación. Sería un sistema en el que las universidades que cayeran por debajo del umbral mínimo en estas categorías quedarían fuera del mercado de préstamos para estudiantes de 180 millones de dólares al año del Gobierno federal (con el que las universidades privadas con ánimo de lucro se han estado dando un festín en los últimos años).
Efectivamente, todos estos objetivos parecen muy loables, pero todos los sistemas de ranking pueden manipularse, Y cuando eso ocurre, se generan nuevos y diferentes bucles de retroalimentación y multitud de consecuencias no intencionadas.
Es fácil incrementar las tasas de graduación, por ejemplo, bajando el nivel. Muchos estudiantes tienen dificultades con el nivel previo exigido en matemáticas y ciencias y con los idiomas extranjeros. Si se baja el nivel de exigencia en esas áreas, muchos más estudiantes completarán sus estudios. Sin embargo, si uno de los objetivos de nuestro sistema educativo es producir más científicos y tecnólogos en el contexto de la economía global, ¿qué sentido tiene eso? También sería pan comido para las universidades incrementarlos sueldos medios de sus antiguos alumnos. Bastaría con reducirlas carreras de humanidades y deshacerse de los departamentos de Educación y de Trabajo Social, ya que se ponen a hacer limpieza. Al fin y al cabo, los maestros y los trabajadores sociales ganan menos que los ingenieros, los químicos y los ingenieros de sistemas, aunque eso no significa que sean menos valiosos para la sociedad.
Tampoco les costaría mucho reducir costes. Una idea que ya está ganando cierta popularidad es bajar el porcentaje de profesores titulares y sustituir a este personal tan caro cuando se jubila por docentes más baratos o profesores adjuntos. En ciertos departamentos de algunas universidades puede que tenga sentido hacer algo así, pero esto también tiene un precio. Los profesores titulares, en colaboración con los estudiantes de posgrado, impulsan importantes investigaciones y definen el nivel de sus departamentos, mientras que los profesores adjuntos, siempre con prisas, que quizá tengan que dar clases de cinco asignaturas diferentes en tres facultades distintas para poder pagar el alquiler, rara vez tienen el tiempo o la energía necesarios para hacer algo más que impartir una educación básica. Otra posible solución consistiría en eliminar puestos administrativos innecesarios, aunque esto es muy poco frecuente.
El número de «alumnos con empleo nueve meses después de licenciarse» también puede manipularse. Un artículo del New York Times de 2011 estudiaba el caso de las facultades de derecho, que ya están siendo evaluadas por su capacidad para posicionar a sus estudiantes en una buena carrera profesional.[56] Imaginemos que un abogado recién salido de la universidad, con una deuda de 150.000 dólares en préstamos de estudios, trabaja de barista en una cafetería. Para algunas facultades de derecho sin escrúpulos investigadas por el Times, ese estudiante contaba como antiguo alumno con empleo. Algunas facultades iban aún más allá y ofrecían a sus propios licenciados, justo al acercarse la fecha crucial de los nueve meses, contratos temporales por horas. Otros enviaban cuestionarios a los licenciados en los últimos años y contaban a todos los que no contestaban como «con empleo».

* * *

Quizá fuera mejor para todos que la administración Obama no consiguiera montar un sistema de ranking modificado. La resistencia de los rectores de las universidades fue feroz. Al fin y al cabo, han pasado décadas optimizando sus universidades para satisfacer al ADM de U. S. News. Una nueva fórmula basada en la tasa de licenciados, la ratio de alumnos, el empleo y la renta de los antiguos alumnos y otros valores nuevos podría hacer estragos en su clasificación y su reputación. Seguro que también expusieron argumentos de peso sobre las vulnerabilidades de un nuevo modelo y los nuevos bucles de retroalimentación que podría generar.
Así que el Gobierno capituló. Y puede que el resultado final haya sido aún mejor. En lugar de crear un nuevo ranking, el Departamento de Educación estadounidense publicó montones de datos en un sitio web. Y ahora los estudiantes pueden hacer sus propias preguntas sobre lo que les interesa a ellos, como la ratio de alumnos, la tasa de licenciados y la deuda media de los estudiantes al terminar sus estudios. No necesitan tener conocimientos de estadística ni saber la ponderación de las distintas variables. El propio software, al igual que hacen los sitios web de las agencias de viajes en línea, crea modelos individuales para cada persona. El resultado es un modelo transparente, controlado por el usuario y personal. Podríamos decir que es justo lo opuesto a un ADM.

Capítulo 4
Máquina propagandística. Publicidad en línea

Un día, cuando trabajaba como científica de datos para la startup de publicidad Intent Media, un prominente inversor de capital riesgo visitó nuestras oficinas. Parecía estar considerando invertir en nuestra empresa, que hada todo lo posible por poner su mejor sonrisa. De modo que nos reunieron a todos para escuchar el discurso que el inversor traía preparado.
El inversor nos resumió el brillante futuro de la publicidad selectiva, Los internautas suministran grandes cantidades de datos y, al hacerlo, están entregando a los anunciantes la capacidad de descubrir hasta el mínimo detalle sobre sus vidas. Esto permitirá a las empresas lanzar acciones específicamente dirigidas a los consumidores precisamente en el momento y en el lugar adecuado y utilizando la información que consideren más valiosa. Una pizzeria, por ejemplo, podrá saber no solo que el cliente se encuentra en ese momento en el barrio, sino también que probablemente le apetezca la misma pizza rellena estilo Chicago con doble de queso y pepperoni que tomó la semana pasada durante el descanso del partido de fútbol americano de los Dallas Cowboys. Su sistema le indicará además que es más probable que las personas cuyos datos siguen patrones similares a los de ese cliente hagan clic en un cupón de descuento durante la ventana de veinte minutos que supone el descanso.
En mi opinión, la parte menos convincente de su argumento era la justificación, Explicó que la avalancha de publicidad personalizada que llegaría en breve sería tan útil y tan oportuna que los clientes estarían encantados con ella. Tanto que pedirían más. Tal y como lo veía él, la mayoría de la gente se opone a la publicidad porque el contenido de los anuncios que ven les resulta indiferente, En el futuro esto no será así. En teoría, las personas que aparecían en su exclusiva demostración estarían encantadas de ver anuncios hechos a medida para ellas, con casas en venta en las Bahamas, botellas de aceite de oliva virgen prensado a mano o jets privados en multipropiedad. E hizo una broma diciendo que ya no tendría que volver a ver otro anuncio de la Universidad de Phoenix —una fábrica educativa privada con ánimo de lucro que atrae mayoritariamente a las clases marginales en dificultades (y a las que resulta más fácil engañar)—.
Es extraño que mencione la Universidad de Phoenix, pensé. Él debía ver anuncios que yo no veía, O quizá yo no me percataba de que aparecían en mi pantalla. En cualquier caso, yo sabía bastante sobre las universidades privadas con ánimo de lucro, que ya por entonces se habían convertido en negocios multimillonarios. Las denominadas fábricas de licenciados a menudo estaban suscritas por préstamos financiados por el Gobierno y los títulos que concedían apenas tenían valor en el mercado laboral. En muchas profesiones no valían más que el título de secundaria.
Mientras que el ADM del ranking de las mejores universidades de U. S. News les hacía la vida imposible a los estudiantes de las clases media y alta (y a sus familias), las universidades con ánimo de lucro se centraban en el otro extremo de la población (y más vulnerable). E Internet les facilitaba la herramienta perfecta para hacerlo. Por lo tanto, no es en absoluto de extrañar que el drástico crecimiento del sector coincidiera con la llegada de Internet como plataforma de comunicación permanente para las masas. La Universidad de Phoenix se gastaba más de 50 millones de dólares solo en anuncios de Google[57] con el objetivo de dirigirse de forma selectiva a las personas pobres para ofrecerles el cebo de la movilidad social. El anuncio incluía la crítica subyacente de que las clases en dificultades no hacen lo suficiente para mejorar sus vidas. Y les funcionó. Entre 2004 y 2014 se triplicaron las matrículas en universidades con ánimo de lucro[58] y el sector acapara en la actualidad el 11 % de los estudiantes universitarios del país.[59]
El marketing de estas universidades está a años luz de la promesa de los principios de Internet en que se decía que sería una gran fuerza de equilibrio y democratización. Aunque en los primeros tiempos de la era punto com sí que era cierto que «nadie sabía que eras un perro» (como en la viñeta del New Yorker de 1993), hoy en día es todo lo contrario. Nos clasifican y categorizan y nos asignan puntuaciones en cientos de modelos en base a los patrones y preferencias que hemos desvelado. Y esto constituye un poderoso fundamento para muchas campañas publicitarias legítimas, aunque también alimenta a la publicidad depredadora: los anuncios que identifican a las personas con grandes necesidades y les venden promesas falsas o productos a precios excesivos. Este tipo de publicidad encuentra la desigualdad y se da un festín a su costa. El resultado es que se perpetúa la estratificación social existente, con todas sus injusticias. La mayor brecha es la que existe entre las personas de éxito, como el inversor de capital riesgo, y las personas a las que sus modelos cazan.
Allá donde encontremos la ignorancia combinada con una gran necesidad es muy probable ver anuncios depredadores. Si son personas preocupadas por su vida sexual, los anunciantes depredadores les prometerán Viagra o Cialis, o incluso extensiones de pene. Si es gente que anda corta de dinero, recibirá un aluvión de ofertas de créditos rápidos con altos tipos de interés. Si el ordenador va lento, puede que sea un virus que le ha metido un anunciante depredador que después se ofrecerá a arreglárselo. Y, como veremos en este libro, el auge de las universidades con ánimo de lucro está alimentado por la publicidad depredadora.
Se podría decir que la publicidad depredadora responde a la perfección a la definición de un ADM. Se concentra en las personas más desesperadas a una escala gigantesca. En el sector de la educación, estos anunciantes hacen la falsa promesa de abrir las puertas hacia la prosperidad, al tiempo que calculan cómo maximizar los dólares que pueden exprimir de cada posible cliente. Sus operaciones provocan inmensos y viles bucles de retroalimentación y dejan a sus clientes enterrados bajo montañas de deudas, Y las víctimas no entienden cómo pudieron estafarles, porque las campañas son opacas. Simplemente aparecen en la pantalla del ordenador y después reciben llamadas de teléfono. Las víctimas casi nunca descubren cómo las eligieron ni cómo consiguieron los reclutadores saber tanto sobre sus vidas.
Pensemos en el caso de Corinthian Colleges, que hasta hace poco era un gigante del sector. Sus distintas divisiones contaban con más de 80.000 estudiantes,[60] la mayoría de los cuales recibían préstamos financiados por el Estado. En 2013 la universidad con ánimo de lucro fue denunciada por el fiscal general de California por mentir sobre las tasas de contratación de los estudiantes después de licenciarse, cobrar de más a los estudiantes y utilizar sellos militares no autorizados en la publicidad depredadora para atraer a personas vulnerables. La denuncia indicaba que una de sus divisiones, el Campus Brandon de la Universidad Everest Online, cobraba 68.800 dólares de matrícula por un título de grado de Asistencia Legal que se estudiaba en línea (y hay que tener en cuenta que este tipo de cursos cuestan menos de 10.000 dólares en muchas universidades tradicionales del país).[61]
Además, según la denuncia, Corinthian Colleges seleccionaba a personas «aisladas» e «impacientes», con «poca autoestima», con «pocos amigos o familiares que se preocupen por ellas», «atrapadas» en situaciones difíciles e «incapaces de considerar y planificar bien su futuro». La denuncia decía que las prácticas de Corinthian Colleges eran «ilegales, injustas y fraudulentas».[62] En 2014, tras más denuncias de abusos, la administración Obama impidió el acceso de la empresa a la financiación federal para préstamos de estudios.[63] Esos préstamos eran su sustento. A mediados de 2015, la empresa vendió la mayoría de sus campus y se declaró en bancarrota en virtud del Capítulo 11 de la ley de quiebras estadounidense.[64]
Sin embargo, el sector sigue en activo. Vatterott College, una institución de formación profesional, es un ejemplo particularmente despreciable. En un informe de un comité del Senado de 2012 sobre las universidades con ánimo de lucro se describe el manual de reclutamiento de Vatterott, y parece realmente diabólico.[65] La universidad envía a sus reclutadores a buscar: «Madres con hijos que reciban asistencia social. Mujeres embarazadas. Personas recién divorciadas. Personas con poca autoestima. Personas con bajos sueldos, Personas que hayan sufrido una muerte reciente, Personas que hayan sufrido abusos físicos o mentales. Personas que hayan estado recientemente en prisión. Personas en rehabilitación por drogodependencia. Personas con trabajos sin salida. Personas sin futuro».
¿Por qué se dirigían específicamente a estas personas? La vulnerabilidad vale su peso en oro. Siempre ha sido así. Imaginemos un matasanos ambulante de una antigua película del Oeste. Entra en un pueblo con su carreta llena de tarros y botellas tintineantes y cuando se sienta a hablar con una posible clienta de edad avanzada, lo que hace es buscar sus debilidades. La viejecita se tapa la boca con la mano cuando sonríe, lo que indica que le preocupan sus dientes cubiertos de caries. Gira nerviosamente su alianza, que, por el aspecto de sus inflamados nudillos, no podrá quitarse hasta el final de sus días: artritis. Así que cuando el matasanos le presenta sus productos, le habla especialmente de lo mal que tiene los dientes y del dolor que siente en las manos. Y le promete que volverá a tener una bonita sonrisa y que hará desaparecer el dolor de sus articulaciones. Con esa información sabe que tiene media venta ganada incluso antes de aclararse la garganta para hablar.
La estrategia de los anunciantes depredadores es similar, pero la ejecutan a una escala masiva, seleccionando millones de personas cada día. La ignorancia de los dientes, evidentemente, es una pieza crucial del puzle. Muchos de los estudiantes a los que se dirigen son inmigrantes que llegan a Estados Unidos creyendo que las universidades privadas tienen más prestigio que las públicas. Este argumento es plausible si lo aplicamos a universidades privadas como Harvard y Princeton. Sin embargo, solo las personas que acaban de llegar al sistema podrán creer que De Vry o la Universidad de Phoenix pudieran ser preferibles a cualquier universidad estatal (por no mencionar las mejores universidades públicas, joyas como Berkeley, Michigan o Virginia).
Una vez establecida la ignorancia, la clave para el reclutador, al igual que para el matasanos, es localizar a las personas más vulnerables y utilizar su información privada en su contra. Esto quiere decir que deben encontrar lo que más les duele, el llamado «punto débil». Puede ser una baja autoestima, el estrés de criar a los hijos en un barrio en el que hay bandas enfrentadas o quizá una drogadicción. Muchas personas revelan sus puntos débiles sin darse cuenta en sus búsquedas en Google o tal vez más tarde, al rellenar un cuestionario de la universidad. Con esa valiosa perla de información, los reclutadores simplemente prometen a los potenciales alumnos que una educación cara en su universidad Les traerá la solución y eliminará su dolor. «Trabajamos con personas que viven al momento y para el momento —reza el material que Vatterott utiliza en la formación de sus reclutadores—. Que estas personas decidan empezar a estudiar, seguir estudiando o abandonar los estudios depende más de sus emociones que de la lógica. El dolor es el mayor motivador en el corto plazo».[66] Durante una formación del equipo de reclutadores del Instituto Técnico ITT se llegó incluso a utilizar la imagen de un dentista inclinado sobre un paciente en agonía junto con las palabras: «Descubre dónde está su dolor».[67]
El primer clic de un estudiante potencial en el sitio web de una universidad con ánimo de lucro solo se produce después de que un largo proceso industrial haya preparado el terreno. Corinthian Colleges, por ejemplo, tenía un equipo de marketing de 30 personas que gastaba 120 millones de dólares al año,[68] y gran parte de este presupuesto se dedicaba a generar y perseguir 2,4 millones de oportunidades de negocio (o leads, como se denomina en la jerga publicitaria), que conducían a 60.000 nuevos estudiantes y 600 millones de dólares de ingresos anuales. Estos inmensos equipos de marketing llegan a los estudiantes potenciales a través de múltiples canales, desde anuncios en televisión y grandes carteles publicitarios en autovías y paradas de autobús hasta correo publicitario, anuncios en búsquedas de Google e incluso equipos de reclutadores que visitan institutos y trabajan puerta a puerta. Un analista del equipo diseña las distintas promociones con el objetivo específico de obtener información de retorno. Para optimizar el reclutamiento —y los ingresos—, necesitan saber quién ha recibido sus mensajes y, si es posible, el impacto que han tenido. Solo con estos datos pueden pasar a optimizar la operación.
La clave de cualquier programa de optimización, naturalmente, es seleccionar un objetivo. En el caso de las fábricas de licenciados como la Universidad de Phoenix, creo que se puede decir sin temor a equivocarse que el objetivo consiste en reclutar el mayor número de estudiantes posible que cumplan los requisitos para recibir un préstamo del Estado con el que cubrir la mayor parte de la matrícula y de las tasas universitarias. Con este objetivo en mente, los científicos de datos tienen que pensar en cómo optimizar la gestión de sus distintos canales de comunicación para generar conjuntamente el mayor ruido posible por cada dólar gastado.
Los científicos de datos empiezan con una aproximación bayesiana, que en estadística es algo muy básico. El objetivo del análisis bayesiano es clasificar las variables según el efecto que tiene cada una de ellas sobre el resultado deseado. La publicidad en las búsquedas en Internet, los anuncios de televisión, las vallas publicitarias y las demás promociones se medirán en función de su efectividad por dólar invertido. Cada una tendrá una probabilidad diferente, expresada como un valor o una ponderación.
Todo esto se complica un poco porque las distintas campañas con diferentes mensajes interactúan unas con otras y no es posible medir gran parte del impacto. Por ejemplo, ¿incrementan los anuncios en los autobuses la probabilidad de que un posible estudiante responda a una llamada de teléfono? Resulta difícil responder a esta pregunta. Es más fácil hacer un seguimiento de los mensajes en línea, y las universidades privadas con ánimo de lucro tienen la capacidad necesaria para recopilar datos vitales de cada posible estudiante —dónde viven y las páginas web que han visitado—.
Esta es la razón por la que gran parte del dinero que estas universidades consagran a publicidad acaba en Google y en Facebook Estas dos plataformas permiten a los anunciantes segmentar sus poblaciones objetivo con minucioso detalle. Los publicistas de una película de Judd Apatow, por ejemplo, pudieron seleccionar específicamente a varones de entre 18 y 24 años en los cincuenta códigos postales más ricos y concentrarse en los que habían hecho clic en enlaces a la película taquillazo de Judd Apatow Y de repente tú, le habían dado a «Me gusta» en esos enlaces, lo habían mencionado a él en Twitter o eran amigos de alguien que hubiera hecho alguna de esas cosas. No obstante, las universidades privadas con ánimo de lucro cazan en otra dirección. Es más probable que se dirijan a las personas que viven en los códigos postales más pobres y que se centren especialmente en aquellos que hayan hecho clic en un anuncio de préstamos rápidos o que parezcan preocupados por el estrés postraumático (se recluta con frecuencia a los veteranos de guerra porque es más fácil para ellos conseguir financiación).
La campaña lanza una serie infinita de anuncios que compiten los unos con los otros por ver cuál consigue atraer al mayor número de estudiantes potenciales. Este método, basado en el denominado test A/B, es un método que se ha utilizado desde hace décadas en el marketing directo. Envían muchísimas invitaciones, miden las respuestas y perfeccionan sus campañas. Cada vez que descubrimos una oferta para disponer de una nueva tarjeta de crédito en el buzón, estamos participando sin saberlo en una de estas pruebas. Al tirar la carta a la basura sin siquiera abrirla, le estamos entregando a la empresa un dato de gran valor: esa campaña no ha funcionado con nosotros. La próxima vez intentarán algo ligeramente diferente. Pueden parecer esfuerzos estériles, porque muchísimas ofertas acaban en la basura, pero para las empresas que trabajan en marketing directo, ya sea a través de Internet o por correo, una tasa de respuesta del 1 % es un sueño hecho realidad. Al fin y al cabo, trabajan con grandes cifras. El 1 % de la población estadounidense es más de tres millones de personas.
Cuando estas campañas se llevan a cabo en línea, el proceso de aprendizaje se acelera. Internet ofrece a los anunciantes el mayor laboratorio de investigación de consumo y generación de oportunidades de negocio del mundo. La respuesta a cada promoción llega en cuestión de segundos —con muchísima más rapidez que por correo—. En cuestión de horas (en lugar de meses), cada campaña puede concentrarse en los mensajes más efectivos y estar más cerca de alcanzar la brillante promesa de toda publicidad: llegar al cliente potencial en el momento preciso y con exactamente el mensaje adecuado para desencadenarla decisión y conseguir así arrastrar a otro cliente que pague. Este proceso de mejora no termina nunca.
Y cada vez más, las máquinas de procesamiento de datos filtran nuestros datos por su cuenta, buscando nuestros hábitos, esperanzas, temores y deseos. Con el aprendizaje automático, un campo de inteligencia artificial de rápido crecimiento, el ordenador se sumerge en los datos y sigue unas sencillas instrucciones básicas. El algoritmo encuentra patrones por sí solo y después, con el paso del tiempo, los conecta con los resultados. En cierto sentido se puede decir que aprende.
En comparación con el cerebro humano, el aprendizaje automático no es especialmente eficiente. Cuando una niña toca una estufa con el dedo, siente dolor y dominará para el resto de su vida la correlación entre el metal caliente y el dolor punzante en la mano. Y además aprende la palabra que lo describe: quema. Un programa de aprendizaje automático, por el contrario, necesitará millones o miles de millones de datos para crear sus modelos estadísticos de causa y efecto. No obstante, por primera vez en la historia, todos esos petabytes de datos están ahora fácilmente disponibles, junto con poderosos ordenadores para procesarlos. Por otra parte, a la hora de realizar muchas tareas, el aprendizaje automático demuestra ser más flexible y tener más matices que los programas tradicionales regidos por normas.
Los científicos del lenguaje, por ejemplo, pasaron décadas, desde la década de 1960 hasta los primeros años de este siglo, intentando enseñar a los ordenadores a leer. Durante la mayor parte de ese periodo programaron definiciones y normas gramaticales en código, pero las lenguas abundan en excepciones, como cualquier estudiante extranjero aprende rápidamente en cuanto inicia su estancia. La lengua tiene argot y sarcasmo. El significado de ciertas palabras cambia a lo largo del tiempo y de la geografía. La complejidad del lenguaje es la pesadilla de cualquier programador, Al final, la codificación es inútil.
Sin embargo, desde que se creó Internet, personas de todo el mundo han producido trillones de palabras sobre nuestras vidas y nuestro trabajo, nuestras compras y nuestras relaciones de amistad. Al hacerlo, hemos construido sin darnos cuenta el mayor corpus de aprendizaje que haya existido nunca para los programas de lenguaje natural. Cuando pasamos del papel al correo electrónico y a las redes sociales, los ordenadores pudieron empezar a estudiar nuestras palabras, a compararlas con otras y a recopilar cierta información sobre su contexto. El progreso ha sido rápido y drástico. En 2011, Apple apenas logró impresionar al mundo de la tecnología con su «asistente personal» con lenguaje natural Siri. Esta tecnología solo podía conversar en ciertas áreas y cometía errores graciosos. A la mayoría de la gente le pareció prácticamente inútil. Sin embargo, ahora se oye a mucha gente hablándole a su móvil en cualquier momento, le piden la previsión del tiempo, el resultado del partido o indicaciones para dirigirse a algún sitio. En algún momento entre 2008 y 2015, más o menos, las capacidades lingüísticas de los algoritmos avanzaron del nivel de preescolar a quinto de primaria, y en algunas aplicaciones incluso a niveles mucho más avanzados.
Estos avances en el lenguaje natural han abierto un filón de posibilidades para la publicidad. Los programas «saben» lo que significa una palabra, al menos la entienden lo suficientemente bien como para asociarla con ciertos comportamientos y resultados, al menos a veces. Impulsados en parte por este creciente dominio lingüístico, los anunciantes pueden investigar para buscar otros patrones. Un programa de publicidad puede empezar con los habituales datos demográficos y geográficos, pero al cabo de varias semanas y meses, empieza a aprender los patrones de las personas que está seleccionando y a hacer predicciones sobre su siguiente movimiento. Con el tiempo, acaba conociéndolas. Y si se trata de un programa depredador, evalúa sus debilidades y vulnerabilidades y opta por la mejor vía para explotarlas.
Además de utilizar programas informáticos de vanguardia, los anunciantes depredadores suden trabajar con intermediarios que emplean métodos mucho más toscos para alcanzar sus objetivos. En 2010, un anuncio muy efectivo mostraba una fotografía del presidente Obama con el siguiente texto: «Obama pide a las madres que vuelvan a estudiar: terminad vuestros estudios. Ayuda financiera disponible paralas solicitantes que cumplan los requisitos».[69] El anuncio daba a entender que el presidente había firmado un nuevo proyecto de ley con el objetivo de que las madres volvieran a estudian Era mentira, pero si empujaba a la gente a hacer clic en él servía su propósito.
Detrás de este engañoso titular todo un sucio sector estaba trabajando muy duro. Según una investigación de ProPublica, cuando una consumidora hacía clic en el anuncio, se le hacían varias preguntas, incluida su edad y su número de teléfono, e inmediatamente una universidad con ánimo de lucro se ponía en contacto con ella. La persona que la llamaba no le daba ninguna información adicional sobre el nuevo proyecto de ley del presidente Obama, simplemente porque nunca había existido. En lugar de eso, se ofrecían a ayudarla a obtener un préstamo para matricularse.
Este tipo de segmentación en línea se denomina «generación de leads» (generación de oportunidades de negocio o de clientes potenciales), El objetivo consiste en recopilar una lista de clientes potenciales que se pueda vender —en este caso a universidades con ánimo de lucro—. Según el informe de ProPublica, entre el 20 % y el 30 % de los presupuestos para publicidad de las universidades con ánimo de lucro está destinado a la generación de leads. Estas universidades pueden llegar a pagar hasta 150 dólares por cada uno de los clientes potenciales más prometedores.[70]
Según David Halperin, que investiga las políticas públicas, Neutron Interactive, una empresa de generación de leads con sede en Salt Lake City publicó anuncios de empleos falsos en sitios web como Monster.com, así como anuncios que prometían ayudar a la gente a conseguir vales de comida y cobertura en Medicaid, el programa estatal de asistencia médica para personas con pocos ingresos.[71] Neutron Interactive utilizaba los mismos métodos de optimización para lanzar un gran número de anuncios diferentes y medir la efectividad de cada uno de ellos en cada grupo demográfico.
El propósito de estos anuncios era conseguir el número de móvil de personas en paro que buscan desesperadamente un empleo engañándolas con un señuelo. En las llamadas posteriores, solo el 5 % de estas personas expresaron interés por estudios universitarios, pero esos nombres eran leads muy valiosos. Las universidades con ánimo de lucro estaban dispuestas a pagar hasta 85 dólares por cada uno de ellos.[72] Y harían todo lo que estuviera a su alcance para conseguir amortizar la inversión. Según el informe de la Oficina de Responsabilidad del Gobierno Estadounidens,[73] cinco minutos después de haber iniciado sesión, los potenciales estudiantes podían empezar a recibir llamadas. Una de estas personas objetivo llegó a recibir más de 180 llamadas en un solo mes.
Las universidades privadas con ánimo de lucro, evidentemente, tienen sus propios métodos para generar leads, Una de sus herramientas más valiosas es la página web del College Board (la entidad que organiza los exámenes de acceso a las universidades), que es el recurso que muchos estudiantes utilizan para inscribirse en los exámenes de acceso SAT y para informarse sobre la nueva etapa de sus vidas. Según Mara Tucker, una orientadora que trabaja en la preparación para la universidad para el Instituto Asambleario Urbano de Matemáticas y Ciencia para Mujeres Jóvenes, un centro público de Brooklyn, el motor de búsqueda de la página web del College Board está diseñado para dirigir a los estudiantes pobres a las universidades privadas con ánimo de lucro.[74] Cuando un estudiante indica en un cuestionario en línea que necesitará ayuda financiera, las universidades con ánimo de lucro aparecen automáticamente en los primeros puestos de la lista de universidades recomendadas para dicho estudiante.
Las universidades con ánimo de lucro también ofrecen servicios gratuitos a cambio de que los estudiantes pasen tiempo presencial con ellos. Cassie Magesis, otra orientadora de preparación universitaria del mismo centro, me contó que las universidades ofrecen talleres gratuitos para ayudar a los estudiantes a redactar sus currículos.[75] Estas sesiones resultan de utilidad para los estudiantes, pero los estudiantes pobres que entregan sus datos de contacto para asistir a estos talleres gratuitos son posteriormente acosados. Las universidades con ánimo de lucro no se molestan en dirigirse a los estudiantes ricos. Esos alumnos y sus padres saben demasiado.
El reclutamiento a través de cualquier método es esencial para las universidades privadas con ánimo de lucro y esta partida del presupuesto recibe muchos más fondos, en la mayoría de los casos, que la educación en sí, Un informe del Senado sobre treinta universidades privadas con ánimo de lucro descubrió que estas universidades contaban con un reclutador por cada 48 estudiantes. Apollo Group, la sociedad matriz de la Universidad de Phoenix, gastó más de 1000 millones de dólares en marketing en 2010, y casi todo el presupuesto fue a parar al reclutamiento.[76] Esto representa 2225 dólares por estudiante gastados en marketing y solo 892 dólares por estudiante destinados a la educación. Si comparamos estos datos con la universidad pública comunitaria Portland Community College en Oregon, esta gasta 5953 dólares por estudiante en educación y aproximadamente el 1,2 % de su presupuesto, es decir, 185 dólares por estudiante, enmarketing.[77]

* * *

Las matemáticas, bajo la forma de modelos complejos, alimentan la publicidad depredadora que atrae a los potenciales estudiantes a estas universidades. Sin embargo, en la fase en la que los reclutadores acosan a los posibles estudiantes a través de sus teléfonos móviles, ya hemos dejado atrás el mundo de los números. Los argumentos de venta, con sus promesas de una educación asequible, brillantes perspectivas profesionales y movilidad social ascendente, no son muy distintos a la publicidad que se emplea para vender elixires mágicos, curas para la calvicie y bandas vibradoras para quemar la grasa de la cintura. No son nada nuevo.
No obstante, un componente crucial de un ADM es que produce un daño en la vida de muchas personas. Y con este tipo de anuncios depredadores el daño no se produce hasta que los estudiantes empiezan a solicitar grandes préstamos para pagar la matrícula y las tasas universitarias.
La medida clave aquí está en la llamada regla 90-10,[78] incluida en la ley estadounidense sobre la educación superior de 1965. Esta ley estipula que las universidades no pueden recibir más del 90 % de su financiación de ayudas federales. La lógica que justificó esta norma era que si los estudiantes invertían parte de su propio dinero, se tomarían su educación más en serio. Pero las universidades con ánimo de lucro calcularon rápidamente las implicaciones de esta ratio en su plan de negocio. Si los estudiantes lograban reunir unos cuantos miles de dólares, ya fuera de sus ahorros o mediante un préstamo bancario, las universidades podían conseguir multiplicar esa suma en préstamos estatales, lo que convertiría a cada estudiante en un diente increíblemente rentable.
Muchos estudiantes tenían la sensación de que los préstamos estatales eran dinero gratis, y las universidades no se molestaban en corregir esa confusión. Sin embargo, los préstamos no eran dinero regalado, sino deuda, y muchos estudiantes se vieron rápidamente inmersos hasta los ojos en ella. La deuda pendiente de los estudiantes cuando Corinthian Colleges se declaró en quiebra ascendía a 3500 millones de dólares.[79] La mayor parte de esa deuda estaba respaldada por los contribuyentes y nunca será devuelta.
Seguro que algunas de las personas que estudian en estas universidades privadas con ánimo de lucro cuentan, al acabar sus estudios, con conocimientos y competencias que les resultan muy útiles. ¿Pero les va mejor a ellos que a los diplomados de las universidades públicas comunitarias (community colleges en inglés) en las que se cursan estudios de dos años y que tienen un coste muy inferior? En 2014, los investigadores del centro de investigación CALDER/American Institutes for Research[80] crearon casi 9000 currículos ficticios. Algunos de estos inexistentes demandantes de empleo tenían títulos básicos de universidades privadas con ánimo de lucro, otros tenían títulos similares de universidades públicas comunitarias, mientras que un tercer grupo no tenía educación universitaria alguna. Los investigadores enviaron sus currículos a ofertas de empleo en siete grandes ciudades y midieron la tasa de respuesta. Descubrieron que los títulos de las universidades privadas con ánimo de lucro valían menos en el mercado de trabajo que los de las universidades públicas comunitarias y casi lo mismo que los títulos de secundaria. Y, sin embargo, estas universidades privadas cuestan de media un 20 % más que las principales universidades públicas.
El bucle de retroalimentación de esta ADM es mucho menos complicado que perverso. El 40 % más pobre de la población estadounidense se encuentra en una situación económica desesperada. Muchos empleos industriales han desaparecido, ya sea porque los trabajadores han sido sustituidos por la tecnología o porque se ha trasladado la fabricación al extranjero. Los sindicatos han perdido su fuerza. El 20 % más rico de la población controla el 89 % de la riqueza del país y el 40 % más pobre no controla ninguna riqueza en absoluto.[81] Sus activos son negativos: el hogar medio de esta enorme dase marginal en apuros tiene una deuda neta de 14.800 dólares, gran parte de ella en abusivas cuentas de tarjetas de crédito. Y la llave para poder ganar más dinero, según les repiten una y otra vez, es la educación.
Y ahí llegan las universidades privadas con ánimo de lucro, con sus muy pulidas ADM, para seleccionar y desplumar a las personas más necesitadas. Les venden la promesa de una educación y un seductor destello de movilidad social ascendente (al tiempo que los cubren con más deuda). Se aprovechan de la urgente necesidad de los hogares pobres, así como de su ignorancia y sus aspiraciones, y los explotan. Y lo hacen a gran escala. Esto conduce al abatimiento y la desesperanza, así como al escepticismo sobre el valor de la educación en general, y agrava la ya profunda brecha de riqueza que existe en Estados Unidos.
Es importante señalar que estas fábricas de licenciados aumentan la desigualdad en los dos sentidos. Los rectores de las principales universidades privadas con ánimo de lucro ganan millones de dólares al año. Por ejemplo, Gregory W. Cappelli, el CEO del grupo empresarial Apollo Education Group, la sociedad matriz de la Universidad de Phoenix, ganó 25,1 millones de dólares de remuneración total en 2011.[82] En las universidades públicas, que tienen sus propias distorsiones también, solo los entrenadores de fútbol americano y de baloncesto pueden aspirar a ganar tanto.

* * *

Desafortunadamente, las universidades privadas con ánimo de lucro no son las únicas que despliegan anuncios depredadores. Tienen mucha compañía en ese sector. Basta con pensar en cualquier lugar en el que haya personas sufriendo o desesperadas y allí veremos anunciantes blandiendo sus modelos depredadores. Una de las mayores oportunidades, evidentemente, es la de los préstamos. Todo el mundo necesita dinero, pero algunos lo necesitan con mayor urgencia que otros. Y no es difícil encontrar a estas personas. Es mucho más probable que aquellos que más desesperadamente necesitan dinero vivan en los códigos postales que corresponden a las zonas más pobres. Y desde el punto de vista de un anunciante depredador, las búsquedas que hacen esas personas en Internet y sus clics en vales de comida equivalen a pedir a gritos que les presten una atención especial.
Al igual que las universidades privadas con ánimo de lucro, el sector de los préstamos rápidos utiliza ADM. Algunos representan operaciones legales, pero el sector es fundamentalmente depredador y cobra exorbitantes tipos de interés de un 574 % de media en los préstamos a corto plazo,[83] Esto multiplica de media el importe inicial por ocho, lo que los convierte prácticamente en préstamos a largo plazo. Cuentan con el apoyo esencial de legiones de agencias de datos y generadores de leads, muchos de ellos timadores profesionales. Sus anuncios aparecen en ordenadores y teléfonos y ofrecen acceso rápido a dinero en efectivo. Una vez que los potenciales clientes han completado la solicitud, en la que a menudo deben incluir sus datos bancarios, quedan expuestos al robo y el abuso.
En 2015, la Comisión Federal de Comercio de Estados Unidos acusó a dos agencias de datos de la venta de las solicitudes de crédito de más de medio millón de consumidores,[84] Según la demanda, las empresas, Sequoia One de Tampa (Florida) y Gen X Marketing Group de la cercana Clearwater, robaron números de teléfono de clientes, información de los empleadores, números de la seguridad social e información de cuentas bancadas, y los vendieron por cincuenta céntimos cada uno. Las empresas que compraron la información, según los organismos reguladores, asaltaron las cuentas bancadas de los consumidores y robaron «al menos» 7,1 millones de dólares estadounidenses. A muchas de las víctimas les cobraron posteriormente comisiones bancarias por vaciar sus cuentas o por los cheques devueltos por falta de fondos.
Al pensar en las cifras de las que hablamos, resultan casi patéticamente bajas: 7,1 millones de dólares repartidos entre medio millón de cuentas tocan a 14 dólares por cuenta. Incluso si los ladrones no consiguieron acceder a muchas de ellas, gran parte del dinero que robaron correspondía a pequeñas sumas, los últimos 50 o 100 dólares que algunas personas pobres tenían en el banco.
Los organismos reguladores están presionando a favor de la aprobación de nuevas leyes que regulen el mercado de datos personales, la información de entrada esencial de todas las ADM, Hasta el momento, existen un par de leyes federales, como la Ley de Información Crediticia Imparcial (FCRA, por sus siglas en inglés) y la Ley de Transferibilidad y Responsabilidad de los Seguros Médicos (HIPPA, por sus siglas en inglés), que establecen ciertos límites sobre los datos crediticios y sanitarios respectivamente. Quizá, si se tiene en consideración a los generadores de leads, se añadirán otras leyes en el futuro.
No obstante, como veremos en los siguientes capítulos, algunas de las ADM más efectivas y perversas consiguen ingeniárselas para evitar esos obstáculos. Lo estudian todo, desde nuestros vecinos hasta nuestros amigos de Facebook, con el propósito de predecir nuestro comportamiento, e incluso consiguen meternos entre rejas.

Capítulo 5
Víctimas civiles. La justicia en la era del big data

La pequeña ciudad de Reading (Pensilvania) se ha enfrentado a grandes dificultades en la era postindustrial.[85] Enclavada en verdes colinas a unos ochenta kilómetros al oeste de Filadelfia, Reading creció y generó su riqueza gracias al ferrocarril, el acero, el carbón y la industria textil. Sin embargo, en las últimas décadas, con todas esas industrias en declive, la ciudad se ha ido marchitando. En 2011, Reading tenía el mayor índice de pobreza de todo el país: el 41,3 % (aunque al año siguiente Detroit la superó por muy poco).[86] A medida que la recesión golpeaba la economía de Reading como consecuencia del derrumbe de la bolsa de 2008, la recaudación fiscal se reducía, con el consiguiente despido de cuarenta y cinco agentes del departamento de policía, pese a que los niveles de delincuencia se mantenían igual.
William Heim, el jefe de policía de Reading, tuvo que apañárselas para garantizar la misma o incluso una mejor vigilancia policial con un cuerpo más reducido. Así, en 2013 decidió invertir en un software de predicción de delitos diseñado por PredPol, una start-up debig data con sede en Santa Cruz (California).[87] El programa procesó los datos históricos de delincuencia y realizó un cálculo, por horas, para determinar dónde era más probable que se cometiera algún delito. Los agentes de policía de Reading podían visualizar los resultados del programa en forma de cuadrantes, cada uno con las dimensiones de tan solo dos campos de fútbol Si pasaban más tiempo patrullando estos cuadrantes, tenían muchas posibilidades de disuadir a los delincuentes de actuar. Y así fue; un año después, William Heim anunció que los robos en las viviendas habían disminuido en un 23 %.
Los programas predictivos como PredPol son la última moda en los departamentos de policía con presupuestos bajo mínimos de todo el país. Desde Atlanta a Los Ángeles, estos departamentos despliegan sus patrullas en los cuadrantes identificados como peligrosos en cada momento y publican índices de delincuencia a la baja. Las autoridades de Nueva York también utilizan un programa similar, denominado CompStat Y la policía de Filadelfia ha recurrido a un producto local, HunchLab, que incluye análisis de riesgos sobre el terreno y que además incorpora determinados elementos, como los cajeros o los supermercados de barrio, que pueden ser focos de delincuencia.[88] Al igual que el resto del sector del big data, los desarrolladores de software de predicción de delitos trabajan a marchas forzadas para incluir cualquier dato que permita aumentar la precisión de sus modelos.
Si reflexionamos sobre ello, la predicción de puntos críticos funciona de forma similar a los modelos defensivos que se utilizan en béisbol, de los que hablamos con anterioridad Estos sistemas analizan el historial de hits de cada jugador para situar a los jardineros en la posición hacia la que es más probable que se dirija la bola. La predicción de delitos aplica un análisis similar, y sitúa a los agentes en los lugares donde es más probable que ocurran delitos. Ambos modelos optimizan recursos. No obstante, existen ciertos modelos de predicción de delitos más sofisticados, capaces de predecir tendencias que podrían conducir a oleadas de delincuencia. PredPol, por ejemplo, está basado en un software que aplica la lógica de los seísmos: estudia un delito en una zona, lo integra en un patrón histórico, y predice cuándo y dónde podría ocurrir la próxima vez (una de las correlaciones básicas que se han detectado recomienda que si roban la casa del vecino de al lado, cierres la tuya con doble llave).[89]
Los programas de predicción de delitos como PredPol tienen grandes virtudes. A diferencia de los agentes anticrimen de la distópica película de Steven Spielberg Minority Report (y de algunas iniciativas reales que no auguran nada bueno y que abordaremos en breve), los polis no rastrean a las personas antes de que cometan los delitos. Jeffrey Brantingham, profesor de Antropología en la Universidad de California en Los Ángeles (UCLA) y responsable de la creación de PredPol, insistió en que el modelo es completamente ciego a la raza y la etnia.[90] Y a diferencia de otros programas, incluidos los modelos de riesgo de reincidencia analizados en capítulos anteriores, que dan directrices para la determinación de las condenas, PredPol no se centra en personas individuales, sino que analiza la geografía. Los datos de entrada principales son la tipología y la localización de cada delito, así como el momento en el que tiene lugar. En principio todo parece muy razonable. Y si los agentes patrullan más las zonas de alto riesgo, frustrando los planes de ladrones de casas y coches, hay buenas razones para pensar que la comunidad saldrá beneficiada.
Sin embargo, la mayoría de los delitos no son tan graves como los robos en casas y los robos de vehículos, y ahí es donde surgen los problemas. Cuando la policía configura su sistema PredPol, puede elegir diferentes opciones. Pueden centrarse exclusivamente en los delitos de la Parte I según la clasificación utilizada en los informes de delincuencia del FBI. Se trata de los delitos con violencia y entre ellos se incluyen los homicidios, los incendios provocados y los asaltos, delitos que generalmente son objeto de denuncias ante la policía. No obstante, la policía puede decidir ampliar el foco e incluir los delitos de la Parte II, donde se encontrarían el vagabundeo, la pertenencia a pandillas y la venta y el consumo de pequeñas cantidades de droga. Muchos de estos delitos de «alteración del orden público» pasarían sin que nadie los registrara si no hubiera un agente en el lugar donde ocurren para verlos.
Estos delitos de alteración del orden público son endémicos en muchos barrios empobrecidos. En algunas ciudades la policía los denomina comportamientos antisociales. Lamentablemente, incluirlos en el modelo conlleva el riesgo de distorsionar el análisis. Cuando se introducen los datos de alteración del orden público en un modelo predictivo, aumenta el número de efectivos que acuden a esos barrios, donde es más probable que realicen más arrestos. Al fin y al cabo, aunque su objetivo sea acabar con los robos, los asesinatos y las violaciones, también pasan necesariamente por periodos más tranquilos. Patrullar es así. Y si un agente de policía ve a un par de chavales que no parecen tener más de dieciséis años dando tragos a una botella envuelta en una bolsa marrón, los parará. Este tipo de faltas leves pueblan entonces los modelos con infinidad de puntos y, en consecuencia, los modelos enviarán cada vez a más policías al mismo barrio.
Se crea así un bucle de retroalimentación pernicioso. La vigilancia policial en sí genera nuevos datos, que a su vez justifican que haya más vigilancia. Y nuestras prisiones acaban repletas de cientos de miles de personas declaradas culpables de delitos sin víctimas. La mayoría de ellos provienen de barrios pobres, y la mayoría son negros o hispanos. Por lo tanto, aunque el modelo sea ciego al color, el resultado es justamente lo contrario. En nuestras ciudades, en su mayor parte segregadas, la geografía es un valor sustitutivo altamente eficaz para la raza.
Si el propósito del modelo es evitar los delitos graves, cabría preguntarse por qué los delitos de alteración del orden público se investigan siquiera. La respuesta es que el vínculo entre el comportamiento antisocial y la delincuencia es un dogma de fe desde 1982, cuando el criminólogo George Kelling se alió con el experto en políticas públicas James Q. Wilson para redactar un artículo trascendental que se publicó en el Atlantic Monthly sobre la llamada vigilancia policial basada en la «teoría de las ventanas rotas».[91] Según esta idea, cuando en un barrio se cometen delitos menores y faltas, se genera un ambiente de desorden público, lo que asusta a los ciudadanos que sí respetan la ley. Las calles oscuras y vacías que dejan tras de sí al huir del barrio se convierten en el caldo de cultivo perfecto para los delitos graves. El antídoto consistía en que la sociedad evitara la propagación del desorden. Y esto implicaba reparar las ventanas rotas, limpiar los grafitis de los vagones de metro y tomar medidas para mitigar los delitos de alteración del orden público.
Siguiendo esta filosofía, en la década de 1990 asistimos a la multiplicación de las campañas de tolerancia cero, como la célebre campaña de Nueva York.[92] Los polis arrestaban a los chicos que se colaban en el metro sin pagar. Arrestaban a cualquiera por compartir un porro, y luego lo paseaban por la ciudad en un furgón durante horas antes de ficharlo. Algunos atribuyeron la drástica caída de los delitos violentos en las ciudades a estas enérgicas campañas.
Otros, sin embargo, no pensaban así. Los autores del superventas Freakonomics[93] llegaron hasta el punto de relacionar la caída de los delitos con la legalización del aborto en la década de 1970. Y florecieron todo tipo de teorías, que contemplaban desde el descenso de los índices de adicción de la cocaína hasta el auge de la economía en la década de 1990. En cualquier caso, el movimiento de tolerancia cero obtuvo un amplio apoyo y el sistema de justicia penal envió a la cárcel a millones de hombres, principalmente jóvenes de minorías, muchos de ellos por delitos menores.
Sin embargo, La tolerancia cero en realidad tenía muy poco que ver con la «teoría de las ventanas rotas» de Kelling y Wilson. El caso que ellos estudiaron fue lo que parecía ser una exitosa iniciativa de vigilancia policial en la ciudad de Newark (Nueva Jersey), Según el programa, la policía que hacía la ronda en esa ciudad debía ser muy tolerante. Su trabajo consistía en ajustarse a las normas de orden público específicas de cada vecindario y ayudar a mantenerlas. Estas normas variaban de una parte de la ciudad a otra. En un determinado barrio, esto podía significar que los borrachos tenían que guardar las botellas en bolsas de papel y evitar las calles principales, aunque podían tranquilamente estar en las secundarias. Los drogadictos podían sentarse en los escalones de entrada a los edificios, pero no tumbarse en ellos. La idea era únicamente asegurarse de que se respetaban dichas normas. Según este plan, lo que hacía la policía era ayudar al vecindario a mantener su propio orden público, no imponerles el suyo.
Puede parecer que nos alejamos un poco de PredPol, de las matemáticas y de las ADM. Sin embargo, cada uno de estos planes de vigilancia policial, tanto la teoría de las ventanas rotas como las campañas de tolerancia cero, representa un modelo. Al igual que nuestra planificación semanal de comidas o el ranking de universidades de U. S. News, cada modelo de lucha contra la delincuencia se basa en la introducción de determinados datos a los que se asocia una serie de respuestas, y cada uno de ellos está diseñado para perseguir un objetivo. Es importante analizar la vigilancia policial teniendo esto en mente, puesto que son estos modelos matemáticos los que rigen los cuerpos de seguridad en la actualidad. Y algunos de ellos son verdaderas ADM.
Ahora bien, existen razones que explican por qué los departamentos de policía optan por incluir los datos de delitos de alteración del orden público. Educados en la ortodoxia de la tolerancia cero, muchos de ellos están más seguros del vínculo que existe entre los delitos leves y los graves que de la correlación entre el humo y el fuego. Cuando la policía de la ciudad británica de Kent probó PredPol en 2013, incorporaron los datos de los delitos de alteración del orden público en su modelo.[94] Y pareció funcionar. Comprobaron que los cuadrantes de PredPol eran diez veces más eficientes que el patrullaje aleatorio y dos veces más precisos que los análisis de los equipos de inteligencia policial.[95] ¿Qué tipo de delitos eran los que mejor predecía el modelo? Los delitos de alteración del orden público. Tiene todo el sentido del mundo. El borracho se meará en la misma pared día tras día y el yonqui se tumbará en el mismo banco del parque, mientras que el ladrón cambiará a menudo de zona y dedicará muchos esfuerzos a anticipar los movimientos de la policía.
Aunque los jefes de policía pongan el acento en la lucha contra los delitos violentos, requeriría un extraordinario autocontrol decidir no incluir en los modelos predictivos las grandes cantidades de datos sobre delitos de alteración del orden público. Es fácil creer que más datos equivale a mejores datos. Mientras que un modelo centrado únicamente en los delitos violentos genera una constelación dispersa en la pantalla, la inclusión de los datos de delitos de alteración del orden público ofrece un retrato más completo y vivido de la ilegalidad en la ciudad.
Y, por desgracia, en la mayoría de las jurisdicciones, un mapa de la delincuencia generado de este modo lo que traza en realidad es el rastro de la pobreza. El elevado número de arrestos en estos barrios simplemente confirmaría la tesis generalmente aceptada por las clases medias y altas de la sociedad: que las personas pobres son las únicas responsables de sus propios problemas y que cometen la mayoría de los delitos de la ciudad.
¿Y qué pasaría si la policía buscase otro tipo de delitos? Esto puede parecer contradictorio, ya que la mayoría de nosotros, incluida la policía, tenemos la imagen de una pirámide cuando pensamos en la delincuencia. En la cúspide, se encuentra el homicidio. Le siguen la violación y la agresión —más comunes—, y luego el hurto, los pequeños fraudes y las infracciones de aparcamiento —que ocurren a diario—. Dar prioridad a los delitos que se encuentran en la cúspide de la pirámide sin duda tiene sentido. Y la mayoría estaríamos de acuerdo en afirmar que reducir al mínimo los delitos con violencia es y debería ser una de las principales misiones de los cuerpos de seguridad.
Pero ¿qué ocurre con los delitos que no aparecen en los cuadrantes de los mapas de PredPol, los que cometen los ricos? En la primera década del siglo XXI, los ases de las finanzas se pegaron la juerga de sus vidas. Mintieron, apostaron miles de millones contra sus propios clientes, cometieron fraudes y untaron a las agencias de calificación. Se cometieron delitos aberrantes y el resultado fue una economía global devastada durante casi cinco años. Millones de personas perdieron sus hogares, sus trabajos y el acceso a la atención sanitaria.
Existen razones de sobra para creer que en la actualidad se siguen cometiendo delitos de esta índole en el ámbito financiero. Si algo hemos aprendido es que el propósito que mueve el mundo de las finanzas es conseguir enormes beneficios, cuantos más, mejor, y que cualquier iniciativa de autorregulación resulta inútil. Gracias a sus ricos y poderosos grupos de presión, el sector financiero está infravigilado.
Imaginemos por un momento que la policía aplicara su estrategia de tolerancia cero al ámbito financiero. Arrestarían a la gente por la mínima infracción, ya fuera por estafar a los inversores de los planes de pensiones con desgravación fiscal 401k, por prestar asesoría engañosa o por cometer pequeños fraudes. A lo mejor veríamos a los cuerpos especiales de los SWAT irrumpir en Greenwich (Connecticut) o quizá la policía secreta vigilaría los bares de los alrededores de la Bolsa de Chicago.
Nada probable, desde luego. Los polis no tienen los conocimientos especializados necesarios para ese tipo de trabajo. Todo lo relacionado con su trabajo, desde su formación hasta los chalecos antibalas, está adaptado a las peligrosas calles. Para poner cerco a los delitos de guante blanco hacen falta personas con herramientas y habilidades diferentes. Los responsables de esta tarea, desde el FBI hasta los investigadores de la Comisión de Bolsa y Valores de Estados Unidos, cuentan con pocos efectivos y escasos medios económicos, y llevan décadas comprobando que los banqueros son prácticamente intocables. Los banqueros invierten mucho dinero en nuestros políticos, algo que siempre ayuda, y además se les considera imprescindibles para nuestra economía. Y eso los protege. Si los bancos se van a pique, nuestra economía podría hundirse con ellos (aunque no afectaría demasiado a las personas pobres). Por lo que, exceptuando algunos casos, como el del maestro del esquema Ponzi Bernard Madoff, los financieros nunca son arrestados. Como colectivo, salieron prácticamente ilesos del derrumbe del mercado de 2008. Después de eso, ¿qué podría ocurrir que realmente llegase a afectarles?
Lo que quiero decir es que la policía decide hacia dónde dirigir su atención. Hoy en día se centra casi exclusivamente en los pobres. Esta es su herencia y su misión, tal y como la concibe, Y ahora los científicos de datos están fijando este statu quo del orden social a través de modelos, como PredPol, cuya influencia en nuestras vidas es cada vez mayor.
El resultado es que PredPol representa a la vez una herramienta desoftware útil e incluso con buenos principios y una auténtica ADM casera. En este sentido, incluso cuando se utiliza con las mejores intenciones, PredPol confiere a los departamentos de policía la capacidad de poner a los pobres en el punto de mira, parar a muchos de ellos, arrestar a gran parte de los que paran y enviar a muchos de estos últimos a la cárcel. Y los jefes de policía, en la mayoría de los casos, están convencidos de que aplican la única vía sensata para acabar con la delincuencia. «Aquí está», dicen apuntando al gueto de turno señalado en el mapa. Y ahora cuentan con tecnologías de vanguardia (que funcionan gracias al big data) para confirmar su postura, al tiempo que aumentan la precisión y el «carácter científico» del proceso.
El resultado es que criminalizamos la pobreza, convencidos en todo momento de que nuestras herramientas no solo son científicas, sino también justas.

* * *

Un fin de semana de la primavera de 2011, asistí a un hackatón de datos en Nueva York. El objetivo de este tipo de eventos es reunir a hackers, empollones, matemáticos y frikis informáticos, y movilizar toda esa capacidad intelectual para arrojar luz sobre los sistemas digitales que tanto poder tienen sobre nuestras vidas. Me tocó trabajar con la Unión por las Libertades Civiles de Nueva York (NYCLU, por sus siglas en inglés), y nuestra labor consistía en analizar los datos de una de las principales políticas contra la delincuencia de la policía de Nueva York: los controles policiales con interrogatorio y cacheo. Esta práctica, más conocida por la mayoría de la gente como controles policiales con cacheo ( stop and frisk en inglés), había aumentado de manera drástica en la era de los datos de CompStat.[96]
La policía consideraba esta medida como una herramienta de cribado para identificar a los delincuentes. La idea es muy sencilla. Los agentes de policía paran a las personas que les parecen sospechosas, ya sea por su manera de andar o de vestir, o por sus tatuajes. Hablan con ellas y las examinan, a menudo mientras están con brazos y piernas extendidos contra la pared o sobre el capó de un coche. Les piden su documentación y las cachean. Si paran a un número suficiente de personas, argumentan, se evitará una gran cantidad de delitos menores y puede que también algunos más graves. Esta política, implantada por la administración del alcalde Michael Bloomberg, contó con un gran apoyo popular. Durante la primera década del siglo XXI, el número de controles aumentó un 600 %, llegando a casi 700.000 incidentes.[97] La gran mayoría de las personas controladas por la policía eran inocentes. Para estas personas, estos encuentros eran muy desagradables, e incluso exasperantes. No obstante, gran parte del público asoció este programa con el pronunciado declive de la delincuencia en la ciudad. Tenían la sensación de que Nueva York era más segura. Y las estadísticas apuntaban en la misma dirección. Los homicidios, que ascendían a 2245 en 1990, bajaron a 515 (e incluso cayeron por debajo de 400 en 2014).[98]
Todo el mundo sabía que un número desproporcionado de las personas a las que paraba la policía eran hombres jóvenes de piel oscura. Pero ¿a cuántos paraban? ¿Y con qué frecuencia acababan dichos encuentros en arrestos o conseguían impedir actos delictivos? Aunque esta información era técnicamente pública, en su mayor parte estaba almacenada en una base de datos a la que era difícil acceder. El software no funcionaba en nuestros ordenadores ni podía volcarse en hojas de Excel. Por lo tanto, nuestra labor en el hackatón consistía en forzar el programa y liberar los datos para que todos pudiéramos analizar la naturaleza y la efectividad del programa de controles policiales.
Lo que descubrimos, aunque no nos sorprendió en absoluto, fue que una mayoría aplastante de los controles —cerca del 85 % de ellos— se hacían a hombres jóvenes afroamericanos o latinos.[99] En ciertos barrios, los mismos jóvenes eran controlados una y otra vez. Aunque solo el 0,1 %, o una de cada mil personas controladas, tenía alguna relación con un delito violento, [100] este filtro capturaba a muchas personas por delitos menores, desde posesión de drogas hasta consumo de alcohol por menores de edad que hubieran pasado desapercibidos si no se estuviera aplicando esta medida. Algunas de estas personas, como cabe esperar, se enojaban, y buena parte de ellas acababan con cargos por resistencia a la autoridad.
La NYCLU demandó a la administración Bloomberg por considerar que la política de controles policiales era racista. [101] Se trataba de un ejemplo de vigilancia policial desigual, que empujaba con mayor frecuencia a los miembros de las minorías a entrar en el sistema de justicia penal y en la cárcel. Los hombres negros, argumentaban, tenían seis veces más probabilidades de ser encarcelados que los blancos y veintiuna veces más de ser asesinados por la policía, al menos conforme a los datos disponibles (que, como es bien sabido, suelen estar por debajo de la realidad).
Los controles policiales no son exactamente un ADM, puesto que dependen de un juicio humano y no están formalizados en un algoritmo. Sin embargo, la aplicación de esta medida responde a un cálculo sencillo y destructivo. Si la policía para a mil personas en determinados barrios, descubrirá, de media, a un sospechoso significativo y a otros muchos sospechosos de delitos menores. Esto no difiere tanto de los cálculos de posibilidades remotas que utilizan los anunciantes depredadores o los spammers. Incluso cuando la ratio de acierto es minúscula, al aumentar las posibilidades se acaba alcanzando el objetivo. Esto ayuda a comprender por qué el programa creció tanto bajo el mandato de Bloomberg. Si haciendo controles a seis veces más personas se multiplicaba por seis el número de arrestos, las molestias y el acoso que sufrían miles y miles de personas inocentes estaban más que justificados. ¿Acaso ellos no querían acabar con la delincuencia?
A pesar de todo, algunos aspectos de estos controles policiales sí que recordaban a las ADM. Por ejemplo, esta medida conducía a un bucle de retroalimentación perverso. La medida atrapaba a miles de hombres afroamericanos y latinos, muchos de ellos por cometer los mismos delitos y faltas menores que se repiten, de forma impune, en las hermandades estudiantiles cada sábado noche. Y, sin embargo, mientras que la gran mayoría de los estudiantes universitarios podían dormir a pierna suelta tras sus excesos, las víctimas de los controles policiales eran multadas, y algunas de ellas eran enviadas al infierno de la cárcel de la Isla Rikers. Y, lo que es peor, cada arresto generaba nuevos datos, lo que justificaba aún más esta política.
A medida que fueron aumentando los controles policiales, el tan respetado concepto jurídico de la causa probable quedó prácticamente despojado de sentido, ya que la policía perseguía no solo a personas que ya hubieran cometido un delito, sino también a aquellos que pudieran cometerlo en el futuro. En ocasiones, no cabe duda, lograban su objetivo. Al arrestar a un joven con un bulto sospechoso que resultaba ser un arma no registrada, quizá evitaran que se produjera un asesinato o un robo a mano armada, o incluso una serie de robos en el vecindario. O puede que no. En cualquier caso, esa era la lógica de los controles policiales, y muchos la consideraban convincente.
Pero ¿era esta política constitucional o no? En agosto de 2013, la jueza federal Shira A. Scheindlin dictaminó que no lo era. [102] Afirmó que, de forma rutinaria, los agentes «paraban a afroamericanos y latinos, algo que no les ocurriría si fueran blancos». La política de controles policiales, escribió, violaba la Cuarta Enmienda, que protege a los ciudadanos de registros e incautaciones no razonables por parte del Gobierno, y no cumplía con la protección igualitaria garantizada por la Decimocuarta Enmienda. Pidió que se aplicaran grandes reformas a dicha práctica, entre ellas un mayor uso de las cámaras que llevan los agentes de policía en el uniforme. Esto ayudaría a establecer la causa probable —o la falta de ella— y a restar opacidad al modelo de los controles policiales. Aunque no resolvería en ningún caso la cuestión de la vigilancia policial desigual.
Al analizar las ADM, a menudo nos enfrentamos a la elección entre justicia y eficacia. Nuestras tradiciones legales se inclinan fundamentalmente hacia la justicia. La Constitución, por ejemplo, presupone la inocencia y ha sido diseñada para valorarla. Desde el punto de vista del que construye el modelo, la presunción de inocencia constituye una limitación, y el resultado es que algunas personas culpables quedarán libres, particularmente aquellas que puedan pagarse buenos abogados. Incluso los acusados declarados culpables tienen derecho a apelar la sentencia, lo cual consume tiempo y recursos. Así, el sistema sacrifica muchísima eficiencia en nombre de la justicia. En la lógica implícita de la Constitución, dejar en libertad a alguien que pudiera haber cometido un delito, por falta de pruebas, es menos peligroso para nuestra sociedad que encarcelar o ejecutar a una persona inocente.
Las ADM, por el contrario, tienden a priorizar la eficiencia. Por su propia naturaleza, se alimentan de datos medibles y cuantificables. Mientras que la justicia es difícil de medir y cuantificar. Es una idea. Y los ordenadores, a pesar de los avances en lenguaje y lógica, todavía se las ven y se las desean con las ideas. Son capaces de «entender» la belleza únicamente como una palabra asociada al Gran Cañón, las puestas de sol en el mar y los consejos estéticos de la revista Vogue. Intentan en vano medir la «amistad» contando el número de clics en «Me gusta» y de contactos en Facebook. Pese a todo, la idea de justicia se les escapa, completamente. Los programadores no saben cómo codificarlo y en general sus jefes tampoco les piden que lo hagan.
Por consiguiente, la justicia no entra en los cálculos de las ADM. Y el resultado es una producción masiva, prácticamente industrial, de injusticia. Si imaginamos que un ADM es una fábrica, la injusticia sería esa cosa negra que sale a borbotones por las chimeneas. Es una emisión, una emisión muy tóxica.
La cuestión reside en si nosotros como sociedad estamos dispuestos a sacrificar un poco de eficiencia en aras de la justicia. ¿Deberíamos limitar los modelos excluyendo determinados datos? Hay que reconocer, por ejemplo, que incluir gigabytes de datos sobre comportamientos antisociales puede ayudar a PredPol a determinar las coordenadas cartográficas de delitos graves. Sin embargo, esto tiene un coste muy elevado: un bucle de retroalimentación perverso. Por lo tanto, considero que deberíamos descartar dichos datos.
Es un argumento complicado de defender, similar en muchos aspectos a las batallas sobre los pinchazos telefónicos por parte de la Agencia de Seguridad Nacional (NSA, por sus siglas en inglés). Los defensores de las escuchas argumentan que son importantes para nuestra seguridad. Y los que dirigen nuestra enorme maquinaria de seguridad nacional seguirán exigiendo más información para cumplir su misión. Continuarán invadiendo la privacidad de la gente hasta que entiendan que deben encontrar otra forma de hacer su trabajo dentro de los límites de la Constitución. Puede que sea más difícil, pero es necesario.
La otra cuestión que se plantea es la igualdad. ¿Estaría la sociedad tan dispuesta a sacrificar el principio de la causa probable si todos tuviéramos que soportar el acoso y la humillación de los controles policiales? La policía de Chicago tiene su propio programa de controles policiales. ¿Qué ocurriría si, en nombre de la justicia, enviasen a un montón de patrullas al exclusivo barrio de Gold Coast? Quizá arrestarían a los runners por cruzar en rojo desde el parque o reprenderían con mano dura a los dueños de los caniches que hicieran sus necesidades en Lakeshore Drive, la calle que recorre el litoral. Esta intensificación de la presencia policial probablemente serviría para detener a más personas que conducen bajo la influencia del alcohol y quizás descubrir algún que otro caso de fraude de seguros, violencia doméstica o chantaje. De forma ocasional, solo para darle a todo el mundo la oportunidad de experimentar la cruda realidad, los agentes empujarían a algún ricachón contra el maletero de su Cruiser, le retorcerían los brazos y le pondrían las esposas, sin olvidarse de soltar unas cuantas palabrotas y proferirle terribles insultos.
Con el tiempo, esta atención especial a Gold Coast generaría datos. Estos datos revelarían un aumento de la delincuencia en la zona, lo cual atraería aún más policía a la refriega, lo que a su vez provocaría sin duda más rabia en los ciudadanos y más conflictos. Me imagino a un conductor aparcado en doble fila discutiendo con la policía, negándose a salir de su Mercedes y enfrentándose a cargos por oponer resistencia a su detención. No sería más que un delito entre los muchos que se comenten en Gold Coast.
Aunque esto pueda parecer poco serio, la igualdad es un elemento esencial de la justicia. Esto implica, entre otras cosas, experimentar la justicia penal de forma igualitaria. Aquellos que apoyan políticas como la de los controles policiales deberían vivirlas en primera persona. La justicia no puede ser solo algo que una parte de la sociedad inflige a la otra.
Los dañinos efectos de la vigilancia policial desigual, ya sea por prácticas como los controles policiales o mediante modelos predictivos como PredPol, no terminan con el arresto del acusado y su ingreso en el sistema de justicia penal. Llegados a ese punto, muchos de ellos se enfrentarán al ADM que analizamos en el Capítulo 1: el modelo de reincidencia que genera directrices para la determinación de las condenas. Los datos sesgados procedentes de la vigilancia policial desigual entran en este modelo de forma directa y posteriormente los jueces recurren a este análisis supuestamente científico, que se traduce en una única puntuación de riesgo. Los jueces que se toman en serio este resultado encuentran motivos para aplicar condenas más largas a los presos que parecen presentar un mayor riesgo de cometer otros delitos.
¿Y por qué se considera que los presos que no son de raza blanca y que viven en barrios pobres tienen más posibilidades de cometer delitos? Según los datos de los modelos de reincidencia, es porque tienen más probabilidades de estar en paro, de no haber completado la educación secundaria y de haber tenido algún roce con la ley previamente. Y sus amigos también.
Otra forma de leer los mismos datos, no obstante, apuntaría más bien a que estos presos viven en barrios pobres con centros escolares pésimos y escasas oportunidades. Y, además, esos barrios están sometidos a una fuerte vigilancia policial. Por lo tanto, la probabilidad de que un exconvicto que regresa a su barrio tras salir de la cárcel vuelva a tener un encontronazo con la ley es, sin lugar a dudas, mayor que la de alguien condenado por defraudar a Hacienda que sale de prisión para volver a un barrio residencial. En este sistema, se castiga más a los que son pobres y no son de raza blanca por ser quienes son y vivir donde viven.
Es más, para los sistemas supuestamente científicos, los modelos de reincidencia son defectuosos desde el punto de vista de la lógica. La premisa que nadie cuestiona es que al encerrar a los prisioneros de «alto riesgo» durante más tiempo, la sociedad estará más segura. Cierto es, por supuesto, que los presos no cometen delitos mientras están entre rejas. Pero ¿es posible que su tiempo en prisión influya en su comportamiento cuando salgan? ¿Cabría alguna probabilidad de que los años pasados en un entorno despiadado, rodeados de criminales, aumentasen, en lugar de reducir, la probabilidad de cometer otro delito? Tal descubrimiento echaría por tierra los propios cimientos de las directrices para decidir condenas en función del riesgo de reincidencia. Sin embargo, los sistemas penitenciarios, atiborrados de datos, no desarrollan esta importante línea de investigación. Con demasiada frecuencia utilizan los datos para justificar el funcionamiento del sistema, pero no para cuestionarlo o mejorarlo.
Comparemos esta actitud con la de Amazon.com. El gigante minorista, al igual que el sistema de justicia penal, está altamente orientado hacia una forma de reincidencia. Aunque el objetivo de Amazon es el contrario. Amazon quiere que sus clientes vuelvan y compren de nuevo. Su sistema de software busca la reincidencia y la fomenta.
Ahora bien, si Amazon funcionara como el sistema judicial, empezaría por puntuar a los compradores como reincidentes potenciales. Quizás una mayoría de ellos viven en determinados códigos postales o son titulados universitarios. En tal caso, Amazon se promocionaría más entre este grupo de personas; por ejemplo, les ofrecería descuentos. Si ese marketing funcionara, aquellos con mayor puntuación en términos de reincidencia volverían a comprar más. Con un análisis superficial, los resultados corroborarían el sistema de puntuación de Amazon.
Sin embargo, a diferencia de las ADM de la justicia penal, Amazon no se conforma con estas correlaciones simplistas. La empresa cuenta con un laboratorio de datos y si quiere averiguar qué impulsa la reincidencia de sus compradores, lo que hace es investigar. Sus científicos de datos no solo analizan códigos postales y niveles educativos. También estudian la experiencia de las personas en el ecosistema de Amazon. En un primer momento, se centran en los patrones de las personas que han realizado una o dos compras en Amazon y no han vuelto. ¿Hubo algún problema al terminar la operación? ¿Sus paquetes llegaron a tiempo? ¿Quizá un alto porcentaje de ellos publicó una mala valoración? Las preguntas se multiplican sin fin, puesto que el futuro de la compañía depende de un sistema que se basa en el aprendizaje permanente, que busca descubrir qué es lo que mueve a los clientes.
Si yo tuviera la oportunidad de trabajar como científica de datos para el sistema judicial, me esforzaría por profundizar lo máximo posible y descubrir lo que ocurre en el interior de esas prisiones y qué impacto tienen esas experiencias en el comportamiento de los presos. Empezaría analizando el régimen, de aislamiento. Cientos de miles de presos pasan periodos de veintitrés horas al día en estas cárceles dentro de la propia cárcel, la mayoría de ellas no más grandes que los boxes para caballos. Los investigadores han descubierto que pasar mucho tiempo a solas genera profundos sentimientos de abatimiento y desesperanza. ¿Podría esto tener algún impacto en la reincidencia? Me encantaría poder llevar a cabo este análisis, pero dudo que se hayan recogido siquiera los datos.
¿Y qué hay de las violaciones? En Unfair: The New Science of Criminal Injustice, Adam Benforado escribe que ciertos tipos de presos son objeto de violaciones en las cárceles. [103] Los jóvenes y de corta estatura son particularmente vulnerables, así como aquellos que sufren alguna discapacidad mental Algunas de estas personas viven como esclavos sexuales durante años. Este es otro tema importante que debería ser analizado por cualquiera que disponga de los datos y los conocimientos necesarios, pero los sistemas penitenciarios no han mostrado interés alguno en catalogar los efectos a largo plazo de estos abusos.
Un científico serio también buscaría señales positivas asociadas a la experiencia en prisión. ¿Qué efectos tiene disponer de más luz solar, más actividades deportivas, comida más saludable o alfabetización? Tal vez estos factores mejoran el comportamiento de los convictos cuando recobran la libertad. O, lo que es más probable, seguramente tendrán un efecto variable. Un programa de investigación serio promovido por el sistema judicial ahondaría en los efectos de cada uno de estos elementos, en cómo funcionan al combinarse y en el tipo de personas a las que más pueden ayudar. El objetivo, si se utilizan los datos de forma constructiva, sería optimizar las cárceles —al igual que las empresas como Amazon optimizan sus páginas web o su cadena de suministro— en beneficio tanto de los presos como de la sociedad en general.
Sin embargo, las cárceles tienen todos los alicientes posibles para evitar este análisis basado en los datos. Los riesgos frente a la opinión pública son demasiado altos —ninguna ciudad quiere ser el blanco de un incisivo artículo en el New York Times—. Y, por supuesto, hay mucho dinero en juego en el abarrotado sistema penitenciario. Las prisiones gestionadas por empresas privadas, que acogen tan solo al 10 % de la población reclusa, constituyen un sector de 5000 millones de dólares. [104] Al igual que las aerolíneas, estas cárceles privadas obtienen beneficios solo cuando funcionan a plena capacidad. [105] Hurgar demasiado podría suponer una amenaza para esa fuente de ingresos.
En consecuencia, en lugar de analizar y optimizar las prisiones, las consideramos como cajas negras. Los presos entran en ellas y desaparecen de nuestra vista. Nadie duda que la maldad existe, pero está contenida detrás de gruesos muros. ¿Qué ocurre ahí dentro? Mejor no preguntar. Los modelos actuales se aferran obstinadamente a la sospechosa e incuestionada hipótesis que defiende que retener durante más tiempo en prisión a los presos supuestamente de alto riesgo nos garantiza una mayor seguridad. Y cuando aparecen estudios que refutan ese razonamiento, resulta fácil ignorarlos.
Y esto es precisamente lo que ocurre. Tomemos como ejemplo un estudio sobre reincidencia de Michael Muelles-Smith, profesor de Economía en Michigan. [106] Tras analizar 2,6 millones de antecedentes penales en el condado de Harris (Texas), concluyó lo siguiente: cuanto más tiempo pasaban los reclusos del condado de Harris en prisión, más probabilidades tenían de fracasar en su intento de encontrar un empleo al salir, de necesitar vales de comida u otro tipo de asistencia pública y de cometer más delitos. No obstante, para convertir estas conclusiones en políticas inteligentes y conseguir un sistema judicial mejor, los políticos tendrán que posicionarse y luchar en nombre de una minoría temida que muchos de los votantes, por no decir la mayoría, prefiere ignorar. No es tarea fácil.

* * *

Los controles policiales pueden parecer intrusivos e injustos, pero dentro de poco los consideraremos también como una medida primitiva. Y la razón es que la policía está recuperando herramientas y técnicas de la campaña antiterrorista mundial y adaptándolas a la lucha contra la delincuencia a escala local. En San Diego, por ejemplo, la policía no solo está parando a los ciudadanos para pedirles que se identifiquen o para cachearles, sino que, en ocasiones, también les toman fotos con sus iPads y las envían al servicio de reconocimiento facial basado en la nube, que las coteja con los registros de una base de datos de delincuentes y sospechosos. Según un informe publicado en el New York Times, la policía de San Diego utilizó este programa de reconocimiento facial con 26.000 personas entre 2011 y 2015. [107] También les tomaron a muchas de ellas muestras de saliva para extraer su ADN.
Los avances en la tecnología de reconocimiento facial pronto permitirán una vigilancia mucho más amplia. Los agentes de policía de Boston, por ejemplo, estuvieron planteándose utilizar cámaras de seguridad para escanear miles de caras en conciertos al aire libre. [108] Estos datos se volcarían posteriormente en un programa capaz de comparar cada cara con millones de caras, por segundo. Finalmente los agentes decidieron no aplicar esta medida. Las preocupaciones ligadas a la privacidad, en ese caso concreto, primaron sobre los criterios de eficiencia, pero no siempre será así.
A medida que la tecnología avanza, tenemos la certeza de que se producirá un incremento drástico en la vigilancia. La buena noticia, si queremos verle algún aspecto positivo, es que, cuando haya miles de cámaras de seguridad en nuestros pueblos y ciudades enviando nuestras imágenes para que sean analizadas, la policía no tendrá que discriminar tanto. Además, es indudable que la tecnología será de utilidad para rastrear a los sospechosos, como ocurrió en el atentado del maratón de Boston. Sin embargo, esto también significa que todos seremos sometidos a la versión digital de los controles policiales y que nuestras caras serán cotejadas con bases de datos de criminales y terroristas conocidos.
Llegados a ese punto, es posible que el foco se traslade a la identificación de malhechores potenciales, no solo barrios o manzanas en un mapa, sino individuos. Estas campañas de prevención, muy consolidadas en la lucha contra el terrorismo, están allanando el camino a las ADM.
En 2009, el Departamento de Policía de Chicago recibió una subvención de 2 millones de dólares del Instituto Nacional de Justicia para desarrollar un programa predictivo de actos delictivos. [109] La teoría en la que se basaba la propuesta ganadora presentada por la policía de Chicago defendía que, con la suficiente investigación y los suficientes datos, serían capaces de probar que la propagación de la delincuencia, igual que una epidemia, sigue un determinado patrón. Por tanto, se puede predecir y, con suerte, evitar.
El responsable científico de la iniciativa de Chicago era Miles Wernick, director del Centro de Investigación de Imágenes de Diagnóstico Médico del Instituto de Tecnología de Illinois (ITT, por sus siglas en inglés). Décadas antes, Wernick había colaborado con las Fuerzas Armadas Estadounidenses en el análisis de datos para detectar objetivos en el campo de batalla. Posteriormente se había dedicado al análisis de datos médicos, como la progresión de la demencia. Al igual que la mayoría de los científicos de datos, no consideraba que sus competencias estuvieran ligadas a un sector específico. Su trabajo consistía en detectar patrones y en Chicago se centraría en patrones de delitos y de delincuentes.
En un primer momento, el equipo de Wernick concentró sus esfuerzos en señalar puntos calientes de delitos, de forma similar a como lo hace PredPol. Solo que el equipo de Chicago fue mucho más lejos. Elaboraron una lista de las cuatrocientas personas con mayor probabilidad de cometer un delito violento y las ordenaron en un ranking en función de la probabilidad que tenían de verse envueltas en un caso de homicidio. [110]
Una de las personas de la lista, un chico de veintidós años que había dejado el instituto, Robert McDaniel, abrió la puerta de su casa en un día de verano de 2013 y se encontró frente a un agente de policía. [111] Más tarde, Robert McDaniel declaró al Chicago Tribune que no tenía antecedentes por tenencia ilícita de armas y que jamás había sido acusada de ningún delito violento. Como la mayoría de los chicos jóvenes de Austin, su peligroso barrio del West Side, McDaniel había tenido roces con la ley y conocía a mucha gente que había quedado atrapada en el sistema de justicia penal. Según declaró, el agente le dijo que la autoridad le tenía el ojo echado y que tuviera cuidado.
Parte del análisis que condujo a la policía hasta McDaniel tenía que ver con su red social. Conocía a delincuentes. Y no cabe duda de que, estadísticamente, es más probable que una persona se comporte como las personas con las que pasa tiempo que lo contrario, Facebook, por ejemplo, ha descubierto que es mucho más probable que los amigos que se comunican con frecuencia pinchen en los mismos anuncios. Dios los cría y, estadísticamente hablando, ellos efectivamente se juntan.
Para ser justos con la policía de Chicago, hay que decir que no están arrestando a personas como Robert McDaniel, al menos aún no. El objetivo de la policía en este caso es salvar vidas. Si las cuatrocientas personas que parecen tener más probabilidades de cometer delitos violentos reciben una visita y una advertencia, tal vez algunos de ellos se lo piensen dos veces antes de empuñar un arma.
No obstante, analicemos el caso de Robert McDaniel en términos de justicia. Resulta que creció en un barrio pobre y peligroso. En este sentido, tuvo mala suerte. Ha vivido rodeado de delincuencia, y muchos de sus conocidos están atrapados en ella. Y en gran medida como consecuencia de estas circunstancias —y no de sus propios actos— se le considera peligroso. Ahora la policía le tiene el ojo echado. Y si hace alguna tontería, como le ocurre cada día a millones de estadounidenses, si compra droga o se mete en una pelea de bar, o si lleva un arma sin licencia, todo el peso de la ley caerá sobre él, y posiblemente con más severidad que la que se aplicaría al resto de nosotros, Al fin y al cabo, estaba advertido.
En mi opinión, el modelo que llevó a la policía a llamar a la puerta de Robert McDaniel persigue un objetivo erróneo. En lugar de intentar simplemente erradicar el crimen, la policía debería trabajar para construir relaciones en el vecindario. Este fue uno de los pilares del estudio de las «ventanas rotas» original. Los agentes patrullaban a pie, hablaban con la gente, intentaban ayudar a los ciudadanos a respetar sus propias normas comunitarias. Sin embargo, ese objetivo se ha perdido en muchos casos, aplastado por los nuevos modelos que equiparan arrestos con seguridad.
Tampoco es este el caso en todos sitios. Recientemente estuve visitando Camden (Nueva Jersey), la ciudad con más asesinatos de todo el país en 2011. Pude descubrir que el Departamento de Policía de Camden, reconstruido y puesto bajo el control del estado en 2012, tiene una doble misión: reducir el crimen y generar confianza en la comunidad. Cuando el objetivo es construir confianza, las detenciones se consideran el último recurso, no el primero. Esta actitud, más empática, podría atemperar las relaciones entre la policía y los sujetos vigilados, además de reducir el número de tragedias como las que se han producido en los últimos años: los asesinatos de jóvenes negros por parte de la policía y los posteriores disturbios.
Desde un punto de vista matemático, no obstante, la confianza resulta difícil de cuantificar. Ese es el reto al que se enfrentan los que trabajan en la creación de modelos. Lamentablemente, es mucho más fácil seguir contando arrestos y construir modelos que asumen que todos pertenecemos a una categoría u otra y que nos tratan como tal. A las personas inocentes que viven rodeadas de delincuentes se las trata mal, mientras que los delincuentes que viven en un entorno de personas que acatan la ley se van de rositas. Y, como consecuencia de la fuerte correlación que existe entre la pobreza y los delitos denunciados, los pobres continúan atrapados en estas redes digitales, mientras que el resto de nosotros apenas nos percatamos de su existencia.

Capítulo 6
No aptos para servir. Conseguir un empleo

Hace unos años, un joven de nombre Kyle Behm interrumpió temporalmente sus estudios en la Universidad de Vanderbilt. [112] Tenía trastorno bipolar y tuvo que dejar de asistir a clase durante un tiempo para recibir tratamiento. Un año y medio después, Kyle se había recuperado y pudo continuar sus estudios en otra universidad Aproximadamente en esa misma época, un amigo le habló de la posibilidad de trabajar a tiempo parcial en el supermercado Kroger. No era más que un trabajo en un supermercado cobrando el sueldo mínimo, pero en principio podía dar por hecho que lo contratarían. Su amigo, que iba a dejar el puesto libre, lo recomendaría. Para un estudiante con buenas notas como Kyle, presentar la solicitud no sería más que una formalidad.
Sin embargo, no llamaron a Kyle para la entrevista. Cuando preguntó, su amigo le explicó que había saltado la «luz roja» en el test de personalidad que había hecho al presentar la solicitud de empleo. Ese test formaba parte del programa de selección de empleados desarrollado por Kronos, una empresa de gestión de personal con sede en las afueras de Boston, Cuando Kyle le contó a su padre, Roland, abogado, lo que había ocurrido, su padre le preguntó qué tipo de preguntas aparecían en el test. Kyle le contó que eran preguntas similares a las del test del «modelo de los cinco grandes factores de la personalidad» [113] que había hecho en el hospital. Esta prueba puntúa a las personas en cinco áreas: extraversión, amabilidad, responsabilidad, inestabilidad emocional y apertura a nuevas ideas.
En principio, no conseguir un empleo de salario mínimo por un test cuestionable no parecía tener mucha importancia. Roland Behm animó a su hijo a presentarse a otras ofertas de empleo, pero Kyle siempre volvía con la misma respuesta. Todas las empresas a las que presentaba su solicitud de empleo utilizaban el mismo test y nunca conseguía una oferta. Roland recordaba más tarde: «Kyle me decía: “Hice un examen de acceso a la universidad casi perfecto y estuve en Vanderbilt hace unos años. Si no soy capaz de conseguir un trabajo a tiempo parcial con salario mínimo, ¿es que no sirvo para nada?”, Y yo le contestaba: “No creo que sea para tanto”».
Sin embargo, Roland Behm estaba desconcertado. Parecía que ciertas preguntas sobre salud mental estaban dejando a su hijo fuera del mercado laboral Decidió estudiar la cuestión y rápidamente descubrió que el uso de test de personalidad en los procesos de selección de personal era una práctica muy extendida entre las grandes empresas, aunque apenas encontró unas cuantas impugnaciones jurídicas contra su utilización. Según me explicó, las personas que solicitan un empleo y ante las que salta la «luz roja» rara vez descubren que los rechazaron por los resultados del test. Y cuando lo hacen, es poco probable que traten el tema con un abogado.
Roland Behm envió notificaciones a siete empresas —Finish Line, Home Depot, Kroger, Lowe’s, PetSmart, Walgreen Co. y Yum Brands— para informarles de que tenía la intención de presentar una demanda colectiva alegando que el uso de esa prueba en el proceso de selección de personal era ilegal. [114]
En el momento de la publicación de este libro el juicio aún está pendiente. Es probable que los argumentos se centren en la cuestión de si el test de Kronos puede ser considerado un examen médico, cuyo uso en los procesos de contratación es ilegal con arreglo a la Ley sobre Estadounidenses con Discapacidades de 1990. [115] Si finalmente es así, el tribunal deberá determinar si las empresas contratantes son directamente responsables del incumplimiento de dicha ley o si es responsabilidad de Kronos.
La cuestión relevante para este libro en el caso que acabamos de ver es la forma en que los sistemas automáticos nos juzgan cuando estamos buscando empleo y qué criterios evalúan. Ya hemos visto que las ADM envenenan el proceso de admisión a la universidad, tanto para los ricos como para la clase media. Por otra parte, las ADM en el sistema de justicia penal encierran a millones de personas, la gran mayoría de ellos pobres que nunca tuvieron siquiera la oportunidad de ir a la universidad. Los miembros de cada uno de estos grupos se enfrentan a dificultades radicalmente diferentes, pero también tienen algo en común. Todos, al final, necesitan un empleo.
Antes, encontrar trabajo solía depender en gran medida de a quién se conociera. De hecho, Kyle Behm estaba siguiendo la vía tradicional cuando solicitó un empleo en el supermercado Kroger, Su amigo le había avisado de la vacante y había hablado bien de él Durante décadas, así ha sido como se conseguía poner un pie dentro del proceso de selección, independientemente de que se tratara de una tienda de comestibles, de los muelles, de un banco o de un bufete de abogados. Después los candidatos solían pasar una entrevista, durante la que un directivo intentaba hacerse una idea de cómo eran los posibles futuros empleados. A menudo esto se traducía en un único juicio básico: ¿es esta persona como yo (o como otras personas con las que me llevo bien)? El resultado era que los desempleados que no tenían ningún amigo dentro de la empresa, especialmente si provenían de una raza, un grupo étnico o una religión diferentes, no tenían oportunidades. Este mecanismo de acceso a través de personas que ya están dentro también excluía a las mujeres.
Las empresas como Kronos trajeron la ciencia a los recursos humanos de las empresas en parte para hacer que el proceso fuera más justo. El primer producto de Kronos, empresa fundada en la década de 1970 por licenciados del MIT, fue un nuevo tipo de reloj de fichar equipado con un microprocesador que sumaba las horas de los empleados y creaba informes automáticos. [116] Esto puede parecer banal, pero supuso el principio de los sistemas electrónicos para hacer el seguimiento de la mano de obra y optimizarla (y que ahora siguen evolucionando a toda velocidad).
Al ir creciendo, Kronos desarrolló una amplia gama de herramientas de software para la gestión de la mano de obra, incluido un programa informático, Workforce Ready HR, que prometía eliminar «las conjeturas» en la contratación, según su página web: «Podemos ayudarle a seleccionar, contratar e integrar a los candidatos que con mayor probabilidad serán productivos, los empleados más adecuados que rendirán más y permanecerán más tiempo en la empresa». [117]
Kronos forma parte de un sector floreciente. Los procesos de selección y contratación se están automatizando y muchos de los nuevos programas incluyen test de personalidad como el que hizo Kyle Behm. Este negocio representa en la actualidad 500 millones de dólares estadounidenses anuales y está creciendo a un ritmo de entre el 10 % y el 15 % cada año, según Hogan Assessment Systems Inc., una empresa de realización de test. [118] Estas pruebas se utilizan ahora con entre el 60 % y el 70 % de los trabajadores potenciales en Estados Unidos, en comparación con entre el 30 % y 40 % hace unos cinco años, según las estimaciones de Josh Bersin, de la consultora Deloitte. [119]
Evidentemente, estos programas de selección y contratación no pueden incorporar información sobre cómo será realmente el rendimiento del trabajador en la empresa. Eso pertenece al futuro y, por lo tanto, no se conoce. De modo que, al igual que otros muchos programas de big data , emplean valores sustitutivos o proxies. Y, como ya hemos visto, los valores sustitutivos son imprecisos y, a menudo, injustos. De hecho, el Tribunal Supremo de Estados Unidos dictaminó en un caso de 1971, Griggs c. Duke Power Company, que los test de inteligencia en los procesos de selección y contratación eran discriminatorios y, por consiguiente, ilegales. [120] Podríamos pensar que dicho caso debería haber despertado un examen de conciencia, pero, en lugar de ello, el sector simplemente optó por emplear sustitutos, incluidos los test de personalidad como el que activó las alarmas frente a Kyle Behm.
Incluso si excluimos cuestiones como lo que es justo y legal, la investigación sugiere que los test de personalidad son indicadores poco fiables a la hora de predecir el rendimiento en el trabajo. Frank Schmidt, un profesor de Administración de Empresas de la Universidad de Iowa, analizó datos sobre la productividad en el lugar de trabajo de todo un siglo con el objetivo de medir el valor predictivo de una serie de procesos de selección. [121] Los test de personalidad obtuvieron una puntuación baja en la escala, con unos resultados de predicción de solo un tercio frente a la predicción lograda por las pruebas cognitivas, y también con resultados muy inferiores a las comprobaciones de las referencias. Esto resulta particularmente irritante cuando tenemos en cuenta que, según demuestra la investigación, ciertos test de personalidad pueden ayudar a los empleados a conocerse mejor. Estas pruebas pueden utilizarse en la construcción de equipos de trabajo y para mejorar la comunicación. Al fin y al cabo, crean una situación en la que las personas reflexionan de forma explícita sobre cómo colaboran, y este sencillo propósito puede dar lugar por sí mismo a un mejor entorno de trabajo. En otras palabras, si el objetivo que definimos es que los trabajadores sean más felices, los test de personalidad pueden resultar una herramienta útil.
Sin embargo, en lugar de emplearlos con ese propósito, se utilizan como filtro para eliminar a cuantos más candidatos mejor. «La principal finalidad del test —cuenta Roland Behm— no es encontrar al mejor empleado, sino excluir a tantas personas como sea posible de la manera más barata posible». [122]
Podríamos pensar que será fácil hacer trampas en los test de personalidad. Si hacemos uno de los test de los cinco grandes factores de personalidad publicados en Internet, parece pan comido. Una de las preguntas es: «¿Tiene frecuentes cambios de humor?», y probablemente lo más inteligente sea contestar: «Totalmente en desacuerdo». Otra de las preguntas es: «¿Se enfada con facilidad?», y aquí de nuevo hay que contestar que no. Seguro que ninguna empresa quiere contratar a una persona demasiado impulsiva.
Efectivamente, las empresas pueden tener problemas si excluyen a los candidatos basándose en esas preguntas. Los organismos reguladores de Rhode Island descubrieron que CVS Pharmacy estaba excluyendo de forma ilegal a los solicitantes de empleo con enfermedades mentales al encontrar un test de personalidad que pedía a los candidatos que expresaran su acuerdo o desacuerdo con afirmaciones como: «La gente hace muchas cosas que le enfadan»; o: «No sirve de nada tener amigos íntimos; siempre acaban decepcionando». [123] Es más difícil meterse en problemas si se emplean preguntas más complejas, en las que resulta más complicado hacer trampas y, por lo tanto, muchos de los test que se utilizan en la actualidad obligan a los candidatos a hacer elecciones difíciles, ante las que probablemente pensarán, con el corazón encogido: «Haga lo que haga, estoy perdido».
McDonald’s, por ejemplo, preguntaba a los candidatos que eligieran cuál de las siguientes frases los describía mejor: «Es difícil estar alegre cuando hay tantos problemas de los que preocuparse»; o: «A veces necesito que me den un empujoncito para empezar a trabajar».
El Wall Street Journal pidió a un psicólogo industrial. Tomas Chamorro-Premuzic, que analizara preguntas espinosas de este tipo. [124] Según su análisis, la primera frase representaba «diferencias individuales en inestabilidad emocional y diligencia» y la segunda, «escasa ambición y dinamismo». De modo que el posible trabajador está obligado a declararse culpable de ser o muy nervioso o perezoso.
Una de las preguntas del test de Kroger era mucho más sencilla: «¿Qué adjetivo le describe mejor como trabajador: único u organizado?».
Tomas Chamorro-Premuzic dice que contestar «único» capta «un elevado concepto de sí mismo, apertura y narcisismo», mientras que «organizado» expresa responsabilidad y autocontrol.
Hay que señalar que no existe la opción de contestar: «Todo lo anterior». Los candidatos tienen que elegir una de las dos opciones, sin tener ni idea de cómo el programa interpretará su respuesta. Y seguro que una parte del análisis llegará a conclusiones poco favorecedoras. Si nos acercamos a una clase de educación infantil en cualquier lugar de Estados Unidos, por ejemplo, seguro que oímos a las maestras repetirles una y otra vez a los niños que son únicos. Intentan alimentar su autoestima y, además, les están diciendo la verdad. Sin embargo, doce años más tarde, si ese mismo niño elige la palabra «único» en un test de personalidad que tenga que completar al solicitar un empleo de salario mínimo, es posible que el programa interprete la respuesta como una alarma: ¿quién quiere trabajadores narcisistas en su empresa?
Los defensores de los test dicen que están compuestos por un gran número de preguntas y que no se elimina nunca a una persona por una única respuesta, aunque ciertos patrones de respuestas pueden excluirla y, de hecho, lo hacen. Y no sabemos cuáles son esos patrones. El proceso es completamente opaco.
Y, lo que es peor, una vez que el modelo ha sido calibrado por los expertos especializados, no recibe prácticamente ninguna retroalimentación. En este caso vemos de nuevo un claro contraste con los modelos deportivos. La mayoría de los equipos de baloncesto profesional contratan a genios informáticos de los datos que ejecutan modelos para analizar a los jugadores empleando distintas mediciones, como la velocidad de los pies, el salto vertical, el porcentaje de tiros libres y muchísimas variables más. Con los resultados del modelo en mano, es posible que el equipo de Los Angeles Lakers decida no fichar a un base de primera de la Universidad de Duke porque sus estadísticas en asistencia son bajas; los bases deben dar buenos pases. Sin embargo, en la siguiente temporada descubren con consternación que el jugador que rechazaron consigue ganar el Premio Rookie del Año al jugador más destacado en su primer año en la liga profesional jugando con los Utah Jazz y lidera la liga en asistencias. Si ocurre algo así los Lakers analizarán su modelo para ver en qué se equivocaron. Es posible que en la estrategia que empleaba su equipo de la Universidad de Duke el base estuviera a cargo de anotar, lo que perjudicaba sus cifras en asistencias. O tal vez aprendiera algo importante en Utah que le ayudó a mejorar mucho sus pases. Sea cual sea el caso, esta información les permite trabajar para mejorar su modelo.
Ahora imaginemos que Kyle Behm, después de haber sido excluido del proceso de selección de Kroger, acaba trabajando en McDonald’s y allí se convierte en un trabajador excepcional. Al cabo de cuatro meses está al frente de la cocina y al cabo de un año dirige la franquicia entera. ¿Se molestará alguno de los directivos de Kroger en analizar el test de personalidad e investigar por qué se equivocaron tanto?
Seguro que no. La diferencia es la siguiente: los equipos de baloncesto gestionan personas individuales con un valor potencial de millones de dólares cada una. Sus sistemas analíticos son cruciales para su ventaja competitiva y están ávidos de datos. Sin retroalimentación constante, sus sistemas se quedan anticuados y resultan inútiles. Por el contrario, las empresas que contratan a trabajadores por el sueldo mínimo, gestionan rebaños. Recortan en gastos sustituyendo a los profesionales de recursos humanos por máquinas y estas máquinas filtran grandes poblaciones para reducirlas a grupos más fáciles de gestionar. A menos que ocurra algo realmente grave entre los trabajadores —como un brote de cleptomanía, por ejemplo, o que la productividad se desplome— la empresa no tiene razón alguna para modificar el modelo de filtrado. Cumple su función (aunque no identifique a las posibles estrellas).
La empresa puede estar satisfecha con el statu quo, pero las víctimas de este sistema automático sufren. Y como ya sospechará a estas alturas el lector, en mi opinión los test de personalidad de los departamentos de selección y contratación de personal son ADM, Cumplen todos los requisitos para serlo. En primer lugar, su uso está generalizado y tienen un enorme impacto. El examen de Kronos, con todos sus defectos, se ha extendido a gran parte de la economía de selección y contratación de personal. Es obvio que bajo el statu quo anterior, los empleadores tenían sesgos, es cierto, pero esos sesgos variaban de una empresa a otra, de modo que se podía esperar que en algún sitio una puerta se abriera lo suficiente para dejar pasar a personas como Kyle Behm. Sin embargo, esto cada vez es más difícil. En cierto sentido, Kyle tuvo suerte. Los candidatos a un puesto de trabajo en una empresa, especialmente aquellos que se presentan a ofertas de trabajo por el sueldo mínimo, reciben una negativa tras otra y rara vez descubren por qué. Fue simplemente cuestión de suerte que el amigo de Kyle se enterara de la razón de que lo rechazaran y que se lo contara a él. Incluso en estas circunstancias, el caso contra los grandes usuarios de Kronos no hubiera siquiera tomado forma si no fuera porque el padre de Kyle era abogado, un abogado con el suficiente tiempo y dinero como para montar una demanda colectiva. Esto no es algo que se planteen hacer habitualmente los demandantes de empleo de bajo nivel sociocultural. [125]
Por último, pensemos en el bucle de retroalimentación que crea el test de personalidad de Kronos. El test excluye a las personas l con ciertos problemas de salud mental, lo que les impide tener un empleo normal y llevar una vida normal, aislándolas aún más. Y esto es precisamente lo que se supone que debe evitar la Ley sobre Estadounidenses con Discapacidades.

* * *

Afortunadamente, la mayoría de demandantes de empleo no son excluidos por los sistemas automáticos, aunque siguen teniendo que enfrentarse a la dificultad de conseguir que su solicitud aterrice entre las primeras del montón y abrirse así paso hasta la entrevista. Esta fase ha sido muy problemática desde hace mucho tiempo para las minorías raciales y étnicas y para las mujeres.
En 2001 y 2002, antes de que se generalizara el uso de los lectores automáticos de currículos, unos investigadores de la Universidad de Chicago y del MIT enviaron 5000 currículos falsos a ofertas de empleo anunciadas en él Boston Globe y el Chicago Tribune. [126] Las ofertas de empleo iban desde trabajos administrativos hasta la atención al cliente y las ventas. Los currículos fueron modelados con distintas razas. En la mitad de ellos aparecían nombres típicamente blancos como Emily Walsh y Brendan Baker, mientras que en los demás, con cualificaciones similares, había nombres como Lakisha Washington y Jamaal Jones, que sonaban a nombres afroamericanos. Los investigadores observaron que los nombres blancos recibieron un 50 % más de llamadas que los negros. Aunque hubo un hallazgo secundario quizá incluso más llamativo. Los demandantes blancos con buenos currículos recibieron mucha más atención que los que tenían currículos menos impresionantes; parecía que los encargados de recursos humanos prestaban atención al leer los currículos de los demandantes blancos. Sin embargo, entre los demandantes negros, los buenos currículos apenas marcaban alguna diferencia. Era evidente que el mercado de trabajo seguía envenenado de prejuicios.
La manera ideal de sortear estos prejuicios es considerar a los demandantes de empleo de forma ciega. Las orquestas, que habían estado siempre dominadas por hombres, empezaron en la década de 1970, como es bien sabido, a celebrar las audiciones con el músico oculto detrás de un biombo. [127] Al hacerlo así, los contactos y las reputaciones ya no contaban nada, ni la raza del músico, ni su alma mater, La música que se oía tras el biombo hablaba por sí sola. Desde entonces, el porcentaje de mujeres que tocan en las grandes orquestas se ha multiplicado por cinco —aunque siguen representando solo un cuarto del total—.
El problema es que existen pocas profesiones en las que se pueda organizar una prueba tan imparcial para los candidatos. Los músicos detrás de un biombo pueden realmente ejecutar el trabajo para el que se presentan, independientemente de que sea el concierto para violonchelo y orquesta de Dvorak o una bossa nova con la guitarra. En otras profesiones, los empleadores tienen que buscar en los currículos Las cualidades que quizá les ayuden a predecir el éxito.
Como se puede suponer, los departamentos de recursos humanos emplean los sistemas automáticos para reducir el tamaño de las montañas de currículos. De hecho, aproximadamente el 72 % de los currículos no son nunca vistos por el ojo humano. [128] Los programas informáticos los revisan y extraen las competencias y experiencias que busca el empleador. Después puntúan cada currículo en función de su correspondencia con la vacante en cuestión, Y finalmente serán las personas que trabajan en el departamento de recursos humanos quienes decidan dónde está el corte, pero cuantos más candidatos puedan eliminar en este primer cribado, menos horas de trabajo humano tendrán que dedicar a procesar los currículos con mayores puntuaciones.
Por lo tanto, los demandantes de empleo deben redactar sus currículos pensando en el lector automático. Es importante, por ejemplo, salpicar generosamente el currículo con las palabras específicas que se buscan para el puesto de trabajo en cuestión [129] . Estas palabras pueden ser cargos (director de ventas, director financiero, arquitecto de software), lenguas (chino mandarín, Java) o notas (summa cum laude, el Eagle Scout [rango máximo de los boy scouts]).
Las personas con la información más actualizada descubren qué es lo que las máquinas aprecian y qué las enreda. Las imágenes, por ejemplo, son inútiles. La mayoría de los escáneres de currículos aún no las procesan. Y las tipografías sofisticadas no hacen más que confundir a las máquinas, nos cuenta Mona Abdel-Halim, cofundadora de Resunate.com, una herramienta para solicitar empleo. Las tipografías más seguras son las fuentes sencillas tipo vanilla como Arial y Courier. Y nada de incluir símbolos como, por ejemplo, flechas. No hacen más que confundirlo todo, e impiden a los sistemas automáticos analizar correctamente la información.
Lo que ocurre con estos programas, igual que veíamos en la admisión a las universidades, es que aquellos que tienen el dinero y los recursos necesarios para preparar sus currículos bien, aparecen entre los primeros. Por otra parte, los que no toman estas medidas quizá no descubran nunca que están enviando sus currículos directamente a la papelera. Este es otro ejemplo en el que vemos que los ricos y bien informados tienen ventaja, mientras que los pobres probablemente saldrán perdiendo.
Para ser justos, debemos reconocer que el mercado laboral siempre ha estado sesgado de un modo u otro. En otras generaciones, los que estaban más al día organizaban cuidadosamente los distintos puntos de su currículo con claridad y coherencia, los redactaban en un ordenador de calidad, como un IBM Selectric y los imprimían en papel de alto gramaje. Esos currículos tenían más posibilidades de superar el cribado de los humanos. En la mayoría de los casos, los currículos escritos a mano y los que tenían borrones del mimeógrafo en el que se habían hecho las copias acababan en la papelera. Por lo que, en este sentido, la desigualdad en el camino hacia las oportunidades no es nada nuevo, simplemente ha regresado bajo una nueva reencarnación, en esta ocasión para guiar a los ganadores de la sociedad y ayudarles a superar los controles de los guardias electrónicos.
El trato desigual en manos de estos guardias se extiende mucho más allá del ámbito de los currículos. Nuestro sustento depende cada vez más de nuestra capacidad para defender nuestros argumentos ante las máquinas. El más claro ejemplo de esto es Google, Para las empresas, ya sea una pensión o un taller de coches, el éxito depende de que consigan aparecer en la primera página de resultados de la búsqueda. Y ahora las personas se enfrentan a las mismas dificultades, ya sea para intentar poner un pie dentro de una empresa, para conseguir un ascenso o incluso para sobrevivir a las tandas de despidos. La clave está en descubrir lo que buscan las máquinas. Sin embargo, en este caso vuelve a repetirse lo que ya hemos visto anteriormente: en este universo digital que se anuncia como justo, científico y democrático, los que ya están dentro encuentran la manera de sacar una ventaja crucial.

* * *

En la década de 1970, la secretaría de la Facultad de Medicina del Hospital de St. George, en Tooting, un distrito del sur de Londres, identificó una oportunidad interesante. Recibían más de doce solicitudes por cada una de las 150 plazas que sacaban cada año y estudiar todas esas solicitudes suponía mucho trabajo, que requería la dedicación de varias personas. [130] Además, dado que cada una de las personas que participaban en la selección de solicitudes tenía diferentes ideas y predilecciones, el proceso era algo caprichoso. ¿Sería posible programar un ordenador para que clasificara las solicitudes y redujera la selección final a un número más fácil de manejar?
Grandes organizaciones como el Pentágono e IBM utilizaban ya ordenadores para realizar ese tipo de trabajo, pero el que una facultad de medicina diseñara su propio programa de evaluación automática a finales de la década de 1970, justo cuando Apple sacaba su primer ordenador personal, era un atrevido experimento.
Y resultó un absoluto fracaso. La Facultad de St George no solo fue excesivamente precoz en su utilización de los modelos matemáticos, sino que también fue una involuntaria pionera de las ADM.
Al igual que ocurre con otras muchas ADM, el problema se originó desde el principio, cuando se definió el doble objetivo del modelo. El primer objetivo era incrementar la eficiencia, para lo cual la máquina debía ocuparse de gran parte del trabajo más pesado. Eliminaría selectivamente las solicitudes menos interesantes para pasar de las dos mil iniciales a un grupo reducido de quinientas y, en ese punto, los seres humanos tomarían el relevo con un proceso de entrevistas más extenso. El segundo objetivo era la justicia. El ordenador no estaría influido por el estado de ánimo o los prejuicios de los cargos directivos de la facultad ni por peticiones urgentes de lores o ministros. En este primer cribado automático, todos los candidatos serian juzgados conforme a los mismos criterios.
¿Y cuáles serían esos criterios? Eso parecía ser la parte fácil. La facultad ya contaba con extensos archivos de la selección que se había hecho en años anteriores. Había que enseñar al sistema informático a replicar los mismos procedimientos que los seres humanos habían aplicado previamente. Como el lector podrá imaginar, el problema estaba precisamente en esa información de partida. El ordenador aprendió de los humanos a discriminar y realizó dicha tarea con pasmosa eficiencia.
En defensa de los cargos directivos de St George diremos que no toda la discriminación que se encontraba en los datos utilizados para enseñar al programa era abiertamente racista. Un importante número de las solicitudes con nombres extranjeros o de direcciones en el extranjero eran de personas que claramente no habían llegado a dominar la lengua inglesa. En lugar de considerar la posibilidad de que los buenos médicos podían aprender inglés, algo que resulta obvio hoy en día, lo que se hacía entonces era simplemente rechazarlos (al fin y al cabo, la facultad tenía que descartar tres cuartas partes de las solicitudes y esa parecía una manera fácil de empezar).
Y bien, mientras que los seres humanos que trabajaban en St. George habían rechazado durante años solicitudes llenas de errores gramaticales y faltas de ortografía, al ordenador —en realidad también analfabeto— le costaba imitarlos, aunque sí que era capaz de establecer una relación entre las solicitudes rechazadas en el pasado y los lugares de nacimiento de los solicitantes y, en menor medida, los apellidos. De modo que las personas de ciertos lugares, como África, Pakistán y barrios de inmigrantes en el Reino Unido, recibían menos puntuaciones globales y no eran convocadas ala fase de entrevistas. Una cantidad desproporcionada de estos candidatos eran personas que no eran blancas. Los seres humanos también habían rechazado a las mujeres, con la justificación desgraciadamente demasiado frecuente de que sus carreras se verían probablemente interrumpidas por los deberes de la maternidad, La máquina, naturalmente, hizo lo mismo.
En 1988, la Comisión de Igualdad Racial del Gobierno británico dictaminó que la Facultad de Medicina de St. George era culpable de discriminación racial y contra las mujeres en su política de admisiones. Según la comisión, hasta sesenta solicitudes de las dos mil que recibían cada año podrían haber sido excluidas de la fase de entrevistas únicamente por razones de raza, etnia o sexo.
La solución para los expertos en estadísticas de St. George —así como de otros sectores— sería construir una versión digital de una audición ciega en la que se eliminan los valores sustitutivos como la geografía, el sexo, la raza o el nombre y se presta únicamente atención a los datos relevantes para los estudios de medicina. La clave consiste en analizar las habilidades que cada candidato o candidata aporta a la facultad, en lugar de juzgarlos por comparación con otras personas que parecen similares a ellos. Por otra parte, si hubieran aplicado algo de pensamiento creativo en St George, podrían haber resuelto el problema de las mujeres y los extranjeros. El informe del British Medical Journal que acompañaba el dictamen de la comisión lo explicaba claramente. Si el idioma y los problemas relacionados con los cuidados de los hijos eran un inconveniente para unos candidatos que por lo demás eran muy prometedores, la solución no consistía en rechazar a esos candidatos, sino en facilitarles ayuda —clases de inglés o un servicio de guardería en la facultad— para ayudarles a superar esas dificultades.
Este es un punto al que volveré en los capítulos siguientes; hemos visto una y otra vez que los modelos matemáticos pueden examinar cuidadosamente los datos para identificar a personas que probablemente tendrán que enfrentarse a grandes dificultades, ya sea en el ámbito de la delincuencia, la pobreza o la educación. La sociedad debe decidir si quiere utilizar esa información para rechazarlos y castigarlos, o si prefiere acudir a ellos con los recursos que necesitan. Podemos utilizar la escala y la eficiencia que hacen que las ADM sean tan perniciosas para ayudar a la gente. Todo depende de la meta que nos fijemos.

* * *

En este capítulo hemos analizado hasta el momento modelos que filtran a los candidatos para un empleo. En la mayoría de las empresas, las ADM han sido diseñadas para recortar los costes administrativos y reducir el riesgo de contratar a personas inadecuadas (o a personas que puedan necesitar más formación). El objetivo de los filtros es, en pocas palabras, ahorrar dinero.
Los departamentos de recursos humanos, evidentemente, también hacen lo posible por ahorrar dinero a través de sus decisiones de contratación. Uno de los mayores gastos de una empresa es la rotación del personal. Sustituir a un empleado que gana 50.000 dólares al año le cuesta a la empresa unos 10.000 dólares o el 20 % del sueldo anual del trabajador, según el laboratorio de ideas Centro por el Progreso Estadounidense. [131] Y sustituir a un empleado de alto nivel puede costar varias veces esa cifra: puede llegar a costar hasta el doble de su sueldo anual.
Evidentemente, muchos modelos que se utilizan en la contratación intentan calcular la probabilidad de que el candidato permanezca en la empresa. Evolv, Inc., que ahora forma parte de Cornerstone OnDemand, ayudó a Xerox a buscar candidatos para su centro de atención telefónica, donde trabajan más de 40.000 personas. [132] El modelo de rotación de personal tenía en consideración algunos de los valores habituales, como el tiempo medio que el candidato había permanecido en sus empleos anteriores, aunque también estableció algunas correlaciones intrigantes. Las personas que el sistema clasificaba como del «tipo creativo» solían mantenerse durante más tiempo en el mismo empleo, mientras que aquellos que obtenían una puntuación alta en «curiosidad» presentaban una mayor probabilidad de dirigir sus mentes inquisitivas hada otras oportunidades.
No obstante, la correlación más problemática era la relacionada con la geografía. El modelo consideraba que era más probable que rotaran los candidatos que vivían más lejos de las instalaciones en las que debían ejercer su trabajo. Esta correlación tiene sentido: es agotador pasar mucho tiempo en el trayecto al trabajo. Sin embargo, los directivos de Xerox observaron otra correlación curiosa. Muchas de las personas que sufrían esos largos desplazamientos venían al trabajo desde barrios pobres. Y hay que decir a favor de Xerox que eliminaron del modelo estos datos geográficos pese a su alta correlación con la rotación de personal. La empresa sacrificó un poco de eficiencia a cambio de ser más justos.
Aunque el análisis de la rotación de personal se centra en los candidatos con mayor probabilidad de fracasar, la tarea más estratégicamente vital de los departamentos de recursos humanos consiste en encontrar a las futuras estrellas, las personas cuya inteligencia, inventiva y dinamismo pueden cambiar el curso de toda la empresa, En los niveles más altos de la economía, las empresas están a la caza de empleados creativos y que trabajen bien en equipo. El desafío del diseñador del modelo es identificar, en el amplio mundo del big data, los bits de información que están relacionados con la originalidad y con las competencias sociales.
No basta simplemente con los currículos. La mayoría de los elementos de los currículos —una universidad prestigiosa, los premios e incluso las competencias— son valores sustitutivos del trabajo de buena calidad. Aunque no hay duda de que existe cierta correlación entre las destrezas tecnológicas y un título de una de las mejores universidades, no es una correlación perfecta. Gran parte del talento en el mundo del software viene de otros lugares —pensemos en los hackers adolescentes—. Además, los currículos están llenos de exageraciones e incluso mentiras. Mediante una búsqueda rápida en LinkedIn o Facebook, un sistema puede hacer un análisis más detallado e identificar algunos de los amigos y colegas de un candidato, No obstante, sigue resultando difícil convertir esos datos en una predicción que permita afirmar que un ingeniero concreto sería el empleado perfecto para una consultora de doce socios en Palo Alto o Fort Worth. Encontrar a la persona adecuada para un puesto de ese tipo requiere revisar muchos más datos y la utilización de un modelo más ambicioso.
Gild, una start-up con sede en San Francisco, es pionera en este campo. [133] Gild va mucho más allá de la alma mater o del currículo de un candidato: revisa millones de sitios web de empleo y analiza lo que denomina los «datos sociales» de cada persona. La empresa desarrolla perfiles de candidatos para sus clientes, en su mayoría empresas tecnológicas, y les informa cuando los candidatos añaden nuevas competencias. Gild afirma que puede incluso predecir el momento en el que es probable que un empleado estrella cambie de trabajo y avisar así a sus clientes de cuándo es el mejor momento para hacer una oferta. El modelo de Gild intenta cuantificar y cualificar el «capital social» de cada trabajador. ¿Hasta qué punto está integrada esta persona en la comunidad de programadores? ¿Comparte código y ayuda a desarrollarlo? Imaginemos que un programador brasileño —llamémoslo Pedro— vive en Sao Paulo y todas las noches trabaja hasta la una de la mañana en colaboración con otros programadores de otras partes del mundo solucionando problemas de computación en la nube o participando en lluvias de ideas sobre algoritmos de videojuegos en sitios web como GitHub o Stack Overflow. El modelo podría intentar medir la pasión de Pedro (que probablemente obtendría una puntuación alta) y su nivel de compromiso con otras personas. También evaluaría la importancia social y la relevancia de las competencias de sus contactos, y los que tuvieran más seguidores contarían más. Si su principal contacto en línea fuera Serguéi Brin de Google o Palmer Luckey, fundador del desarrollador de realidad virtual Oculus VR, la puntuación social de Pedro se dispararía hasta la estratosfera.
No obstante, los modelos como el de Gild rara vez reciben señales tan explícitas de los datos, de modo que lanzan una red de mayor tamaño para buscar correlaciones con el estrellato profesional en cualquier sitio. Y teniendo en cuenta que Gild tiene una base de datos con más de seis millones de programadores, la empresa puede encontrar todo tipo de patrones. Vivienne Ming, científica jefe en Gild, declaró en una entrevista publicada en Atlantic Monthly que Gild había encontrado un conjunto de talentos que frecuentaban un sitio web de manga japonés específico. [134] Obviamente, el que Pedro pase tiempo en la página web de esa tienda de cómics no predice que vaya a ser una estrella, pero sí que le dará un empujón a su puntuación.
Esto funciona con Pedro, pero es posible que algunos trabajadores hagan otras cosas fuera de Internet, que incluso el algoritmo más sofisticado no sea capaz de deducir —al menos no en la actualidad—. Puede que pasen tiempo con sus hijos, por ejemplo, o que asistan a un grupo de lectura. El hecho de que un candidato no dedique seis horas todas las tardes a hablar de manga no debería puntuar negativamente. Además, si, como casi todo en el mundo tecnológico, la página web manga está dominada por hombres y tiene cierto tono sexual, es probable que un gran número de mujeres del sector eviten visitarla.
Aunque presenta estos problemas, Gild es solo un actor entre muchos. No tiene la influencia de un gigante mundial y su posición no le permite generalizar un único estándar en el sector. En comparación con algunos de los horrores que he visto —los anuncios depredadores que sepultan a familias enteras bajo montañas de deuda y los test de personalidad que excluyen a muchas personas de las oportunidades—, Gild es dócil. Su categoría de modelo predictivo se basa más en premiar a las personas que en castigarlas. No cabe duda de que el análisis es poco equitativo: seguro que pasan por alto algunas estrellas potenciales. Con todo, creo que los programas de identificación de talentos aún no han llegado al nivel de las ADM.
No obstante, es importante recordar que estos modelos de contratación y de «incorporación» de personal están continuamente evolucionando. El mundo de los datos sigue expandiéndose, ya que todos nosotros seguimos produciendo crecientes flujos de publicaciones sobre nuestras vidas. Todos estos datos serán utilizados por nuestros posibles empleadores para crearse una idea sobre nosotros.
¿Y verificarán después si las ideas que se han hecho de nosotros a través de esas publicaciones se corresponden con la realidad? ¿O utilizarán sus impresiones simplemente para justificar el statu quo y reforzar los prejuicios? Cuando pienso en las formas interesadas y poco rigurosas en las que las empresas utilizan los datos, a menudo me viene a la cabeza la frenología, una pseudociencia que estuvo de moda durante un breve periodo en el siglo XIX. Los frenólogos pasaban los dedos por el cráneo del paciente buscando protuberancias y hendiduras. Cada uno de estos elementos, según la frenología, estaba relacionado con distintos rasgos de la personalidad presentes en veintisiete regiones diferentes del cerebro. La conclusión del frenólogo solía coincidir con lo que observaba en el paciente. Si un paciente tenía ansiedad o sufría de alcoholismo, el análisis del cráneo solía revelar protuberancias y hendiduras que se correspondían con esa observación, lo que, a su vez, reforzaba la fe en la ciencia de la frenología.
La frenología era un modelo que se basaba en tonterías pseudocientíficas para hacer dictámenes autoritarios y durante décadas nadie comprobó su fiabilidad. El big data puede caer en la misma trampa. Modelos como los que activaron las alarmas ante Kyle Behm e impidieron matricularse a los estudiantes de medicina extranjeros en St. George pueden dejar a mucha gente fuera, aunque la «ciencia» que los sustente no sea más que un montón de suposiciones que nadie ha verificado.

Capítulo 7
Sudar balas. En el trabajo

Los trabajadores de las grandes corporaciones en Estados Unidos se han inventado recientemente un nuevo verbo: clopening (de close, «cerrar», y open, «abrir»). Es lo que hace un empleado que trabaja hasta el cierre por la noche en una tienda o un bar y vuelve unas horas más tarde, antes del amanecer, para abrir. El que un mismo empleado sea el que cierre y el que abra, es decir, el que haga el clopening, puede tener sentido para la empresa desde el punto de vista logístico, pero genera horarios absurdos para el personal y empleados que sufren por la falta de horas de sueño.
Cada vez es más habitual tener horarios muy irregulares, y estos afectan especialmente a los trabajadores con salarios bajos en empresas como Starbucks, McDonald’s y Walmart. La falta de preaviso agrava el problema. Muchos empleados se enteran con solo un día o dos de antelación de que tendrán que trabajar el turno de noche del miércoles o encargarse de la hora punta del viernes. Todo esto hace que en sus vidas reine el caos y hace estragos con su organización para el cuidado de los hijos. Duermen cuando pueden y pican algo de comer cuando tienen oportunidad de echarse algo a la boca.
Estos horarios irregulares son el resultado de la economía de los datos. En el último capítulo, vimos cómo las ADM analizan detalladamente a los candidatos a un puesto de trabajo, excluyen a algunos de ellos e ignoran a muchos más. Vimos cómo el software a menudo codifica prejuicios nocivos, ya que aprende de los registros previos a ser injusto. Aquí seguimos nuestro viaje y llegamos al puesto de trabajo, donde las ADM centradas en la eficiencia tratan a los trabajadores como simples engranajes de un mecanismo. El clopening es solo un producto más dentro de esta tendencia, que probablemente crecerá cuando la supervisión se extienda al lugar de trabajo y alimente aún más la economía de los datos.
Durante décadas antes de que las empresas nadaran entre datos, la organización de los horarios se hacía de forma intuitiva y no tenía nada que ver con la ciencia. Imaginemos una ferretería familiar, cuyos empleados trabajan de 9.00 a 17,00 de lunes a sábado. Un año, la hija mayor va a la universidad, y al volver analiza el negocio desde otra perspectiva. Se da cuenta de que casi nadie visita la tienda los martes por la mañana, con lo que la dependienta se pasa la mañana navegando desde el móvil, sin interrupción. Ahí se están perdiendo ingresos. Por el contrario, los sábados los clientes refunfuñan por tener que esperar un buen rato haciendo cola.
La hija recopila datos muy valiosos mediante la observación de lo que ocurre cada día y ayuda a sus padres a modelar el negocio teniendo toda esa información en consideración. Deciden, por tanto, cerrar la tienda los martes por la mañana y contratar a un empleado a tiempo parcial para ayudarlos con la aglomeración del sábado. Estos cambios aportan un poco de inteligencia al obtuso e inflexible statu quo.
En el caso del big data, en lugar de una estudiante universitaria de primer curso, tenemos a legiones de doctorados armados con poderosos ordenadores. En la actualidad, los negocios pueden analizar el flujo de clientes y calcular de forma precisa el número de empleados que necesitarán cada hora del día. El objetivo, evidentemente, es gastarlo menos posible, lo que significa mantener el personal al mínimo indispensable y asegurarse de contar con refuerzos disponibles para los periodos de alta ocupación.
Podríamos pensar que los patrones deben repetirse semana tras semana y que las empresas podrían simplemente hacer ciertos ajustes en los horarios fijos semanales, al igual que los propietarios de nuestra hipotética ferretería. Sin embargo, los nuevos programas de software para la planificación de horarios ofrecen opciones mucho más sofisticadas. Procesan nuevos flujos de datos en constante cambio, desde el tiempo atmosférico hasta las pautas que siguen los peatones. En una tarde lluviosa, por ejemplo, es más probable que la gente vaya a una cafetería en vez de al parque, por lo que hará falta más personal, al menos durante un par de horas. El que se celebre un partido de fútbol del instituto un viernes noche puede significar que habrá más gente paseando por la calle principal, pero solo antes y después del partido, no durante el encuentro. El volumen de movimiento en Twitter sugiere que un 26 % más de compradores se echará a la calle para aprovechar las rebajas del próximo Black Friday en comparación con el año pasado. Las condiciones cambian cada hora y la mano de obra debe desplegarse para ajustarse a la demanda fluctuante. De lo contrario, la empresa perdería dinero.
Naturalmente, el dinero que las empresas se ahorran viene directamente del bolsillo de los empleados. Con un statu quo ineficiente, los trabajadores no solo tenían horarios predecibles, sino también cierta cantidad de tiempo muerto. Podríamos decir que se beneficiaban de la ineficiencia: algunos podían leer en el trabajo o incluso estudiar. Sin embargo, ahora que el software organiza el trabajo, cada minuto debe estar ocupado. Y estos minutos se trabajarán cuando el programa lo exija, incluso si esto significa cerrar tarde el viernes y abrir de madrugada el sábado.
En 2014, el New York Times publicó la historia de una madre soltera llamada Jannette Navarro, que intentaba estudiar en la universidad al tiempo que trabajaba de barista en Starbucks y criaba a su hijo de cuatro años. [135] Los constantes cambios en el horario de trabajo y el clopening que le tocaba hacer de vez en cuando le hacían la vida imposible y le impedían poder recurrir a una guardería normal. Tuvo que dejar de estudiar. No podía encajar nada más que el trabajo. Y su historia es recurrente. Según los datos del Gobierno de Estados Unidos, dos tercios de los trabajadores del sector de los servicios de restauración y más de la mitad de los dependientes de las tiendas son informados de cambios en sus horarios con una semana o menos de antelación; a menudo les avisan solo uno o dos días antes, por lo que se vuelven locos para organizar el transporte o el cuidado de los hijos.
Pocas semanas después de la publicación del artículo, las grandes empresas que se mencionaban en él anunciaron que cambiarían su manera de planificar los horarios. [136] Avergonzados por la historia, prometieron añadir una única limitación a su modelo: eliminarían el clopening y aprenderían a vivir con una optimización ligeramente menos eficaz. Starbucks, cuya marca se basa en gran medida en la imagen de ser una empresa que trata bien a sus empleados, fue más allá y declaró que la empresa ajustaría el software para minimizar la pesadilla de los horarios de sus 130.000 baristas: se anunciarían los horarios de trabajo con al menos una semana de antelación.
No obstante, según un reportaje posterior del Times, un año después Starbucks seguía sin cumplir estos objetivos, y ni siquiera había suprimido el clopening. [137] El problema era que la idea de tener el mínimo personal posible estaba profundamente arraigada en la cultura de la empresa. En muchas empresas, el sueldo de los encargados depende de la eficiencia de su personal en términos de ingresos por hora de trabajo. Los programas de software de planificación de horarios les ayudan a incrementar esos ingresos y su propia remuneración. Incluso cuando los jefes piden a los encargados que aflojen el ritmo, estos normalmente se resisten. Va en contra de todo lo que les han enseñado. Es más, si un encargado de Starbucks supera el número de horas de trabajadores asignado a su cafetería, el jefe de distrito recibe una alerta automática, comenta un empleado. Y esto puede acabar en una amonestación. Suele ser más fácil cambiar el turno de alguno de los baristas, incluso si eso significa incumplir el compromiso de la empresa de avisar con una semana de antelación.
Al final, los modelos corporativos de las empresas que cotizan en bolsa como Starbucks están concebidos para alimentar la cuenta de beneficios. Esto se refleja en sus culturas corporativas, en sus incentivos y, cada vez más, en sus softwares de explotación (y si ese software permite modificaciones, como el de Starbucks, los ajustes que se suelen introducir son los que aumentan los beneficios).
Gran parte de la tecnología de planificación proviene de una poderosa disciplina de las matemáticas aplicadas llamada «investigación de operaciones» o IO. Durante siglos, los matemáticos han usado los principios de la IO para ayudar a los agricultores con la plantación de sus cultivos o a los ingenieros civiles con el trazado de autovías para transportar personas y bienes de manera eficaz. No obstante, esta disciplina no despegó realmente hasta la Segunda Guerra Mundial, cuando las Fuerzas Armadas británicas y estadounidenses comenzaron a reclutar equipos de matemáticos para optimizar el uso de sus recursos. Los aliados mantenían un seguimiento de varias formas de un «factor de conversión» que comparaba los recursos que utilizaban con los recursos de los enemigos que conseguían destruir. [138] Durante la Operación Hambruna, que se llevó a cabo entre marzo y agosto de 1945, la misión del XXI Mando de Bombardeo consistía en destruirlos buques mercantes japoneses para impedir que los alimentos y otros artículos llegaran a las costas de Japón. Los equipos de IO se centraron en maximizar el número de barcos japoneses hundidos por cada avión lanzaminas perdido. Lograron un «factor de conversión» de más de 40 a 1: solo se perdieron 15 aviones y lograron hundir 606 barcos japoneses. Esta operación se consideró muy eficiente y esto fixe posible, en parte, gracias al trabajo del equipo de IO.
Después de la Segunda Guerra Mundial, las empresas más importantes (al igual que el Pentágono) invirtieron muchísimos recursos en IO. [139] La ciencia de la logística transformó radicalmente la manera en que se producían y se llevaban productos al mercado.
En la década de 1960, las fábricas japonesas de automóviles dieron otro gran paso al concebir el sistema de fabricación que denominaron Justo a Tiempo. [140] La idea consistía en que, en lugar de almacenar montones de volantes o sistemas de transmisión y tener que ir a buscarlos a almacenes gigantescos, la planta de montaje pediría las piezas según las fuera necesitando y dejaría de pagar para tenerlas guardadas sin sacarles ningún beneficio. Tanto Toyota como Honda organizaron complejas cadenas de proveedores que mandaban constantemente las piezas según las iban solicitando. Era como si el sector fuese un organismo único, con sus propios sistemas de control homeostático.
El método Justo a Tiempo era altamente eficiente y se propagó por todo el globo con mucha rapidez. Empresas de diferentes latitudes consiguieron organizar cadenas de suministro del tipo Justo a Tiempo en un dos por tres. Estos modelos constituyen asimismo los fundamentos matemáticos de empresas como Amazon, Federal Express o UPS.
Los programas de planificación pueden interpretarse como una ampliación de esta economía del Justo a Tiempo con la diferencia de que, en lugar de recibir las hojas de corte para los cortacéspedes o las pantallas para los teléfonos móviles en el momento necesario, en estas empresas son las personas las que vienen cuando las llaman, normalmente personas que necesitan dinero desesperadamente. Y precisamente porque necesitan dinero desesperadamente, las empresas se permiten doblegar sus vidas ante los dictados de un modelo matemático.
Debería añadir aquí que las empresas toman ciertas medidas para que la vida de sus empleados no sea demasiado miserable. Todas conocen con absoluta precisión el precio de remplazar a un trabajador quemado que acaba dimitiendo. Esas cifras también están incluidas entre los datos que manejan las empresas, que cuentan además con otros modelos, como los que hemos mencionado en el capítulo anterior, para reducir la rotación del personal, que resta beneficios y eficiencia.
Desde la perspectiva de los empleados, el problema reside en que hay un exceso de oferta de mano de obra mal pagada. La gente está desesperada por trabajar, lo que explica por qué muchos se aferran a empleos en los que apenas cobran 8 dólares la hora. Este exceso de oferta, sumado a la falta de sindicatos eficaces, deja a los trabajadores prácticamente sin ningún poder de negociación, con lo que las grandes cadenas de tiendas y restaurantes pueden someter la vida de sus trabajadores a horarios crecientemente absurdos sin sufrir una rotación de personal excesiva. Generan cada vez más ingresos a costa de convertir las vidas de sus empleados en un infierno. Y, debido a que estos programas de optimización están en todas partes, los trabajadores saben perfectamente que su suerte no mejorará aunque cambien de empleo. Estas dinámicas combinadas proporcionan a las empresas una mano de obra casi esclava.
Seguramente el Lector ya habrá imaginado que considero que estos programas de planificación de horarios constituyen una de las más abominables ADM, Es gigantesca, algo de lo que ya hemos hablado, y se aprovecha de las personas a las que les cuesta llegar a fin de mes. Es más, es completamente opaca. A menudo los trabajadores no tienen ni idea de cuándo les van a llamar para trabajar. Los convoca un programa arbitrario.
Estos programas de software también crean un bucle de retroalimentación nocivo. Pensemos en Jannette Navarro. Su caótico horario le impidió retomar las clases, lo que reducía sus perspectivas de empleo y la mantenía como una más del excedente de oferta de trabajadores mal pagados. Los largos e irregulares horarios de trabajo también hacen que sea difícil para los trabajadores organizarse y protestar para mejorar sus condiciones. De hecho, sufren elevados niveles de ansiedad y falta de sueño, lo que les provoca drásticos cambios de humor, y se estima que ese agotamiento es la causa del 13 % de los accidentes de carretera. Y, lo que es aún peor, dado que el software está diseñado para hacer que las empresas ahorren el máximo posible, a menudo limita las horas de trabajo de los empleados a menos de 30 horas semanales, lo que significa que quedan excluidos del seguro médico de la empresa. Además, con estos horarios caóticos, a la mayoría le resulta imposible encontrar tiempo para un segundo trabajo. Da la sensación de que el software hubiera sido diseñado para castigar expresamente a los trabajadores con los salarios más bajos e impedirles que puedan hacer cualquier otra cosa.
El software también condena a muchos de nuestros hijos a crecer sin rutinas y a tener que ver a sus madres medio dormidas a la hora del desayuno, saliendo con prisas de casa justo antes de la hora de cenar o discutiendo con las abuelas sobre quién cuidará de ellos el domingo por la mañana. Esta vida caótica afecta a los niños profundamente. Según un estudio del Instituto de Política Económica, una organización de defensa de los derechos de los ciudadanos, «los hijos pequeños y los adolescentes de aquellos padres que trabajan con horarios impredecibles o fuera del horario laboral habitual de día tienen una mayor probabilidad de presentar resultados cognitivos y conductuales inferiores». [141] Puede que los padres se culpen a sí mismos por tener un hijo que se comporta mal o al que le va mal en la escuela, pero, en muchos casos, la verdadera culpable es la pobreza que obliga a los trabajadores a aceptar empleos con horarios caóticos (y los modelos de planificación que aprietan en particular a las familias con problemas).
La raíz del problema está, como en el caso de tantísimas otras ADM, en los objetivos que eligen los que diseñan el modelo. El modelo ha sido optimizado para lograr la mayor eficiencia y rentabilidad, no para favorecer la justicia o el bienestar del «equipo». Evidentemente, esta es la naturaleza del capitalismo. Para las empresas, los ingresos son como el oxígeno, algo esencial para mantenerse con vida. Desde su punto de vista, sería tremendamente estúpido, incluso antinatural, renunciar a posibles ahorros. Esta es la razón de que la sociedad necesite fuerzas que las contrarresten, como una cobertura mediática poderosa que visibilice los abusos cometidos en nombre de la eficiencia y que ponga en evidencia a las empresas que no hagan lo correcto. Además, cuando las empresas incumplen sus compromisos, como hizo Starbucks, los medios deben exponerlas una y otra vez. También hacen falta reguladores para mantenerlas a raya, sindicatos fuertes para organizar a los trabajadores y dar voz a sus necesidades y quejas, así como políticos que estén dispuestos a aprobar leyes que frenen los peores excesos de las grandes empresas. Según el reportaje que el New York Times publicó en 2014, los congresistas demócratas elaboraron diligentemente varios proyectos de ley para poner límites a los programas de software de planificación de horarios. No obstante, dado que la mayoría republicana se oponía ferozmente a la regulación gubernamental, la probabilidad de que estos proyectos de ley llegaran a ser adoptados era nula. La propuesta legislativa no pasó de ahí. [142]

* * *

En 2008, justo cuando se acercaba la Gran Recesión, una empresa de San Francisco llamada Cataphora lanzó al mercado un software que evaluaba a los trabajadores del sector tecnológico en una serie de aspectos, incluida su capacidad para generar ideas nuevas, una tarea nada sencilla. [143] A los programas de software, al fin y al cabo, les cuesta distinguir una idea de una simple secuencia de palabras. Si lo pensamos bien, esta diferencia es, a menudo, cuestión de contexto. Las ideas creativas del pasado —que la tierra fuera redonda o incluso que a la gente le pudiese gustar compartir fotos en redes sociales— son hechos en el presente. Cada ser humano tendrá una opinión sobre cuándo una idea se convierte en un hecho consolidado y cuándo ha sido desbancada o desechada (aunque a menudo no estemos de acuerdo entre nosotros). Sin embargo, esta distinción desconcierta incluso a la más sofisticada inteligencia artificial, de modo que el sistema de Cataphora tuvo que tomar a los propios humanos como guía.
El software rebuscó entre el correo electrónico y los mensajes de la empresa buscando ideas. La hipótesis de partida era que las mejores ideas tendrían una mayor difusión en la red. Si la gente copiaba y pegaba ciertos grupos de palabras para después compartirlas, era probable que esas palabras fueran ideas y el software podía cuantificarlas.
Sin embargo, hubo complicaciones. Las ideas no eran los únicos grupos de palabras que la gente compartía mucho en las redes sociales. Las bromas, por ejemplo, se hacían virales a un ritmo salvaje y confundían mucho a los sistemas de software. El cotilleo también viajaba a toda velocidad. A pesar de estas dificultades, las bromas y los cotilleos seguían determinados patrones, por lo que era posible enseñar al programa a filtrar al menos algunos de ellos. Con el tiempo, el sistema llegó a identificar los grupos de palabras que con más probabilidad representaban ideas. Les seguía la pista a través de la red, contando el número de veces que eran copiadas, midiendo su distribución e identificando su fuente.
Pronto, los roles de los empleados comenzaron a esclarecerse. El sistema llegó a la conclusión de que algunas personas eran generadoras de ideas. En su gráfica de empleados, Cataphora señalaba a estos generadores con círculos, que se hacían más grandes y oscuros si producían muchas ideas. Otras personas eran conectores. Como las neuronas de una red distribuida, transmitían información. Los conectores más efectivos hacían virales secuencias de palabras. El sistema marcaba a estas personas también con colores oscuros.
Ahora bien, independientemente de que el sistema estuviera midiendo de forma efectiva el flujo de ideas o no, el concepto en sí no era perverso. Puede tener sentido usar este tipo de análisis para identificar qué sabe hacer una persona y colocarla así junto con los compañeros y colaboradores con los que trabajará mejor. IBM y Microsoft usan programas internos para hacer precisamente eso. Es muy parecido a un algoritmo de citas (y sin duda tendrá también resultados desiguales). El big data ha sido usado asimismo para estudiar la productividad de los trabajadores de centros de atención telefónica.
Hace unos años, investigadores del MIT analizaron el comportamiento de los empleados del servicio de atención al cliente de Bank of America para averiguar por qué algunos equipos eran más productivos que otros. [144] Les colocaron a cada uno de ellos un dispositivo alrededor del cuello, que denominaron medalla sociométrica. El sistema electrónico de estas medallas rastreaba la localización de los empleados y medía su tono de voz y sus gestos cada 16 milisegundos. Registraba cuándo dos personas se miraban la una a la otra y cuánto hablaba, escuchaba e interrumpía cada una de ellas. Cuatro equipos de empleados del centro —80 personas en total— llevaron puestas estas medallas durante seis semanas.
El trabajo de estos trabajadores estaba muy reglamentado. Se les recomendaba no hablar entre ellos porque se suponía que debían pasar el mayor número de minutos posible al teléfono, resolviendo los problemas de los clientes. Los descansos para el café estaban planificados en una secuencia, uno a uno.
Para su sorpresa, los investigadores descubrieron que el equipo más rápido y eficiente de todo el centro de atención telefónica era también el más sociable. Estos empleados se saltaban las normas y charlaban mucho más que los demás, Y cuando la empresa dio el paso de animar a todos los empleados a socializar más, la productividad del centro de atención telefónica se disparó.
Sin embargo, los estudios de datos que rastrean el comportamiento de los empleados pueden utilizarse también para hacer una criba entre la mano de obra. Cuando la recesión de 2008 arrasaba la economía, los responsables de recursos humanos del sector tecnológico empezaron a mirar los gráficos de Cataphora con un nuevo propósito. Vieron que muchos trabajadores estaban representados como grandes círculos oscuros, mientras que otros eran más pequeños y tenues. Si tenían que despedir a alguien, y la mayoría de las empresas tenían que hacerlo, tenía sentido empezar con los más pequeños y tenues de la gráfica.
Pero ¿eran esos trabajadores realmente prescindibles? Una vez más, damos con la frenología digital. Sí un sistema apunta a que un trabajador no genera muchas ideas o es un conector débil, este veredicto se convierte en la verdad. Esa es su calificación.
Quizá alguien pueda aportar pruebas que demuestren lo contrario. Es posible que el empleado con el círculo tenue genere ideas fantásticas, pero que no las comparta a través de la red. O quizá dé valiosísimos consejos a sus compañeros durante el almuerzo o sea la persona que relaja las tensiones en la oficina con un chiste en el momento adecuado. Quizá sea una empleada que se lleva bien con todo el mundo, una cualidad muy valiosa en un lugar de trabajo. Sin embargo, a los sistemas informáticos no se les da bien encontrar valores sustitutivos digitales para esta dase de habilidades interpersonales. Simplemente no se recogen los datos pertinentes y, aunque así fuera, otorgarles un valor resulta complicado. Suele ser más sencillo dejarlos fuera del modelo.
De esta forma, el sistema identifica a los aparentes perdedores. Muchos de ellos se quedaron en la calle durante la crisis. Esto por si solo ya es injusto, pero lo peor es que los sistemas como el de Cataphora reciben una cantidad mínima de datos de retroalimentación. Puede que alguien a quien el sistema identificara como perdedor y que, por consiguiente, acabara de patitas en la calle encontrara después un empleo en el que generara montones de patentes. No suelen recopilarse estos datos. El sistema no se entera nunca de si se ha equivocado con una persona o incluso con miles de ellas.
Y esto supone un problema, porque los científicos necesitan la retroalimentación de errores —en este caso, la presencia de falsos negativos— para profundizar en los análisis forenses y averiguar qué salió mal, qué fue malinterpretado y qué datos fueron ignorados. Así es como los sistemas aprenden y se vuelven más inteligentes. No obstante, como hemos visto, muchísimas ADM crean alegremente su propia realidad, desde los modelos de reincidencia hasta las puntuaciones de los docentes. Los directores asumen que las calificaciones son lo suficientemente válidas para ser útiles, y el algoritmo les facilita las decisiones difíciles. Pueden decidir a quién despedir para reducir costes y responsabilizar de la decisión a un número objetivo, sea o no certero.
Cataphora no creció mucho, y su modelo de evaluación de trabajadores no fue más que una actividad secundaria —gran parte de su trabajo consistía en identificar patrones de fraude o tráfico de influencias dentro de las empresas—. En 2012, Cataphora liquidó el negocio y vendió su software a una start-up, Chenope. No obstante, no debemos olvidar que los sistemas de este tipo tienen el potencial de convertirse en verdaderas ADM. Pueden malinterpretar a las personas y castigarlas sin prueba alguna de que sus calificaciones correspondan a la calidad de su trabajo.
Este tipo de software marca el auge de las ADM en un nuevo terreno. Durante algunas décadas pudo parecer que únicamente los obreros industriales y los trabajadores de servicios podían ser modelados y optimizados, mientras que los que trabajan con ideas, desde abogados a ingenieros químicos, podían evitar las ADM, al menos en el trabajo. Cataphora fue un primer aviso de que esto no será siempre así. De hecho, muchas empresas del sector tecnológico están tratando de optimizar a su personal cualificado a través del análisis de sus patrones de comunicación. Los gigantes tecnológicos, entre los que se incluyen Google, Facebook, Amazon, IBM y muchos más, están avanzando en este sentido.
Al menos por ahora se agradece esta diversidad. Nos hace mantener la esperanza en que los trabajadores que sean rechazados por un modelo podrían ser apreciados por otro. Aunque al final se acabará imponiendo una norma en todo el sector, y entonces todos lo pasaremos mal.

* * *

En 1983, la administración Reagan dio una sensacionalista voz de alarma sobre la situación en la que se encontraban los centros educativos estadounidenses. En un informe titulado A Nation at Risk, un comité asesor del presidente advertía de una «creciente marea de mediocridad» en los centros educativos que amenazaba «nuestro futuro como Nación y como pueblo». [145] El informe también decía que si «una potencia extranjera hostil» hubiese tratado de imponernos estos pésimos centros educativos, «bien podríamos haberlo interpretado como un acto de guerra».
El signo más notable de este fracaso fue lo que parecía una caída en picado en las notas de los exámenes de acceso a la universidad SAL Entre 1963 y 1980, las notas en competencias lingüísticas habían caído 50 puntos y las de matemáticas habían bajado 40 puntos. Nuestra capacidad para competir en una economía global se basaba en nuestras habilidades, y estas parecían estar empeorando.
¿A quién habría que culpar por este lamentable estado de la cuestión? El informe no dejaba lugar a dudas. A los maestros y los profesores. El informe Nation at Risk exigía que se tomasen medidas, lo que se tradujo en la realización de pruebas a los alumnos… y en la utilización de los resultados de dichas pruebas para identificar a los maestros y profesores con bajo rendimiento. Como vimos en el capítulo de introducción, esta práctica puede llegar a costarles el empleo a los docentes, Sarah Wysocki, la maestra de Washington D. C a la que despidieron cuando su clase sacó notas sorprendentemente bajas, fue víctima de tales pruebas. Con el caso de Sarah intenté explicar cómo actúan las ADM, lo arbitrarias e injustas que pueden llegar a ser y que no admiten apelaciones.
Los maestros, además de ser los educadores y cuidadores de nuestros hijos, son, evidentemente, trabajadores. En este sentido quiero profundizar un poco más en los modelos que puntúan su rendimiento, puesto que podrían aplicarse en el futuro a los trabajadores de otros sectores. Consideremos el caso de Tim Clifford, un profesor de secundaria que enseña Lengua y Literatura en Nueva York, con veintiséis años de experiencia. [146] Hace unos años, Clifford descubrió que había suspendido la evaluación de docentes conocida como el modelo de valor añadido, similar a la que propició el despido de Sarah Wysocki La puntuación de Clifford había sido un ridículo 6 sobre 100.
Clifford estaba destrozado. «No podía entender cómo era posible que, después de haber trabajado tan duro, obtuviese esos resultados —me explicó más tarde—. A decir verdad, cuando vi por primera vez mi puntuación, me sentí avergonzado y no se lo conté a nadie hasta que no pasaron un par de días. Sin embargo, descubrí que había otros dos profesores en nuestro centro que habían puntuado por debajo de mí. Eso me alentó a hablar de mis resultados, porque quería que esos profesores supieran que no eran los únicos». [147]
Tim Clifford me contó que si no hubiese tenido una plaza fija, podrían haberlo despedido ese mismo año. «Incluso con la plaza fija, una puntuación baja en años consecutivos acaba poniéndote en cierta medida bajo el punto de mira». Es más, si los profesores fijos sacan puntuaciones bajas, los partidarios de reformar la enseñanza se envalentonan y aprovechan para argumentar que la seguridad laboral protege a educadores incompetentes, Clifford se enfrentó al siguiente curso con una gran inquietud.
El modelo de valor añadido le había dado un suspenso, pero ningún consejo sobre cómo mejorarlo. Conque Clifford siguió dando clase como siempre lo había hecho y confió en que saldría bien. Al año siguiente su puntuación fue de 96.
«Cualquiera podría pensar que me puse eufórico, pero no fue así —dijo—. Sabía que mi puntuación del 6 % había sido un fraude, por lo que tampoco podía alegrarme de haber obtenido una puntuación alta con la misma fórmula errónea que me había suspendido. La diferencia de un 90 % en mis puntuaciones no hizo más que ayudarme a darme cuenta de lo ridículo que era el modelo del valor añadido en su conjunto para el sector educativo».
Fraude es la palabra que mejor lo define. De hecho, las estadísticas malinterpretadas aparecen continuamente en la historia de la evaluación docente. El problema comenzó con una metedura de pata estadística crucial en los análisis del informe original Nation at Risk. Resultó que los investigadores que denunciaban una catástrofe nacional basaron sus juicios en un error básico, algo que cualquier estudiante universitario podría haber detectado. De hecho, si querían ejemplificar las deficiencias educativas de Estados Unidos, su propio error en la interpretación de las estadísticas podría servir como prueba número uno.
Siete años después de la sonada publicación del informe Nation at Risk, unos investigadores de los Sandia National Laboratories echaron un segundo vistazo a los datos recogidos por el informe. [148] Esta gente no eran aficionados en lo que a estadística se refiere —se dedican a la construcción y el mantenimiento de armas nucleares— y localizaron en seguida el error. Sí, era cierto que la media de las puntuaciones en el examen SAT había bajado. No obstante, el número de alumnos que se presentaban al examen se había multiplicado a lo largo de aquellos diecisiete años. Las universidades abrían sus puertas a estudiantes más pobres y a las minorías. Las oportunidades crecían. Todo esto eran señales de éxito social. Aunque, naturalmente, el influjo de los recién llegados minaba las puntuaciones medias. Sin embargo, cuando los estadísticos descompusieron a la población en diferentes grupos de renta, las puntuaciones de cada uno de los grupos individualmente habían subido, desde los más pobres a los más ricos.
Este fenómeno es conocido en estadística como la paradoja de Simpson: se da cuando un conjunto de datos muestra una tendencia, pero, al descomponer dicho conjunto en subgrupos, aparece la tendencia opuesta en cada uno de ellos individualmente. [149] La irrefutable conclusión del informe Nation at Risk, la que impulsó todo el movimiento de evaluación docente, había sido extraída de una grave malinterpretación de los datos.
Las puntuaciones divergentes de Tim Clifford son el resultado de otro caso más de chapuza estadística, un caso excesivamente habitual. Las puntuaciones de los profesores que se obtenían a partir de las pruebas de los alumnos no medían nada. Entiendo que esto puede sonar exagerado. Al fin y al cabo, los chicos hacían pruebas y sus puntuaciones contribuían a la de Tim Clifford. Todo eso es muy cierto. Sin embargo, las puntuaciones de Clifford, tanto el humillante 6 como el dignísimo 96, se basaban en unas aproximaciones tan débiles que acababan siendo esencialmente aleatorias.
El problema se debió a que los responsables se desviaron de la precisión por querer ser justos. Comprendían que no estaba bien otorgarles un exceso de reconocimiento a los maestros y profesores de los centros ricos poique los hijos e hijas de doctores y abogados despegaran hacia las universidades de élite. Tampoco podían exigirles los mismos niveles de resultados a los docentes de los distritos pobres. No podíamos pretender que obrasen milagros.
De modo que, en vez de valorar a los maestros y profesores conforme aúna escala absoluta, intentaron ajustar el modelo a las desigualdades sociales. En lugar de comparar a los alumnos de Tim Clifford con otros alumnos de otros barrios, los compararían con la previsión que diera el modelo sobre esos mismos alumnos. El modelo predecía una puntuación futura para cada alumno. Si los alumnos superaban las puntuaciones que el modelo había pronosticado para ellos, el profesor obtenía el reconocimiento, y si no se acercaban a ellas, se le culpaba de ello. ¿Parece algo primitivo? Pues sí, efectivamente lo es.
Desde el punto de vista estadístico, al intentar desvincular las pruebas que hacían los alumnos de la clase y de la raza, los directivos pasaron de un modelo primario a uno secundario. En lugar de basar las puntuaciones en evaluaciones directas de los alumnos, lo hicieron en el denominado término de error (la distancia entre los resultados y las previsiones). Matemáticamente, esta proposición es mucho más incompleta. Dado que las previsiones en sí se derivan de estadísticas, acaban resultando en conjeturas derivadas de conjeturas. El producto es un modelo con montones de resultados aleatorios, lo que los estadísticos llaman «ruido».
Ahora bien, podríamos pensar que si se considera un número de alumnos lo suficientemente grande, se aclararía el valor de las puntuaciones. Al fin y al cabo, la ciudad de Nueva York, con sus 1100 millones de alumnos en centros públicos, debería proporcionar las suficientes series de datos como para hacer predicciones significativas. Si 80.000 alumnos de octavo curso (el equivalente a segundo de secundaria) realizan la prueba, ¿no sería factible establecer medias fiables tanto para los centros con problemas como para los que son excelentes y para los que se sitúan entre los dos extremos?
La respuesta es sí. Y si Tim Clifford diese clase a una amplia muestra de alumnos, digamos a unos 10.000, entonces sería razonable comparar esa cohorte con la media del año anterior y extraer algunas conclusiones. Los números grandes compensan las excepciones y los casos atípicos. Teóricamente esto permitiría identificar claramente las tendencias. Sin embargo, es casi imposible que una clase de veinticinco o treinta alumnos se corresponda con una población mucho mayor. Conque, si en una clase hay un determinado tipo de alumnos, estos tenderán a elevar más rápido la media. Otros lo harán más lentamente. A Clifford apenas se le dio información sobre la opaca ADM que le otorgó unos resultados tan extremadamente divergentes, pero él sospechaba que la diferencia entre los grupos a los que dio clase el primer año y los del siguiente tendría algo que ver. Tim Clifford decía lo siguiente sobre el año en que obtuvo la puntuación tan baja: «Daba clase a muchos alumnos de educación especial y también a muchos alumnos brillantes. Y creo que tanto trabajar con los que más necesidades tienen como con los mejores estudiantes —o con ambos— trae problemas. Es complicado conseguir que suban las puntuaciones de los alumnos con necesidades por sus problemas de aprendizaje, y también es difícil conseguir cambios en las notas de los mejores estudiantes porque ya tienen una puntuación tan alta que hay poco margen de mejora».
Al año siguiente, Clifford tuvo una combinación diferente de alumnos, muchos de ellos situados entre esos dos extremos. Y los resultados del modelo hicieron parecer que Tim Clifford había pasado de ser un profesor deficiente a un docente espectacular. Este tipo de resultados eran demasiado frecuentes. Un análisis realizado por Gary Rubinstein, un bloguero y educador, demostró que uno de cada cuatro profesores que enseñaban la misma asignatura en años consecutivos registraba una diferencia de 40 puntos en el modelo. [150] Esto sugiere que los datos de evaluación son prácticamente aleatorios. No era el rendimiento de los profesores lo que variaba de un año a otro, lo que variaba era la puntuación generada por un ADM que era un auténtico fraude.
Pese a que sus puntuaciones no tienen sentido alguno, el impacto del modelo de valor añadido es generalizado y muy dañino. «He visto a profesores geniales que, al ver los resultados de esas puntuaciones, empezaron a pensar que podían considerarse mediocres como mucho —dice Clifford—. Dejaron de dar las estupendas clases que solían impartir y se centraron cada vez más en la preparación de las pruebas de final de año. Un profesor joven sufrirá si saca una puntuación baja en el modelo de valor añadido, mientras que, si saca una puntuación alta, puede tener la falsa sensación de haber alcanzado importantes logros que aún no se ha ganado».
Como en el caso de tantas otras ADM, el modelo de valor añadido nació de las buenas intenciones. La administración Obama pronto se percató de que los distritos perjudicados a consecuencia de las reformas de la ley de 2001 denominada «Que ningún niño se quede atrás», que imponían unas pruebas homologadas muy exigentes, solían ser los más pobres y desfavorecidos. En consecuencia, decidió otorgar exenciones a los distritos que pudiesen demostrar la efectividad de sus maestros y profesores para asegurarse de que dichos centros no resultarían perjudicados aunque sus alumnos se quedaran rezagados. [151]
La utilización de modelos de valor añadido nace en gran parte de este cambio legislativo. Sin embargo, a finales de 2015, la moda de la evaluación de los docentes tomó lo que podría ser un giro aún más dramático. En primer lugar, el Congreso y la Casa Blanca acordaron derogar la Ley «Que ningún niño se quede atrás» y sustituirla por una que diese a los estados mayor libertad para llevar a cabo sus propias estrategias de mejora de los distritos escolares con bajo rendimiento. [152] También se les otorgó un abanico más amplio de criterios que podían considerar, como la implicación de los alumnos y de los profesores, el acceso a trabajo avanzado del curso, el ambiente escolar o la seguridad. En otras palabras, los responsables de educación podían empezar a estudiar lo que ocurre en cada centro individual, y prestar menos atención a las ADM similares a los modelos de valor añadido. O, mejor aún, desecharlas por completo.
Aproximadamente en esa misma época, la comisión especial de educación del gobernador de Nueva York, Andrew Cuomo, anunció una moratoria de cuatro años en el uso de exámenes para evaluar a maestros y profesores. [153] A pesar de ser bien recibido, este cambio no marca un rechazo claro a las ADM de evaluación docente, ni mucho menos el reconocimiento de que son injustas. De hecho, la presión provenía de los padres, que se quejaban de que el régimen de pruebas dejaba exhaustos a sus hijos y consumía demasiado tiempo del curso académico. En la primavera de 2015, un movimiento de boicot impidió que un 20 % de los alumnos de tercero a octavo curso (equivalentes a tercero de primaria y segundo de secundaria) realizasen las pruebas. [154] Este movimiento sigue creciendo. Cediendo ante los padres, la administración Cuomo asestó un duro golpe a los modelos de valor añadido. Al fin y al cabo, si no podía hacer las pruebas a todos los alumnos, el estado carecería de los datos necesarios para alimentar el modelo.
Tim Clifford se alegró mucho de esta noticia, aunque sigue preocupado. [155] «El movimiento de boicot forzó a Cuomo a doblegarse —escribía en un correo—. Temía perder el apoyo de los votantes más ricos de los mejores distritos escolares, que fueron precisamente los que más incondicionalmente lo apoyaron. Ha otorgado esta moratoria sobre el uso de las puntuaciones de las pruebas para olvidarse del asunto». Clifford teme que las pruebas volverán.
Y es posible que así sea, Y puesto que los modelos de valor añadido han resultado una herramienta efectiva contra los sindicatos de enseñantes, no creo que lleguen a desaparecer en el futuro cercano. [156] Están bien afianzados; el distrito de Columbia y cuarenta estados en todo el país los usan o desarrollan de una forma u otra. Esta es una razón más para hacer correr la voz sobre estas y otras ADM. Cuando la gente las reconozca y comprenda sus defectos estadísticos, exigirán evaluaciones más justas, tanto para los alumnos como para los docentes. Sin embargo, si el objetivo de las pruebas es encontrar a alguien a quien echarle la culpa e intimidar a los trabajadores, entonces, como hemos visto, un ADM que escupe puntuaciones sin sentido saca un sobresaliente.

Capítulo 8
Daños colaterales. Conseguir crédito

Los banqueros locales iban antes con la cabeza bien alta en las ciudades pequeñas. Controlaban el dinero. Si alguien quería un coche nuevo o una hipoteca, se ponía sus mejores galas para ir aver al banquero. Y, como miembro de la comunidad, el banquero probablemente conocería bastantes detalles de la vida de su cliente. Probablemente sabría si su cliente iba a la iglesia o no. [157] Conocería todas las anécdotas sobre los encontronazos con la ley de su hermano mayor. Sabría lo que su jefe (con quien el banquero jugaba al golf) opinaba sobre cómo realizaba su trabajo. Y obviamente sabría de qué raza era y a qué grupo étnico pertenecía. Y después echarla un vistazo a las cifras que el cliente hubiera escrito en su solicitud.
Los cuatro primeros factores a menudo se abrían paso, ya fuera de forma consciente o inconsciente, hasta el juicio del banquero. Y es bastante probable que tendiera a confiar en las personas de su propio círculo. Es una reacción humana. Sin embargo, esto significa que para millones de ciudadanos estadounidenses, el statu quo predigital era igual de terrible que algunas de las ADM que he descrito en este libro. Todos los que estuvieran fuera de los círculos de los banqueros, incluidas las minorías y las mujeres, quedaban excluidos de forma rutinaria. [158] Para tener alguna posibilidad de éxito, debían preparar un impresionante expediente financiero y luego buscar algún banquero de mente abierta.
No era justo. Pero entonces llegó un algoritmo y las cosas mejoraron. El matemático Earl Isaac y su amigo, el ingeniero Bill Fair, diseñaron un modelo que llamaron FICO [159] para evaluar el riesgo de que una persona incumpla el pago de un crédito. La calificación FICO se obtenía mediante una fórmula que analizaba únicamente las finanzas del prestatario —fundamentalmente la carga de la deuda y su historial de pago de facturas—. Esta calificación crediticia no tenía en cuenta el color de la piel. Y resultó algo fantástico para el sector de la banca, porque predecía el riesgo de una forma mucho más precisa, al tiempo que abría las puertas a millones de nuevos clientes. Evidentemente, las calificaciones crediticias FICO siguen existiendo. Las utilizan todas las agencias de calificación crediticia, incluidas Experian, Transunion y Equifax, que añaden distintas fuentes de información al modelo FICO para producir sus propias calificaciones. Estas calificaciones presentan numerosos atributos encomiables y que no tienen nada que ver con las ADM. Para empezar, tienen un bucle de retroalimentación transparente. Las empresas crediticias pueden ver qué prestatarios no pagan los plazos de sus préstamos y comparan esos números con las calificaciones que obtuvieron inicialmente, Si los prestatarios con calificaciones altas parecen no poder hacer frente a los plazos de sus préstamos con más frecuencia de lo que había previsto el modelo, FICO y las agencias calificadoras pueden ajustarlos modelos para que sean más precisos. Es un uso razonable de la estadística.
Las calificaciones crediticias también son relativamente transparentes. El sitio web de FICO, [160] por ejemplo, ofrece instrucciones sencillas sobre cómo mejorar la calificación (reducir las deudas, pagarlas facturas a tiempo y no solicitar más tarjetas de crédito). Otro aspecto igualmente importante es que el sector de la calificación crediticia está regulado. Según establece la ley, todo el que tenga dudas sobre su calificación crediticia tiene derecho a pedir y a recibir su informe crediticio, [161] en el que se incluye toda la información que es evaluada en el cálculo de la calificación crediticia, incluido el historial de pago de los plazos de la hipoteca y de las facturas de suministros, la deuda total y el porcentaje de crédito disponible que utiliza. Aunque el proceso puede llegar a ser tortuosamente lento, si se localiza algún error, uno puede solicitar que se corrija.
Desde la época de los pioneros Bill Fair y Earl Isaac, el uso de la calificación crediticia ha proliferado enormemente. En la actualidad se hacen todo tipo de cálculos sobre nosotros, y tanto estadísticos como matemáticos se dedican a combinar de todas las maneras posibles un batiburrillo de datos, desde nuestros códigos postales y nuestros patrones al navegar por Internet hasta nuestras últimas compras. Muchos de sus modelos pseudocientíficos intentan predecir la solvencia crediticia asignándonos a todos nosotros las denominadas calificaciones electrónicas. Estas cifras, aunque rara vez llegamos a verlas, abren las puertas de par en par ante algunos de nosotros y las cierran en las narices de otros. Al contrario de lo que ocurría con las calificaciones FICO, a las que pretenden parecerse, las calificaciones electrónicas son arbitrarias, no están reguladas, no dan explicaciones de su funcionamiento y a menudo son injustas; en pocas palabras, son un ADM.
La empresa Neustar, [162] de Virginia, nos ofrece un claro ejemplo. Neustar ofrece servicios de identificación de clientes para empresas, como, por ejemplo, un servicio que facilita la gestión del tráfico de llamadas de los centros de atención telefónica. Para explicarlo de forma muy sencilla, podemos decir que esta tecnología revisa los datos disponibles sobre las personas que están llamando y las ordena en una jerarquía. Los que aparecen en la parte superior son supuestamente los posibles clientes que resultarán más rentables, por lo que se les pone rápidamente al habla con un operador. Los que están en la parte inferior tendrán que esperar mucho más tiempo o son transferidos a un centro subcontratado en el que suelen contestar máquinas automáticas.
Las empresas de tarjetas de crédito como Capital One [163] realizan cálculos similares a toda velocidad en el instante en el que alguien accede a su página web. A menudo acceden a datos sobre patrones de compra y navegación web, lo que les proporciona mucha información sobre el posible diente. Es probable que la persona que haga clic en nuevos Jaguar sea más rica que la que comprueba el bastidor de un Taurus de 2003 en Carfax.com, la página web de informes sobre vehículos de segunda mano. La mayoría de los sistemas de calificación también obtienen información sobre la localización del ordenador con el que se accede a la página web. Al comprobar esta información con datos inmobiliarios se pueden sacar conclusiones sobre el patrimonio del usuario. Una persona que utiliza un ordenador en la urbanización de lujo Balboa Terrace de San Francisco es un diente mucho más interesante que una persona que viva al otro lado de la bahía, en East Oakland, un barrio con una importante comunidad afroamericana.
No debería sorprendernos la existencia de estas calificaciones electrónicas. Hemos visto modelos que se nutren de datos similares para identificar a los posibles dientes de préstamos abusivos o para calcular las probabilidades de que robemos un coche. Para bien o para mal, nos han guiado hasta la universidad (o hasta la cárcel) y hacia un empleo, y luego nos han optimizado en nuestro puesto de trabajo. Ahora que tal vez haya llegado el momento de comprar una vivienda o un coche, es lógico que los modelos financieros exploten la misma montaña de datos para volver a evaluarnos.
Reflexionemos sobre el cruel bucle de retroalimentación que crean las calificaciones electrónicas. Es altamente probable que el sistema de calificación electrónica asigne a los residentes de la zona más dura de East Oakland una calificación crediticia baja. Seguro que a muchas de las personas que viven ahí les cuesta hacer frente a los plazos de sus préstamos. De modo que la oferta de tarjeta de crédito que aparecerá en sus pantallas estará dirigida a un grupo demográfico de mayor riesgo. Esto significa que precisamente las personas que ya tienen dificultades económicas tendrán menos crédito disponible y pagarán tipos de interés más altos.
Gran parte de la publicidad depredadora de la que hemos hablado, incluidos los anuncios de créditos rápidos y de universidades privadas con ánimo de lucro, se genera empleando este tipo de calificaciones electrónicas. Son sustitutos de las calificaciones crediticias, pero dado que las empresas tienen prohibido utilizar las calificaciones crediticias a efectos de marketing, se las apañan con este sucedáneo poco riguroso.
Esa prohibición tiene cierta lógica. Al fin y al cabo, nuestro historial crediticio incluye datos muy personales y es perfectamente lógico que seamos nosotros quienes decidamos quién puede tener acceso a él. No obstante, la consecuencia es que las empresas acaban sumergiéndose en conjuntos de datos sin apenas regulación, como el análisis de los clics en las páginas web y las etiquetas de geolocalización, con el propósito de crear un mercado de datos paralelo, y en este proceso logran evitar gran parte de la supervisión gubernamental. Posteriormente miden el éxito en incrementos de eficiencia, flujo de caja y beneficios. Salvando algunas excepciones, conceptos como la justicia o la transparencia no entran en sus algoritmos.
Comparemos esta situación con el banquero de la década de 1950, Ese banquero ponderaba, ya fuera de forma consciente o inconsciente, varios puntos de datos que tenían nada o poco que ver con la capacidad del aspirante a prestatario para hacer frente a una hipoteca. El banquero miraba a la persona que estaba sentada al otro lado de su mesa, veía la raza de su diente y extraía conclusiones de esta información. Es posible que los antecedentes penales de su padre le restaran puntos, mientras que el hecho de que fuera habitualmente a misa podría ser considerado como algo positivo.
Todos estos puntos de datos eran valores sustitutivos. Para evaluar la responsabilidad financiera de su cliente, el banquero podía estudiar las cifras fríamente (tal y como seguramente harían algunos banqueros ejemplares), pero en cambio establecía correlaciones con la raza, la religión y los miembros de su familia. Al actuar así, no estudiaba al prestatario como individuo, sino que lo clasificaba dentro de un grupo de personas —como se suele decir, lo metía dentro de un mismo saco—. Las «personas similares a ese cliente», decidiría el banquero, son gente en la que se puede o no se puede confiar.
La gran ventaja de Fair e Isaac fue que descartaron los valores sustitutivos y utilizaron datos financieros relevantes, como el comportamiento en el pasado a la hora de pagar las facturas. Centraron su análisis en la persona en cuestión, y no en otras personas con atributos similares. Las calificaciones electrónicas, por el contrario, nos hacen retroceder en el tiempo. Analizan a la persona a través de todo un aluvión de datos. En unos cuantos milisegundos, realizan miles de cálculos sobre «personas similares al individuo analizado». Y si un número suficiente de esas personas «similares» al individuo analizado resultan ser unos holgazanes o, incluso peor, delincuentes, ese individuo será tratado como si él mismo lo fuera.
De vez en cuando me preguntan cómo me las arreglo para enseñar ética en una clase para científicos de datos. Sudo empezar con un debate sobre cómo construir un modelo de calificación electrónica y les pregunto si piensan que se debe incluir la «raza» como dato de entrada. Su respuesta inmediata es que incluir una pregunta sobre la raza sería injusto y probablemente también ilegal. A continuación les pregunto si debemos utilizar un «código postal». En principio esto les parece justo, pero al cabo de unos minutos los estudiantes se dan cuenta de que están codificando injusticias del pasado en su modelo. Al incluir un atributo como el «código postal» expresan la opinión de que la historia del comportamiento humano en una parcela concreta debería determinar, al menos en parte, el tipo de préstamo al que debe tener acceso la persona que vive allí.
En otras palabras, las personas que construyen modelos para calificaciones crediticias tienen que ingeniárselas para contestar a la pregunta: «¿Cómo se han comportado en el pasado las personas como el individuo analizado?», cuando idealmente deberían preguntarse: «¿Cómo se ha comportado en el pasado el individuo analizado?».
La diferencia entre estas dos preguntas es grande. Imaginemos que una persona responsable y muy motivada con orígenes humildes en la inmigración intenta montar un negocio y depende de este tipo de sistema para la inversión inicial. ¿Quién se arriesgaría con alguien así? Probablemente un modelo desarrollado con este tipo de datos demográficos y conductuales nunca creería en ella.
Debemos señalar que en el universo estadístico en el que se emplean los valores sustitutivos, estos a menudo funcionan bien. Casi siempre se cumple el dicho de «Dios los cría y ellos se juntan». Los ricos compran cruceros y BMW. Y con demasiada frecuencia los pobres necesitan préstamos rápidos. Y dado que estos modelos estadísticos parecen cumplirse casi siempre, aumenta la eficiencia y se multiplican los beneficios. Y los inversores ponen más dinero en los sistemas informáticos que clasifican a miles de personas en lo que parecen ser las categorías correctas. Es el triunfo del big data.
¿Y qué pasa con la persona a la que los sistemas interpretan mal y clasifican en una categoría incorrecta? Pues eso es precisamente lo que le ocurre. No hay retroalimentación alguna que corrija el sistema. Un motor que analiza estadísticas no tiene forma alguna de aprender que acaba de enviar la llamada de un posible y valioso cliente al infierno de los sistemas de respuestas automáticas. Y, lo que es peor, los perdedores del universo no regulado de las calificaciones electrónicas cuentan con escasos recursos para presentar una queja, y aún menos para corregir un error en el sistema. En el reino de las ADM, ellos son los daños colaterales. Y puesto que este tenebroso sistema está ubicado en lejanas granjas de servidores, las víctimas casi nunca descubren el error. Lo más probable es que la mayoría de ellas lleguen a la sencilla conclusión de que la vida es simplemente así de injusta.

* * *

En el mundo que he descrito hasta el momento, las calificaciones crediticias alimentadas por millones de valores sustitutivos existen en las sombras, mientras que nuestros informes de solvencia crediticia, con todos los datos pertinentes y relevantes, se rigen por el Estado de derecho. Lamentablemente no es así de sencillo. Con demasiada frecuencia los propios informes de solvencia se utilizan también como valores sustitutivos.
No es de extrañar que un gran número de entidades en nuestra sociedad, desde las grandes empresas hasta el Gobierno, busquen a personas responsables en las que se pueda confiar. En el capítulo en el que hablamos de cómo conseguir un empleo, vimos que estas entidades revisan los currículos y excluyen a los candidatos cuyas pruebas psicológicas muestran indicios de atributos personales no deseables. Otra práctica muy habitual consiste en considerar la calificación crediticia del solicitante de empleo. Los empleadores se plantean, si una persona paga sus facturas a tiempo y evita contraer deudas, ¿no es señal de que se trata de una persona formal en la que se puede confiar? Saben que no es exactamente lo mismo, pero ¿no habrá una coincidencia significativa?
Así es como los informes de solvencia crediticia se han expandido mucho más allá de su territorio original. La solvencia crediticia se ha convertido en un sustituto demasiado fácil de otras virtudes, Y, a la inversa, la morosidad se ha convertido en sinónimo de una multitud de pecados y defectos que no tienen nada que ver con pagar las facturas. Como veremos a continuación, todo tipo de empresas convierten los informes de solvencia en sus propias versiones de calificaciones crediticias y las utilizan como valores sustitutivos. Esta práctica es muy perjudicial y está muy extendida.
En ciertas aplicaciones la utilización de este tipo de valores sustitutivos puede parecer inofensiva. Algunos servicios de búsqueda de pareja en Internet, por ejemplo, emparejan a la gente en base a sus calificaciones crediticias. Uno de estos servicios, CreditScoreDating, proclama que las «buenas calificaciones crediticias son sexis». [164] Podemos debatir si tiene sentido establecer una relación entre el comportamiento financiero y el amor, pero al menos los clientes de CreditScoreDating saben en lo que se meten y por qué. Ellos deciden.
No obstante, cuando se busca trabajo, hay muchas probabilidades de que el retraso en el pago de uno de los plazos de la tarjeta de crédito o del préstamo para los estudios universitarios tenga un efecto negativo. Según un estudio realizado por una asociación del sector, la Sociedad de la Gestión de Recursos Humanos, casi la mitad de los empleadores de Estados Unidos hacen el cribado de los candidatos analizando sus informes de solvencia. [165] Algunos de dios verifican también la situación de solvencia crediticia del personal ya contratado, especialmente cuando solicitan un ascenso.
Antes de realizar estas comprobaciones, las empresas deben pedir permiso a la persona en cuestión, pero esto suele ser una mera formalidad. En muchas empresas, los que se nieguen a autorizar el acceso a sus datos crediticios no serán siquiera considerados para el puesto. Y si su historial de solvencia crediticia no es bueno, lo más probable es que los ignoren. Un estudio realizado en 2012 sobre la deuda en tarjetas de crédito en familias de renta media y baja demostró claramente que esto es así. [166] El 10 % de los encuerados declaró que los responsables de contratación les habían dicho que las manchas de su historial crediticio habían acabado con sus posibilidades de ser contratados y nadie sabe cuántos de ellos quedaron excluidos del proceso de selección por sus informes de solvencia, aunque nadie les informara de ello. Si bien la ley establece que las empresas deben informar a los demandantes de empleo si quedan excluidos de un proceso de selección debido a problemas relacionados con su solvencia crediticia, no cuesta mucho imaginar que algunas empresas simplemente dicen a los candidatos que no son la persona adecuada o que había otros con mejores cualificaciones.
Esta práctica de utilizar las calificaciones crediticias en la contratación y los ascensos crea un peligroso ciclo de pobreza. Al fin y al cabo, si una persona no consigue un empleo porque tiene un mal historial crediticio, dicho historial crediticio no hará más que empeorar, lo que hará que le resulte aún más difícil conseguir un empleo. Es similar al problema al que se enfrentan los jóvenes cuando buscan su primer empleo y no son siquiera tenidos en consideración debido a su falta de experiencia. O la situación de los desempleados de larga duración, que ven que nadie los contrata porque llevan demasiado tiempo sin trabajar. Es un círculo vicioso de caída y derrota para los desafortunados que quedan atrapados en él.
Las empresas, obviamente, sienten poca compasión por este argumento. Dicen que un buen historial crediticio es un atributo que define a una persona responsable, que ese es el tipo de persona que quieren contratar. No obstante, hacer de las deudas una cuestión moral es un gran error. Muchas personas muy trabajadoras y formales pierden su empleo todos los días porque sus empresas quiebran, recortan costes o trasladan los puestos de trabajo al extranjero. Y estas cifras crecen durante las recesiones. Entonces muchos de los nuevos desempleados en Estados Unidos descubren que se han quedado sin seguro médico. Cuando una persona está en esa situación, basta con que se produzca un accidente o una enfermedad —cuyo tratamiento tendrá que pagar de su bolsillo— para que se retrase en el pago de algún plazo de un préstamo. Incluso después de la aprobación de la Ley sobre la Atención Sanitaria Asequible con la reforma sanitaria de Obama, que logró reducir el número de personas que no tienen seguro médico, los gastos sanitarios siguen siendo la principal causa de quiebra entre los estadounidenses. [167]
Evidentemente, las personas que tienen ahorros pueden mantener un historial crediticio impoluto incluso en los momentos difíciles. Los que apenas llegan a fin de mes son mucho más vulnerables. Por consiguiente, una excelente calificación de solvencia crediticia no es simplemente un valor sustitutivo de responsabilidad y decisiones inteligentes, sino que también es un valor sustitutivo de riqueza. Y la riqueza está estrechamente relacionada con la raza.
Pensemos en lo siguiente. En 2015 los hogares de blancos poseían de media unas diez veces más dinero e inmuebles que los hogares de afroamericanos y de hispanos. [168] Y mientras que solo el 15 % de los hogares de blancos tenían un patrimonio neto igual a cero o negativo, más de un tercio de los hogares de afroamericanos e hispanos no tenían ningún colchón, [169] Esta brecha de la riqueza aumenta con la edad. A los sesenta años, los blancos son once veces más ricos que los afroamericanos. Si tenemos en cuenta estas cifras, no resulta difícil afirmar que la trampa que suponen las comprobaciones de solvencia crediticia de los demandantes de empleo afecta a la sociedad de forma desigual y tiene connotaciones raciales, Hasta el momento, diez estados han aprobado legislación específica para prohibir el uso de las calificaciones crediticias en la contratación, [170] Al aprobar esta prohibición, el Ayuntamiento de Nueva York declaró que la utilización de comprobaciones de solvencia crediticia «afecta de forma desproporcionada a los candidatos de renta baja y a los candidatos de color». Pese a todo, esta práctica sigue siendo legal en cuarenta estados.
Esto no quiere decir que los departamentos de personal de todo Estados Unidos estén construyendo de forma intencionada una trampa de pobreza, ni mucho menos una trampa racista. Sin duda creen realmente que los informes de solvencia incluyen hechos relevantes que les ayudan a tomar decisiones importantes. Al fin y al cabo, «cuantos más datos mejor» es el hilo conductor de la era de la información. No obstante, en nombre de la justicia, algunos de esos datos deberían quedar fuera de los cálculos.
Imaginemos por un momento a un recién licenciado de la Facultad de Derecho de la Universidad de Stanford durante una entrevista de trabajo en un prestigioso bufete de San Francisco, El socio sénior mira el archivo generado por su ordenador y se echa a reír. «¡Aquí dice que le han arrestado por dirigir un laboratorio de metanfetaminas en Rhode Island!». Mueve la cabeza, el joven tiene un nombre muy común y seguro que los ordenadores confunden fácilmente a las personas que se llaman igual. Continúa la entrevista.
En los niveles más altos de la economía, son los seres humanos los que toman las decisiones, aunque utilicen a los ordenadores como herramientas útiles, pero, como ya hemos visto, en los niveles medios de la economía, y especialmente en los más bajos, gran parte del trabajo está automatizado. Cuando aparecen errores en un expediente —y eso es algo que ocurre con frecuencia—, incluso los algoritmos mejor diseñados tomarán la decisión equivocada. Como siempre han dicho los fanáticos de los datos: si entra basura, sale basura.
La persona que se encuentra al otro lado de este proceso automatizado puede sufrir las consecuencias de un error de este tipo durante años. Por ejemplo, las listas de los terroristas que tienen prohibido volar, que son generadas por ordenador, son conocidas por estar plagadas de errores, Una persona inocente cuyo nombre se parezca al de un sospechoso de terrorismo se enfrenta a un auténtico calvario cada vez que tiene que subirse a un avión (mientras que los viajeros ricos a menudo pueden pagar para adquirir el estatus de «viajero de confianza» y así pasar tan campantes por el control de seguridad; y en realidad lo que hacen es invertir dinero para protegerse de un ADM).
Este tipo de errores afloran por todas partes. La Comisión Federal de Comercio anunció [171] en 2013 que habían estimado que en los informes de solvencia del 5 % de los consumidores —unos diez millones de personas— había un error lo suficientemente grave como para hacer que tengan que asumir costes más altos en sus préstamos. Esto es problemático, aunque al menos los informes de solvencia están en el lado regulado de la economía de datos. Los consumidores pueden (y deberían) solicitar una copia de sus informes de solvencia una vez al año para enmendar los errores potencialmente costosos. [172]
Pese a todo, el lado no regulado de la economía de datos es aún más peligroso. Incontables empresas, desde gigantes como Acxiom Corp. hasta multitud de empresas de dudosa reputación, compran información a los supermercados, los anunciantes, los desarrolladores de aplicaciones para móviles y las empresas que organizan rifas o gestionan redes sociales para reunir montones de datos sobre cada uno de los consumidores del país. Pueden anotar, por ejemplo, si un consumidor tiene diabetes, vive en un hogar donde hay un fumador, conduce un todoterreno de alta gama o tiene una pareja de perros pastores escoceses (que puede que sigan vivos en el expediente mucho después de haber pasado a mejor vida). Estas empresas —las agencias de datos— también arañan todo tipo de datos públicamente accesibles del Gobierno, como los registros de las elecciones y del número de arrestos o de la venta de viviendas. Al final introducen toda esa información en un perfil de consumidor que venden después.
Sin duda, algunas agencias de datos son más serias que otras, aunque también es seguro que cualquier operación cuyo propósito sea crear perfiles de cientos de millones de personas a partir de miles de fuentes de información diferentes se equivoca en muchas cosas. Veamos el ejemplo de Helen Stokes, de Filadelfia. [173] Quería trasladarse a un centro para mayores cerca de su casa, pero la rechazaban una y otra vez porque en sus antecedentes penales aparecían varios arrestos. Es cierto que había sido arrestada dos veces durante unos altercados con su exmarido, pero no había sido condenada y había conseguido borrar sus antecedentes de las bases de datos gubernamentales. No obstante, los antecedentes de estos arrestos seguían apareciendo en los expedientes recopilados por una empresa llamada RealPage, Inc., que se dedica a la comprobación del pasado de los candidatos a arrendatarios.
La creación y venta de informes es la fuente de ingresos de RealPage y otras empresas similares. Y las personas como Helen Stokes no son sus clientes; son el producto. Contestar a sus quejas les cuesta tiempo y dinero. Al fin y al cabo, aunque Helen Stokes diga que los arrestos han sido suprimidos, verificar este hecho consume tiempo y dinero. Es posible que un costoso ser humano tenga que pasar unos cuantos minutos en Internet o incluso —Dios no lo quiera— hacer un par de llamadas de teléfono, No es de extrañar, por tanto, descubrir que Stokes solo consiguió que limpiaran su historial cuando denunció a la agencia de datos ante los tribunales. Pero incluso después de que RealPage corrigiera el error, ¿cuántas empresas de datos seguirán vendiendo expedientes con la misma información errónea y nociva? Resulta imposible saberlo.
Algunas agendas de datos ofrecen a los consumidores el acceso a sus datos, pero los informes a los que el público tiene acceso han sido especialmente adaptados. Incluyen los hechos, pero no siempre las conclusiones que los algoritmos de las agencias de datos han extraído de ellos. Si una persona presenta todas las solicitudes necesarias para ver su expediente en una de las múltiples agencias de datos, por ejemplo, quizá vea la hipoteca de la casa, una factura pendiente de la empresa de telecomunicaciones Verizon y 459 dólares de deuda por una reparación en la puerta del garaje. No obstante, esa persona no tendrá acceso a la sección en la que se especifica que la han clasificado en el «saco» de las personas «rurales y que nunca tendrán éxito» o bajo el título «llegarán a la jubilación con las manos vacías». [174] Por suerte para las agencias de datos, pocos de nosotros llegamos a ver estos detalles. Si los viéramos, y la Comisión Federal de Comercio está presionando para imponerles una mayor obligación de rendir cuentas, es probable que las agencias de datos fueran sitiadas por las quejas de los consumidores —por millones de ellas—. Por ahora, los consumidores solo descubren que sus expedientes son incorrectos cuando a alguien se le escapa algo, normalmente por casualidad.
Catherine Taylor, residente en Arkansas, [175] por ejemplo, fue rechazada en un proceso de contratación de la Cruz Roja local hace varios años. Eso es algo normal, pero la carta de rechazo dirigida a Catherine Taylor incluía una valiosa perla de información. El informe sobre Catherine incluía cargos penales por intento de fabricar y vender metanfetaminas. No era en absoluto la clase de candidata que la Cruz Roja deseaba contratar.
Catherine Taylor investigó su informe y descubrió que los cargos penales eran efectivamente cargos reales, solo que contra otra Catherine Taylor, que daba la casualidad de que había nacido el mismo día que ella. Posteriormente descubrió que había al menos otras diez empresas con errores en su expediente —una de ellas relacionada con la solicitud de ayuda a la vivienda que había presentada ante el Gobierno federal y que había sido denegada—. ¿Le habría sido denegada por un error en su identidad?
Si se hubiera tratado de un proceso automático, sin duda podría ser el caso, pero un ser humana había intervenido en el proceso. Cuando solicitaron la ayuda para la vivienda, Catherine Taylor y su marido se reunieron con una empleada de la agencia federal de vivienda para hacer las comprobaciones de su expediente. Esta empleada, Wanda Taylor —aunque sin relación alguna con Catherine—, estudiaba la Información suministrada por Tenant Tracker, una agencia de datos. El informe de esta agencia estaba repleto de errores e identidades mezcladas. Mezclaba a Catherine Taylor, por ejemplo, con el posible alias de Chantel Taylor, una convicta que había nacido el mismo día que ella. También la relacionaba con la otra Catherine Taylor, de la que ya había oído hablar y que había sido condenada en Illinois por robo, falsificación y posesión de sustancias ilegales.
El expediente, en pocas palabras, era un caos tóxico, pero Wanda Taylor tenía experiencia con este tipo de situaciones, Empezó a escarbar en él y rápidamente tachó el posible alias, Chantel, que le parecía muy improbable. Leyó que la ladrona de Illinois tenía un tatuaje en el tobillo con el nombre de Troy y, tras comprobar el tobillo de Catherine Taylor, tachó también el nombre de la convicta. Al final de la reunión, un ser humano concienzudo había aclarado la confusión generada por los programas de recopilación de datos a través de la web. Ahora la agencia para la vivienda sabía de qué Catherine Taylor se trataba.
La pregunta a la que nos enfrentamos es la siguiente: ¿cuántas Wanda Taylor hay por ahí dilucidando identidades falsas y otros errores en nuestros datos? Y la respuesta es muy sencilla: no las suficientes. Los seres humanos en la economía de los datos son casos atípicos y simbolizan un paso atrás. Los sistemas han sido diseñados para funcionar de forma automática en la medida de lo posible. En eso radica la eficiencia; de ahí es de donde provienen los beneficios. Los errores son inevitables, como en cualquier programa estadístico, pero la manera más rápida de reducirlos es ajustando los algoritmos que hacen funcionar las máquinas. Los seres humanos en el terreno no hacen más que ralentizar el trabajo.
Esta tendencia hacia la automatización avanza a pasos agigantados gracias a que los ordenadores analizan cada vez mejor nuestro lenguaje escrito y llegan en algunos casos a procesar miles de documentos en cuestión de segundos. Pese a ello, siguen malinterpretando todo tipo de cosas. El super ordenador Watson de IBM que participó en el concurso de televisión estadounidense de preguntas Jeopardy!, por muy brillante que sea, pasó en torno al 10 % del tiempo completamente confundido por el lenguaje o el contexto. Se le oyó decir que la dieta de una mariposa era kósher y una vez confundió a Oliver Twist, el personaje de Charles Dickens, con los Pet Shop Boys, la famosa banda tecnopop de la década de 1980. [176]
Seguro que este tipo de errores se acumulan en nuestros perfiles de consumidores y confunden y orientan en la dirección equivocada a los algoritmos que dirigen cada vez más nuestras vidas. Estos errores, que son el resultado de la recopilación automatizada de datos, contaminan los modelos predictivos y nutren las ADM. Y este tipo de recopilación de datos está creciendo. Los ordenadores están ya extendiendo su ámbito de actuación más allá de los textos escritos. Están empezando a recoger el lenguaje oral y las imágenes y los utilizan para captar más información sobre todo lo que hay en el universo —incluidos nosotros—. Estas nuevas tecnologías extraerán nuevos tesoros de datos para nuestros perfiles, al tiempo que acrecentarán el riesgo de errores.
Recientemente, Google procesó las imágenes de tres jóvenes y felices afroamericanos y su servicio de etiquetado automático de fotografías los etiquetó como gorilas. [177] La empresa se deshizo en mil disculpas, pero lo cierto es que en los sistemas automáticos como el de Google los errores son inevitables. Lo más probable es que el ordenador confundiera al Homo sapiens con nuestro primo cercano, el gorila, como resultado de un aprendizaje automático equivocado (y no por culpa de un algoritmo racista suelto por el Googleplex), El software había revisado miles de millones de imágenes de primates él solito y había establecido sus propias diferencias entre ellos. Se había fijado en todo, desde las tonalidades de color hasta la distancia entre los ojos o la forma de las orejas, pero aparentemente no lo probaron lo suficientemente bien antes de ponerlo a trabajar.
Este tipo de errores constituyen oportunidades de aprendizaje —siempre que el sistema reciba la retroalimentación adecuada informándole del error—. En este caso fue así. No obstante, la injusticia persiste. Cuando los sistemas automáticos revisan nuestros datos para evaluarnos y producir una calificación electrónica, hacen una proyección del pasado hacia el futuro. Como vimos en los modelos aplicados a las condenas de los reincidentes y en los algoritmos de los préstamos abusivos, se supone que los pobres serán siempre pobres, y son tratados como tal —se les niegan oportunidades, son encarcelados con más frecuencia y se les cobra más por los servicios y los préstamos—. Es una tendencia inexorable, a menudo oculta y que no admite impugnaciones, y por supuesto, es injusta.
Sin embargo, no podemos contar con que los sistemas automáticos resolverán el problema. Las máquinas, pese a su alarmante poder, aún no son capaces de introducir modificaciones para ser más justas, o al menos no pueden hacerlo solas. Examinar cuidadosamente los datos para determinar lo que es justo es una tarea que les resulta totalmente ajena y enormemente complicada. Solo los seres humanos pueden imponer esta restricción.
Nos encontramos ante una paradoja. Si volvemos por última vez a la era del banquero de la década de 1950, veremos que su mente estaba sujeta a distorsiones humanas —deseos, prejuicios, desconfianza ante los desconocidos—. Para realizar su trabajo de forma más justa y eficiente, él y todo el sector se pusieron en manos de un algoritmo.
Sesenta años más tarde, el mundo está dominado por sistemas automáticos que difunden por doquier nuestros expedientes repletos de errores. Las máquinas necesitan urgentemente la comprensión del contexto, el sentido común y el sentido de la justicia que solo los seres humanos pueden aportar. No obstante, si dejamos este asunto en manos del mercado, que premia la eficiencia, el crecimiento y el flujo de efectivo (al tiempo que tolera un cierto grado de error), se acabará ordenando a los entrometidos seres humanos que no se acerquen a la maquinaria.
Nos enfrentamos a una situación difícil, porque al mismo tiempo que salen a la luz los problemas de los viejos modelos crediticios, llegan con fuerza poderosas novedades. Facebook, por ejemplo, ha patentado un nuevo tipo de calificación crediticia basada en las redes sociales. [178] El objetivo es aparentemente razonable. Pensemos en un licenciado universitario que pasa cinco años en una misión religiosa ayudando a llevar agua potable a pueblos pobres en África. Cuando vuelve a casa no tiene ninguna calificación crediticia y tiene problemas para conseguir un préstamo, pero sus compañeros de clase y amigos de Facebook trabajan en la banca de inversión, han hecho doctorados o son programadores. El análisis de grupo indicaría que este joven es una apuesta segura. El problema es que probablemente este mismo tipo de análisis resultará perjudicial para una limpiadora de San Luis Oriental que puede que tenga muchos amigos desempleados e incluso algunos en la cárcel.
Mientras tanto, el sector de la banca tradicional hurga frenéticamente entre los datos personales para intentar impulsar su negocio. Sin embargo, los bancos oficiales están sujetos a la legislación federal estadounidense y a la obligatoriedad de la información, y esto significa que hacer perfiles de los dientes comporta riesgos jurídicos y para su reputación. American Express aprendió esta lección por las malas en 2009, [179] justo al principio de la recesión. Sin duda con el objetivo de reducir el riesgo de su propio balance de situación, American Express decidió reducir los límites de gasto de algunos de sus clientes. No obstante, al contrario de lo que ocurre con los actores informales de la economía de la calificación electrónica, el gigante de las tarjetas de crédito tuvo que enviar una carta a sus clientes explicándoles su decisión.
Y fue entonces cuando American Express asestó un golpe bajo a sus dientes. La empresa les decía en su carta que los titulares de tarjetas de crédito que compraban en ciertos establecimientos tenían una mayor probabilidad de retrasarse en los pagos. Era una cuestión estadística, lisa y llanamente, una clara correlación entre los patrones de compra y las tasas de morosidad. Y a partir de ahí los infelices clientes de American Express tendrían que adivinar que establecimiento había intoxicado su capacidad crediticia. ¿Era por la compra semanal en Walmart o tal vez por haber cambiado los frenos del coche en Grease Monkey? ¿Qué gasto era el culpable de que ahora se les considerara holgazanes en potencia?
Fuera cual fuera la causa, la consecuencia fue que los clientes empezaron una dura recesión con una menor disponibilidad de crédito. Y, lo que es peor, la reducción de su límite de gasto quedó reflejada en cuestión de días en sus informes de solvencia. De hecho, es probable que apareciera en sus expedientes incluso antes de que ellos recibieran la notificación del banco. Esto bajó su calificación y aumentó los costes que tendrían que pagar por los préstamos. Podemos suponer que muchos de estos dientes frecuentaban «tiendas asociadas con tasas bajas de devolución de préstamos» precisamente porque no les sobraba el dinero. ¿Acaso no es obvio? Un algoritmo se percató de esto y los hizo aún más pobres.
La indignación de los clientes de American Express atrajo la atención de los grandes periódicos, entre ellos el New York Times, y American Express rápidamente anunció que no establecería ninguna correlación entre los comercios y el riesgo (American Express posteriormente insistió en que en la carta había errores de redacción y que en realidad habían analizado únicamente patrones de consumo generales, no tiendas concretas).
La historia fue todo un quebradero de cabeza y una auténtica vergüenza para American Express. Y si realmente habían encontrado una fuerte correlación entre las compras en una tienda concreta y el riesgo crediticio, ya no podía usarla. En comparación con la mayor parte de la economía en Internet, podríamos decir que la banca offline está atada de manos, regulada, en cierto sentido, discapacitada. (No digo que tengan razones para quejarse. A lo largo de varias décadas, los grupos de presión de la banca han ido dando forma a distintas normativas con el propósito de atrincherar bien a los poderes establecidos —y de mantener a los molestos advenedizos fuera del mercado—).
De modo que ¿a quién sorprende que los nuevos actores del sector financiero prefieran la vía más libre y menos regulada? La innovación, al fin y al cabo, se basa en la libertad para experimentan Y con petabytes de datos conductuales en la punta de los dedos y virtualmente nada de supervisión, existen grandes oportunidades para la creación de nuevos modelos de negocio.
Numerosas empresas, por ejemplo, están intentando reemplazar a las empresas que conceden préstamos rápidos. Estos bancos de último recurso atienden a la clase pobre trabajadora, ayudándoles a llegar a fin de mes todos los meses y cobrándoles exorbitantes tipos de interés por ello. Al cabo de 22 semanas, un crédito de 500 dólares puede llegar a costar 1,500. De modo que si un actor eficiente encuentra nuevas formas de calificar el riesgo y distinguir a los candidatos solventes dentro de este grupo de personas desesperadas, podría cobrarles un interés algo inferior y seguir ganando montones de dinero con ellos.
Esa fue la idea que tuvo Douglas Merrill, antiguo responsable de operaciones en Google, que estaba convencido de que podía utilizar el big data para calcular el riesgo y ofrecer préstamos rápidos a mejor precio. [180] En 2009 fundó una start-up llamada ZestFinance. En la página web de la empresa, Douglas Merrill proclama que «cualquier dato es un dato crediticio». [181] Es decir, que todo vale.
ZestFinance se hace con datos que muestran si los solicitantes de los préstamos han pagado siempre sus facturas de móvil a tiempo, así como con muchos otros datos públicamente disponibles o que están en venta. Tal y como Merrill promete, los tipos de interés que ofrece su empresa son inferiores a los que cobran la mayoría de prestamistas de créditos rápidos. Un préstamo típico de 500 dólares con ZestFinance cuesta 900 dólares al cabo de 22 semanas, un 60 % menos de lo habitual en el sector. [182]
Es cierto que supone una mejora, pero ¿es justo? Los algoritmos de la empresa procesan hasta 10.000 puntos de datos por solicitante, incluidos algunos elementos inusuales, como el hecho de que los solicitantes rellenen el formulario de solicitud sin faltas de ortografía y utilizando correctamente las mayúsculas, el tiempo que tardan en leerlo o si se paran a leer los términos y condiciones o no. [183] Según La empresa, las personas que «cumplen las normas» tienen un menor riesgo crediticio.
Puede que eso sea cierto, pero también lo es que los errores de puntuación y de ortografía apuntan a un bajo nivel educativo, lo que a su vez está estrechamente relacionado con la clase social y la raza. De modo que, cuando los pobres y los inmigrantes solicitan un préstamo, es posible que sus competencias lingüísticas por debajo de la media supongan para ellos un incremento en los gastos asociados al crédito. Y si posteriormente tienen dificultades para pagar dichos gastos, este hecho validará el supuesto de que eran personas de mayor riesgo y reducirá aún más sus calificaciones crediticias. Es un círculo vicioso cruel, y pagar las facturas a tiempo solo es una parte de todo el proceso.
Cuando se construyen nuevos negocios basados en ADM es seguro que habrá problemas, incluso cuando los actores tienen la mejor de las intenciones. Veamos el ejemplo del sector de los préstamos entre particulares. Todo empezó en la década pasada con la idea visionaria de que los prestatarios y los prestamistas podían encontrarse en plataformas destinadas a ello. Era la democratización de La banca. Más personas tendrían acceso al crédito y millones de personas ordinarias se convertirían en banqueros a corto plazo y además conseguirían una buena rentabilidad por su dinero. Y ambos podrían prescindir de los grandes y avariciosos bancos.
Una de las primeras plataformas de intercambio entre particulares, Lending Club, fue lanzada como una aplicación de Facebook en 2006 [184] y al cabo de un año había recibido suficiente financiación para convertirse en un nuevo tipo de banco. [185] Para calcular el riesgo del prestatario, Lending Club combinaba el tradicional informe de solvencia con los datos recopilados en la web. Su algoritmo, en pocas palabras, generaba unas calificaciones electrónicas que según ellos eran más precisas que las calificaciones crediticias.
Lending Club y su principal rival, Prosper, siguen siendo muy pequeños. Han generado menos de 10.000 millones de dólares en préstamos, [186] apenas una mínima parte del mercado de préstamos al consumo de 3 billones de dólares. Y, sin embargo, reciben mucha atención. Los ejecutivos de Citigroup y Morgan Stanley ejercen de directivos en estas empresas de préstamos entre particulares [187] y el fondo de inversión de Wells Fargo es el mayor inversor de Lending Club. [188] La oferta de acciones de Lending Club en diciembre de 2014 fue la mayor oferta pública inicial del año. Recaudó 870 millones de dólares [189] y alcanzó una valoración de 9,000 millones, convirtiéndose así en el decimoquinto banco más valioso de Estados Unidos.
Todo este alboroto tiene poco que ver con la democratización del capital y con la posibilidad de deshacerse de los intermediarios. Según un informe publicado por Forbes, el dinero institucional representa en la actualidad más del 80 % de toda la actividad de las plataformas de préstamos entre particulares. [190] Para los grandes bancos, las nuevas plataformas representan una cómoda alternativa a la estrictamente regulada economía bancaria. Al trabajar a través de los sistemas de préstamos entre particulares, los prestamistas pueden analizar todos los datos que deseen y pueden desarrollar sus propias calificaciones electrónicas. Pueden desarrollar correlaciones de riesgo con los barrios, los códigos postales y las tiendas en las que compran sus clientes (y todo ello sin tener que enviarles embarazosas cartas explicando el porqué).
¿Y qué implicaciones tiene esto para nosotros? Con el imparable crecimiento de las calificaciones electrónicas, nos asignan a lotes y categorías aplicando fórmulas secretas, algunas de ellas alimentadas por expedientes cargados de errores. No nos ven como individuos, sino como miembros de tribus, y una vez clasificados, no hay manera de deshacerse de esa etiqueta. A medida que las calificaciones electrónicas contaminan la esfera de las finanzas, van desapareciendo las oportunidades para los más necesitados. De hecho, en comparación con este montón de ADM desbocadas, el banquero responsable de la concesión de préstamos de ayer —a pesar de todos sus prejuicios— ya no parece tan malo. El cliente que necesitaba un crédito siempre podía recurrir a la baza de mirarle directamente a los ojos y apelar a su humanidad.

Capítulo 9
No hay zonas seguras. Contratar un seguro

A finales del siglo XIX, el famoso estadístico Frederick Hoffman creó una potente ADM. Probablemente Hoffman, un alemán que trabajaba para la Prudential Life Insurance Company, no pretendiese hacer ningún daño. [191] Más adelante en su vida, sus investigaciones aportaron mucho al sector de la salud pública. Desarrolló un valioso trabajo con la malaria y estuvo entre los primeros en asociar el cáncer y el tabaco. Sin embargo, un día de primavera de 1896, Hoffman publicó un informe de 330 páginas que ponía objeciones a la causa de la igualdad racial en Estados Unidos y reafirmaba la condición de ciudadanos de segunda clase de millones de personas. En su informe utilizaba estadísticas detalladas para defender que las vidas de los afroamericanos eran tan precarias que la raza entera era «inasegurable».
Los análisis de Hoffman, como muchas de las ADM de las que hemos hablado, eran estadísticamente erróneos. Al confundir causalidad con correlación, la enorme cantidad de datos que había recopilado solo sirvió para confirmar la tesis de que la raza era un indicador importante de la esperanza de vida. El racismo estaba tan arraigado en su pensamiento que Hoffman, al parecer, no se paró a considerar en ningún momento que la pobreza y la injusticia tuviesen algo que ver con la tasa de mortalidad de los afroamericanos, o que la falta de escuelas decentes, de tuberías modernas, de puestos de trabajo seguros y de acceso a la asistencia médica pudiesen ser lo que los estaba matando a una edad más temprana.
Hoffman cometió también un error estadístico fundamental. Al igual que la comisión presidencial, que en 1983 publicó su informe Nation at Risk , Hoffman olvidó estratificar sus resultados. Consideró a los negros como a un único grupo enorme y homogéneo, con lo que cometió el error de no separarlos en diferentes cohortes geográficas, sociales o económicas. Para él, una profesora negra de Boston o Nueva York que llevase una vida organizada no se diferenciaba en nada de un peón de campo que trabajase descalzo doce horas al día en el delta del Misisipi. Hoffman estaba cegado por la raza.
Y lo mismo le ocurría a todo el sector de los seguros. Desde luego, con el tiempo, las aseguradoras progresaron un poco en su manera de pensar y empezaron a vender pólizas a familias afroamericanas. Al fin y al cabo, se podía ganar dinero con ellas. Sin embargo, se aferraron durante décadas a la idea de Hoffman de que existían grupos enteros de población con mayor riesgo que otros (y algunos de ellos con demasiado riesgo). Las compañías de seguros, al igual que los banqueros, delimitaron barrios en los que no estaban dispuestos a invertir. [192] Esta práctica cruel, conocida como redlining en Estados Unidos, ha sido declarada ilegal en varios textos legislativos, como la Ley de la Vivienda Justa de 1968. [193]
No obstante, casi medio siglo después, el redlining sigue con nosotros, aunque de maneras mucho más sutiles. Aparece codificado en la última generación de ADM, Al igual que Hoffman, los creadores de estos nuevos modelos confunden correlación con causalidad, y castigan a los pobres y en particular a las minorías raciales y étnicas. Respaldan sus análisis con montones de estadísticas, lo que les da un aire artificioso de imparcialidad científica.
En este viaje algorítmico a través de la vida, nos hemos abierto paso a través de la educación y hemos conseguido un trabajo (aunque sea un trabajo que nos sumerge en horarios de locos). Hemos pedido préstamos y visto cómo nuestra solvencia crediticia sirve de sustituto de otros vicios o virtudes. Ahora ha llegado el momento de proteger nuestros más preciados bienes —nuestro hogar, nuestro coche y la salud de nuestra familia— y dejarlo todo dispuesto para nuestros seres queridos cuando ya no estemos.
Los seguros nacieron de la ciencia actuarial, cuyo origen se sitúa en el siglo XVII. [194] Fue un periodo de gran enriquecimiento para la creciente burguesía europea, en el que muchos pudieron permitirse el lujo, por primera vez, de pensar en las generaciones futuras.
Al mismo tiempo que los avances matemáticos proporcionaban las herramientas necesarias para hacer predicciones, una nueva generación de fanáticos de los datos buscaba nuevos elementos que contar. Uno de ellos fue un vendedor de telas de Londres llamado John Graunt. [195] Estudió los registros de nacimientos y defunciones y en 1682 elaboró el primer estudio de las tasas de mortalidad de toda una comunidad. [196] Calculó, por ejemplo, que los niños londinenses corrían un 6 % de riesgo de morir en cada uno de los seis primeros años de vida [197] (y gracias a las estadísticas acabó con el mito de que la peste se propagaba cada año que un nuevo rey llegaba al poder). Por vez primera, los matemáticos podían calcular la trayectoria vital más probable de una persona. Evidentemente, estas cifras no servían con personas individuales, pero cuando se consideraba un número lo suficientemente grande, se podían predecir medias y rangos.
Estos matemáticos no pretendían predecir el destino de cada individuo. Eso es algo imposible de saber, pero podían predecir la prevalencia de accidentes, incendios y muertes dentro de grandes grupos de personas. A lo largo de los tres siglos siguientes, una amplia industria de seguros creció en torno a estas predicciones. Este nuevo sector ofrecía por primera vez la oportunidad de reunir el riesgo colectivo y proteger así a cada individuo cuando sufriera una desgracia.
Hoy en día, gracias a la evolución de la ciencia de datos y de los ordenadores conectados en red, el sector de los seguros se enfrenta a cambios fundamentales. Al disponer de cada vez más información —los datos de nuestro genoma, nuestros patrones de sueño, ejercicio y dieta y nuestra pericia al volante—, las aseguradoras calcularán cada vez mejor el riesgo que corre cada persona individual y se irán liberando de las generalidades de los grandes grupos. Muchos recibieron este cambio con los brazos abiertos. Hoy en día, una fanática de la salud puede demostrar con datos que duerme ocho horas cada noche, que camina dieciséis kilómetros al día y que solo come verduras de hoja verde, frutos secos y aceite de pescado. ¿Por qué no habría de conseguir un descuento en su seguro?
El cambio hacia el individuo, como veremos, es muy rudimentario, pero las aseguradoras ya están usando los datos para dividirnos en tribus cada vez más pequeñas, para ofrecernos bienes y servicios diferentes a distintos precios. Puede que algunas personas digan que es un servicio personalizado, pero lo cierto es que no es individual. Los modelos nos asignan a grupos que no podemos ver, cuyo comportamiento parece semejarse al nuestro. Independientemente de la calidad de los análisis, su opacidad puede conducir a la manipulación de los precios.
Pensemos en los seguros de automóvil. En 2015 los investigadores de la revista de la asociación de consumidores Consumer Reports llevaron a cabo un amplio estudio a escala nacional para localizar discrepancias en la fijación de los precios. [198] Analizaron más de 2000 millones de presupuestos de las principales aseguradoras a clientes hipotéticos en cada uno de los 33.419 códigos postales del país. Lo que descubrieron fue terriblemente injusto y, como hemos visto en el capítulo anterior, tenía su origen en las calificaciones crediticias.
Las aseguradoras sacan estas calificaciones de los informes de solvencia crediticia y después utilizan algoritmos desarrollados por ellas mismas para crear sus propias calificaciones, las calificaciones electrónicas, que se utilizan como valores sustitutivos de una conducción responsable. Sin embargo, Consumer Reports descubrió que las calificaciones electrónicas, que incluyen todo tipo de datos demográficos, a menudo cuentan más que el historial del conductor al volante. En otras palabras, la manera en que gestionamos nuestro dinero puede importar más que nuestra manera de conducir. En el estado de Nueva York, por ejemplo, que un conductor baje de «excelente» a simplemente «bueno» en su calificación crediticia puede hacer que el precio de su seguro aumente 255 dólares. Y en Florida, los adultos con historiales de conducción impecables y bajas calificaciones crediticias pagaron una media de 1552 dólares más que otros conductores en la misma zona que tenían una calificación crediticia excelente y una condena por conducir ebrio. [199]
Ya hemos explicado que el hecho de que los distintos sectores económicos basen cada vez más sus decisiones en las calificaciones crediticias de los consumidores está perjudicando principalmente a los pobres. Aquí tenemos un ejemplo más de esta tendencia, y es un ejemplo especialmente indignante porque el seguro de coche es obligatorio para todo el que quiera conducir. La diferencia aquí es que toda la atención se centra en el valor sustitutivo, cuando en realidad existen datos mucho más relevantes disponibles. No puedo imaginar ningún otro dato más significativo para las aseguradoras que tener antecedentes por conducir bajo los efectos del alcohol. Es la prueba del riesgo precisamente en el ámbito que intentan predecir. Es mucho mejor que otros valores sustitutivos que sí consideran, como la nota media del expediente en el instituto. Aun así, en su fórmula los antecedentes al volante cuentan mucho menos que la calificación extraída de los datos financieros amontonados en un informe de solvencia crediticia (que, como hemos visto, a veces es erróneo).
Entonces, ¿por qué se centran sus modelos en las calificaciones crediticias? Como otras ADM, los sistemas automáticos pueden revisar calificaciones crediticias con mucha eficiencia y a una enorme escala, pero yo diría que la razón principal está más relacionada con los beneficios. Si una aseguradora tiene un sistema con el que le saca 1552 dólares extras al año a un conductor con un historial intachable, ¿por qué cambiarlo? Como ya hemos visto, las víctimas de esta ADM son probablemente pobres y tienen un bajo nivel educativo, muchas de ellas son inmigrantes. Es menos probable que se den cuenta de que las están estafando. Y en los barrios en los que hay más oficinas de préstamos rápidos que corredurías de seguros resulta más difícil dirigirse a otras aseguradoras para buscar precios más económicos. En pocas palabras, aunque la calificación crediticia no tenga ninguna correlación con la conducción segura, sí crea un grupo rentable de conductores vulnerables. Para muchos de ellos es imprescindible poder conducir —dependen de ello para llegar al trabajo—. Y cobrarles de más es bueno para la cuenta de resultados.
Desde el punto de vista de la aseguradora, es una situación en la que todos ganan. Un buen conductor con un mal crédito tiene un riesgo bajo y un beneficio muy alto. Es más, la compañía puede usar parte de los ingresos de esa póliza para corregir las ineficiencias del modelo. Estas ineficiencias pueden incluir a los conductores con inmaculados informes de solvencia que pagan primas bajas y estrellan el coche borrachos.
Todo esto puede sonar un poco cínico, pero pensemos en el algoritmo de optimización de precios de Allstate, la aseguradora que se anuncia a sí misma invitando a los consumidores a ponerse «en sus buenas manos». Según la Federación Estadounidense de Consumidores (CFA, por sus siglas en inglés), Allstate analiza datos demográficos y de consumo para determinar la probabilidad de que los clientes vayan a buscar en la competencia precios más económicos. [200] Si es poco probable que lo hagan, tiene sentido cobrarles más, Y eso es justo lo que hace Allstate.
Y es aún peor. En una denuncia presentada por la CFA ante la agencia estatal de vigilancia de las aseguradoras de Wisconsin, se especificaba que se habían encontrado 100,000 microsegmentos en el plan de precios de Allstate. [201] Las franjas de precios se basaban en cuánto se puede esperar que pague cada grupo. Por consiguiente, algunos reciben descuentos de hasta un 90 % en la tarifa media, mientras que otros afrontan un incremento del 800 %. «El precio de los seguros de Allstate se ha desvinculado de las reglas de las primas de riesgo y de la ley», [202] afirma J. Robert Hunter, director de seguros de la CFA y antiguo miembro de la entidad reguladora del sector de los seguros de Texas. Allstate respondió diciendo que los datos de la CFA eran inexactos. No obstante, la compañía sí que admitió que «las consideraciones del mercado, de acuerdo con las prácticas del sector, han sido apropiadas a la hora de determinar los precios de los seguros». [203] En otras palabras, que sus modelos estudian una multitud de valores sustitutivos para calcular cuánto cobrar a los clientes, y que el resto del sector también lo hace.
La fijación de precios resultante es injusta. Este abuso no se produciría si los precios de los seguros fueran transparentes y si los clientes pudieran comparar los productos de distintas aseguradoras, pero, al igual que otras muchas ADM, este sistema de fijación de precios es opaco. Cada persona tiene una experiencia diferente, y los modelos se optimizan para sacar la mayor cantidad de dinero posible de los desesperados y los ignorantes. El resultado es que a los conductores que menos pueden permitirse pagar primas abusivas se les exprime hasta el último céntimo —otro bucle de retroalimentación—. El modelo se ajusta para sacar a este subgrupo la mayor cantidad de dinero posible. Inevitablemente, algunos de ellos se retrasarán en los pagos, por no poder afrontar el pago del préstamo del coche, las tarjetas de crédito o el alquiler. Esto castigará aún más sus calificaciones crediticias, lo que sin duda los hará caer en un microsegmento aún más desesperado.

* * *

En la misma época en la que Consumer Reports publicó su informe incriminatorio contra las aseguradoras de automóviles, también lanzó una campaña dirigida al organismo regulador del sector de los seguros en Estados Unidos, la Asociación Nacional de Comisionados de Seguros (NAIC, por sus siglas en inglés), que combinaba con una campaña en Twitter: @NAIC_Noticias para los comisionados de seguros: Cóbrame en función de cómo conduzco, no por cómo piensas que soy. #Arreglarlossegurosdelosautomóviles. [204]
La idea subyacente a la campaña era que los conductores debían ser juzgados por sus historiales —el número de multas por exceso de velocidad o si habían tenido o no algún accidente— y no por sus patrones de consumo, ni por los de sus amigos o vecinos. Y, sin embargo, en la era del big data, pedirles a las aseguradoras que nos juzguen por cómo conducimos es algo completamente nuevo.
Las compañías de seguros tienen hoy en día múltiples formas de estudiar el comportamiento de los conductores de forma detallada. Para hacernos una idea, no tenemos más que echar un vistazo al sector del transporte de mercancías por carretera.
En la actualidad, muchos camiones llevan dispositivos electrónicos que registran cada giro, cada aceleración y cada vez que el conductor pisa el freno. En 2015, Swift Transportation, la mayor empresa de transporte de mercancías por carretera de Estados Unidos, comenzó a instalar en sus camiones cámaras apuntando en dos direcciones: hacia la carretera y hacia la cara del conductor. [205]
Se ha anunciado que el objetivo de esta vigilancia es reducir los accidentes. Cada año, unos setecientos camioneros mueren en las carreteras estadounidenses. [206] Y sus accidentes se cobran la vida de muchas otras personas que viajan en otros vehículos. Además de la tragedia personal que esto supone, cuesta mucho dinero. El coste medio de un accidente mortal, según la Administración Federal de Seguridad de los Transportistas, es de 3,5 millones de dólares. [207]
No obstante, con un laboratorio de análisis tan grande al alcance de la mano, las empresas de transporte no se limitarán a actuar en beneficio de la seguridad. Al combinar el geoposicionamiento, la tecnología de seguimiento a bordo y las cámaras, los camioneros envían un constante y rico flujo de datos conductuales. A día de hoy, estas empresas pueden analizar diferentes rutas, evaluar la gestión del combustible y comparar los resultados a diferentes horas del día y de la noche. Pueden calcular las velocidades óptimas para cada tipo de firme. Y usan estos datos para descubrir qué patrones proporcionan los mayores beneficios al más bajo coste. [208]
También pueden comparar conductores individuales. Los registros analíticos asignan a cada conductor una tarjeta en la que se anota su puntuación. Con un par de clics, el gerente puede identificar a los mejores y a los peores conductores en función de una amplia gama de parámetros. Naturalmente, los datos de seguimiento también calculan el riesgo de cada conductor.
La promesa de ajustar los precios de los seguros al riesgo que se deriva de la conducción de cada conductor no está del todo olvidada en el sector de los seguros. Importantes aseguradoras como Progressive, State Farm o Travelers [209] ya ofrecen una reducción de las tarifas que pagan los conductores asegurados con ellos si dan su consentimiento para compartir sus datos de conducción. Una pequeña unidad telemétrica, una versión simplificada de las cajas negras de los aviones, registra la velocidad y cómo acelera o frena el conductor, mientras que el monitor GPS hace un seguimiento de los desplazamientos del coche.
Esto, en teoría, cumple el ideal que defiende la campaña de Consumer Reports. La atención se centra en el conductor individual, Pensemos en los jóvenes de dieciocho años. Tradicionalmente siempre han pagado precios astronómicos porque su grupo de edad, desde el punto de vista estadístico, es más temerario de la cuenta. Sin embargo, en la actualidad, un joven de último curso de instituto que no arranque con acelerones, que conduzca a un ritmo constante por debajo del límite de velocidad y que se detenga con suavidad ante los semáforos podría conseguir un descuento en el coste del seguro. Las compañías de seguros han ofrecido condiciones ventajosas desde hace mucho tiempo a los conductores jóvenes que se apuntan a clases de conducción y seguridad vial en el instituto o a los que sacan matrícula de honor. Se trata de valores sustitutivos para la conducción responsable, Pero lo que realmente cuenta son los datos reales de la conducción, ¿no es así?
En realidad, nos encontramos ante un par de problemas. Primero, si el sistema considera el riesgo en función de la situación geográfica, los conductores pobres saldrán perdiendo, pues es más probable que conduzcan en zonas que las aseguradoras consideran barrios de riesgo. Muchos de ellos también se desplazan al trabajo en trayectos largos e irregulares, lo que se traduce en un riesgo más alto.
Está bien, podríamos decir, Si los barrios pobres suponen un mayor riesgo, especialmente en cuanto al robo de vehículos, ¿por qué las compañías de seguros deberían ignorar esta información? Y si los desplazamientos más largos al trabajo incrementan la posibilidad de sufrir un accidente, las aseguradoras tienen derecho a tenerlo en cuenta. La decisión sigue basándose en el comportamiento del conductor, no en detalles superficiales como su calificación crediticia o el historial de conducción de otras personas de su misma edad. Muchos considerarían esto una mejora.
Y hasta cierto punto, lo es. No obstante, imaginemos a una hipotética conductora que vive en una zona poco favorecida de Newark (Nueva Jersey) y que tiene que ir todos los días a trabajar a un Starbucks en el acomodado barrio residencial de Montclair, a veintiún kilómetros de su casa. Su horario es caótico y a menudo le toca cerrar a las once de la noche, volver conduciendo a Newark y estar de vuelta en el trabajo antes de las cinco de la mañana. Para ahorrarse diez minutos y el peaje de 1,50 dólares en cada sentido de la autopista Garden State Parkway, toma un atajo que la lleva por una carretera rodeada de bares y locales de striptease.
Una aseguradora que entienda de datos sabrá que los coches que sigan esa ruta a altas horas de la madrugada correrán un mayor riesgo de accidente. Hay más de un borracho en la carretera. Hay que admitir que nuestra barista está aumentando un poco el riesgo al coger ese atajo y conducir por La misma carretera que la gente que acaba de salir de los bares. Alguien podría darle un golpe, Sin embargo, el dispositivo de rastreo GPS de la aseguradora no solo piensa que la barista se está mezclando con borrachos, sino posiblemente que ella también habrá bebido.
En este sentido, incluso los modelos que monitorizan nuestro comportamiento personal obtienen mucha información detallada y evalúan el riesgo comparándonos con otras personas. En esta ocasión, en vez de poner en el mismo saco a todos los que hablan árabe o urdu, viven en el mismo código postal o ganan el mismo sueldo, nos agrupan por actuar de forma similar La predicción se basa en la idea de que aquellos que actúan de manera parecida correrán niveles de riesgo similares. Por si no nos habíamos dado cuenta, estamos de nuevo ante el dicho «Dios los cría y ellos se juntan», con el mismo nivel de injusticia.
Cuando sale el tema de estas cajas negras en los coches, la mayoría de la gente no se opone tanto a este tipo de análisis como a la vigilancia en sí. Me dicen que no sucumbirán a la monitorización. No quieren ser rastreados, ni que se venda su información a anunciantes o se entregue a la Agencia de Seguridad Nacional (NSA, por sus siglas en inglés). Puede que algunas de estas personas logren resistirse a esta vigilancia, pero, con el tiempo, la privacidad tendrá un precio.
No estamos más que en los inicios de los sistemas de monitorización de las aseguradoras de automóviles y, por ahora, aún son opcionales. Solo aquellos que deseen ser rastreados activan sus cajas negras. Se les recompensa con un descuento de entre el 5 % y el 50 % y la promesa de más en el futuro (y los demás subvencionaremos estos descuentos con tarifas más altas). [210] No obstante, a medida que las aseguradoras obtengan más información, serán capaces de crear predicciones más potentes. Así es la naturaleza de la economía de los datos. Aquellos que sepan exprimirlos mejores análisis de esta información y convertirla en beneficios, saldrán triunfantes. Podrán predecir el riesgo de cada grupo con mayor exactitud (aunque las personas individuales siempre los confundirán). Y cuanto más se beneficien de los datos, más presión ejercerán para conseguir más.
Seguramente llegará un momento en el que la monitorización será la norma, y los consumidores que quieran arreglárselas con su seguro a la vieja usanza, sin dar más de lo esencial a las aseguradoras, tendrán que pagar un recargo, que probablemente no será barato. En el mundo de las ADM, la privacidad se irá convirtiendo progresivamente en un lujo que solo los ricos se podrán permitir.
Al mismo tiempo, la vigilancia va a cambiar la naturaleza de los seguros. Tradicionalmente ha sido un sector que ha recurrido a la mayoría de la comunidad para cubrir las necesidades de una minoría desafortunada. En los pueblos en los que vivíamos hace siglos, las familias, los grupos religiosos o los vecinos se ayudaban entre ellos en caso de incendio, accidentes o enfermedad. En la economía de mercado, subcontratamos estos cuidados a las compañías de seguros, que se quedan una parte del dinero bajo el nombre de beneficio.
A medida que las aseguradoras sepan más sobre nosotros, más capaces serán de identificar a los que parezcan ser los clientes de mayor riesgo y así inflar sus tarifas hasta la estratosfera o bien, siempre que la ley se lo permita, denegarles la cobertura. Esto no tiene nada que ver con el propósito original de los seguros, que era el de ayudar a la sociedad a compensar sus riesgos. En el mundo de la segmentación, ya no pagamos el precio medio, sino que cargamos con los costes de forma anticipada. En lugar de amortiguar los golpes de la vida, las compañías de seguros pedirán que les paguemos esos golpes por adelantado. Esto subvierte el propósito de los seguros, y quienes resultarán más perjudicados serán aquellos que menos puedan permitírselo.

* * *

Las compañías aseguradoras nos clasificarán en nuevos tipos de tribus a medida que vayan examinando los patrones de nuestras vidas y de nuestros cuerpos. Sin embargo, estas tribus no se basarán en los parámetros tradicionales, como la edad, el sexo, el patrimonio o el código postal, sino que serán tribus conductuales, generadas prácticamente en su totalidad por máquinas.
Para ver cómo esas clasificaciones se propagarán, veamos el caso de la empresa de datos neoyorquina Sense Networks [211] . Hace una década, sus investigadores comenzaron a analizar a dónde iba la gente a través de los datos de sus teléfonos móviles. Estos datos, facilitados por las compañías telefónicas europeas y estadounidenses, eran anónimos: eran puntos moviéndose en un mapa (aunque evidentemente no haría falta ser un detective para asociar cada uno de esos puntitos con la dirección a la que volvía todas las noches, pero a Sense no le interesaban las personas individuales, sino las tribus).
Los investigadores enviaron estos datos sobre usuarios de teléfonos móviles de Nueva York a un sistema de aprendizaje automático al que dieron escasas instrucciones. No le dijeron al programa que aislara a los habitantes de las zonas residenciales ni a los millennials, ni que creara distintos grupos de compradores. El software encontraría las semejanzas por sí mismo. Muchas de ellas serían inútiles —personas que pasan más del 50 % de sus días en calles que empiezan por la letra j , o personas que pasan casi todo el tiempo de la comida en la calle—. No obstante, si el sistema analizara millones de estos puntos de datos, empezarían a aparecer patrones y correlaciones, y teóricamente muchas serían correlaciones que los humanos nunca habríamos considerado.
A medida que pasaban los días y el ordenador de Sense digería su inmenso tesoro de datos, los puntos comenzaron a cambiar de color. Algunos se pusieron rojos, otros amarillos, azules o verdes. Empezaban a aparecer las tribus.
Pero ¿qué representaban esas tribus? Solo la máquina lo sabía, y no iba a contarlo, «No es seguro que podamos reconocer lo que esas personas tienen en común —dijo el cofundador y antiguo director ejecutivo de Sense, Greg Skibiski—. No encajan en las categorías que elaboramos tradicionalmente». [212] El equipo de Sense podía seguir los movimientos de los puntos por Nueva York a medida que estos adquirían sus colores. De día, ciertos barrios estaban dominados por el azul y al final de tarde se ponían rojos, salpicados con un poco de amarillo. Greg Skibiski recordaba una tribu que parecía frecuentar cierto lugar tarde por la noche. ¿Era una discoteca? ¿Un fumadero de crack? Cuando los de Sense buscaron la dirección, vieron que se trataba de un hospital. Parecía que las personas de esa tribu sufrían accidentes o caían enfermas con más frecuencia que los demás. O tal vez eran médicos, enfermeros y trabajadores de los servicios de emergencia.
YP, una empresa de publicidad móvil filial de AT&T, adquirió Sense en 2014, lo que significa que, por el momento, sus clasificaciones serán usadas para segmentar distintas tribus como destinatarios de publicidad. [213] Sin embargo, podemos imaginar fácilmente que los sistemas de aprendizaje automático a los que se suministren distintos flujos de datos conductuales pronto nos clasificarán no solo en una tribu, sino en cientos de ellas, miles incluso. Algunas tribus estarán definidas por personas que reaccionan ante anuncios similares. Otras pueden coincidir en política, o puede que vayan a la cárcel con más frecuencia. A otros podría encantarles la comida rápida.
Lo que intento decir es que, en los próximos años, enormes cantidades de datos conductuales irán directos a sistemas de inteligencia artificial que, a nuestros ojos, seguirán siendo cajas negras. En este proceso, raras veces sabremos a qué tribus «pertenecemos» ni por qué. En la era de las máquinas inteligentes, la mayoría de Las variables serán un misterio. Muchas de esas tribus cambiarán cada hora, incluso cada minuto, a medida que los sistemas nos trasladen de un grupo a otro. Al fin y al cabo, una persona se comporta de manera muy diferente a las ocho de la mañana y a las ocho de la tarde.
Estos programas automáticos determinarán cada vez más cómo nos tratarán el resto de máquinas: las que escogen los anuncios que vemos, deciden los precios que debemos pagar, nos ponen en la lista de espera del dermatólogo o confeccionan nuestras rutas. Serán muy eficientes, aparentemente arbitrarias y no darán explicaciones de ningún tipo. Nadie podrá entender su lógica ni explicarla.
Si no establecemos una medida de control, las ADM del futuro nos parecerán misteriosas y poderosas. Harán lo que quieran con nosotros y ni siquiera nos daremos cuenta de ello.
En 1943, durante el punto álgido de la Segunda Guerra Mundial, cuando tanto el Ejército como la industria estadounidenses necesitaban hasta el último de los soldados y los trabajadores que pudieran encontrar, la agencia tributaria estadounidense (IRS, por sus siglas en inglés) modificó la normativa fiscal para que los seguros de salud de los trabajadores que cubrieran los empleadores quedaran exentos del pago de impuestos. [214] Esta modificación no parecía en absoluto relevante, desde luego nada que pudiese competir con los titulares sobre la rendición de los alemanes en Stalingrado o los desembarcos aliados en Sicilia. En aquel momento, aproximadamente solo el 9 % de los trabajadores estadounidenses contaba con un seguro médico contratado por la empresa. [215] Gracias a esta nueva exención fiscal, las empresas se decidieron a ofrecer este tipo de seguros con el fin de atraer a los escasos trabajadores disponibles. Al cabo de diez años, el 65 % de los estadounidenses tenía cobertura médica gracias a los seguros contratados por sus empresas. [216] Las empresas ya ejercían un gran control sobre nuestras finanzas, y en tan solo una década se hicieron también con el control sobre nuestros cuerpos, lo quisieran o no.
Los costes de la asistencia sanitaria se han multiplicado enormemente setenta y cinco años después, y hoy en día consumen tres billones de dólares al año. [217] Aproximadamente uno de cada cinco dólares que ganamos alimenta el enorme sector de la asistencia sanitaria. [218]
Las empresas, que durante mucho tiempo han estado negociando con los trabajadores hasta el último centavo para abaratar costes, disponen ahora de una nueva táctica para combatir el aumento de los costes. Lo llaman «salud y bienestar» (wellness en inglés) y supone una vigilancia cada vez mayor que incluye la recopilación de multitud de datos provenientes del Internet de las Cosas —las pulseras Fitbit, los relojes de Apple y otros sensores que transmiten actualizaciones sobre cómo funcionan nuestros cuerpos—.
Esta idea, como hemos comprobado muchas veces, nace de buenas intenciones. De hecho, está promovida por el Gobierno. La Ley sobre la Atención Sanitaria Asequible, también conocida como Obamacare, invita a las empresas a inscribir a sus trabajadores en programas de salud y bienestar e incluso a «incentivar» la salud. [219] Por ley, las empresas pueden ahora ofrecer recompensas y aplicar sanciones que pueden llegar hasta el 50 % del coste de la cobertura. [220] Según un estudio de la corporación Rand, más de la mitad de las empresas con cincuenta trabajadores o más tienen este tipo de programas ya operativos, y muchas más se apuntan a esta tendencia todas las semanas. [221]
Hay justificaciones de sobra para los programas de salud y bienestar. Si funcionan —y, como veremos, estamos ante un importante «si» condicional—, los grandes beneficiados serán los trabajadores y sus familias. No obstante, si gracias a estos programas los trabajadores consiguen evitar desarrollar enfermedades cardiovasculares o diabetes, también ganan las empresas. Cuantas menos visitas a urgencias hagan los empleados de una empresa, menos riesgos asociará la compañía de seguros al conjunto de trabajadores de dicha empresa, con lo que las primas del seguro serán más bajas. Por tanto, si sencillamente pasamos por alto las intromisiones, los programas de salud y bienestar pueden parecemos medidas beneficiosas para todas las partes implicadas.
El problema es que no podemos ignorar esas intromisiones, ni hacer que desaparezcan solo con desearlo. Ni podemos ignorar la coacción. Tomemos el caso de Aaron Abrams, profesor de Matemáticas en la Universidad de Washington and Lee de Virginia. Tiene su seguro de salud con Anthem Insurance, que cuenta con un programa de salud y bienestar. [222] Para cumplir los requisitos del programa, Aaron tiene que acumular 3250 «puntos de salud». Obtiene un punto por cada «registro diario» y 1000 más por hacerse un chequeo anual con el médico y si se somete a un cribado que se realiza en el campus. También consigue puntos por rellenar una «encuesta de salud» en la que se asigna a sí mismo metas mensuales que, de conseguirlas, le otorgarán aún más puntos. Si Aaron decide no participar en el programa, deberá pagar un recargo de 50 dólares mensuales en la prima.
A Aaron lo contrataron para enseñar matemáticas y ahora, como tantos otros millones de estadounidenses, parte de su trabajo consiste en seguir un montón de dictados de salud y compartir esos datos no solo con su empleador, sino también con una tercera parte que gestiona el programa. Esto le molesta y prevé que la universidad ampliará la vigilancia: «Da escalofríos pensar que alguien reconstruya mis movimientos diarios basándose en la “automonitorización” que yo mismo haga de mis desplazamientos».
Mi miedo va más allá. Una vez que las empresas hayan acumulado ingentes cantidades de datos sobre la salud de sus empleados, ¿qué les impedirá elaborar calificaciones de salud y usarlas para filtrar a los candidatos a un puesto de trabajo? Muchos de los datos sustitutivos que reunirán, ya sean los pasos dados en un día o los patrones de sueño, no están protegidos por la ley, por lo que en teoría sería perfectamente legal utilizarlos. Y tendría sentido. Como ya hemos visto, las empresas rechazan todos los días candidatos basándose en sus calificaciones crediticias y en los test de personalidad. Las calificaciones de salud representan el siguiente —y aterrador— paso.
Las empresas ya están imponiendo ambiciosos niveles de salud a sus trabajadores y penalizándolos si no los alcanzan. Michelin, la empresa de neumáticos, fija las metas que deben alcanzar sus empleados en parámetros que van desde la presión sanguínea hasta la glucosa, pasando por el colesterol, los triglicéridos y el tamaño de la cintura. [223] Aquellos que no alcancen los objetivos en al menos tres de las categorías deberán pagar un recargo anual de 1000 dólares a su seguro. En 2013, la cadena de farmacias CVS, con presencia en todo Estados Unidos, anunció que comenzaría a pedir a sus empleados un informe sobre sus niveles de grasa corporal, azúcar en sangre, presión sanguínea y colesterol, y el que no está dispuesto a hacerlo tendrá que pagar 600 dólares al año. [224]
La medida que tomó CVS con sus empleados suscitó esta airada respuesta por parte de Alissa Fleck, columnista de Bitch Media: «Atención, todo el mundo, atención. Si alguno de vosotros lleva años intentando ponerse en forma, puede abandonar ahora mismo todo lo que haya probado hasta el momento, porque CVS tiene la solución. Resulta que en cualquiera de las dietas que hayamos intentado la clave que faltaba era contar con el incentivo adecuado. Aunque en realidad ese régimen ya existe y se llama autohumillación y vergüenza de estar gordo. Es un régimen que te da a elegir entre dos opciones: que alguien te diga que tienes sobrepeso o pagar una buena multa». [225]
En el centro del problema del peso encontramos una estadística muy cuestionada: el índice de masa corporal (IMC). Este índice se basa en una fórmula concebida hace dos siglos por un matemático belga, Lambert Adolphe Jacques Quetelet, que no sabía casi nada de salud y mucho menos del cuerpo humano. [226] Quetelet solo buscaba una fórmula sencilla para estimar los índices de obesidad de grandes poblaciones y, para desarrollarla, se basó en lo que llamó «el hombre medio».
«Es un concepto muy útil —escribe Keith Devlin, matemático y autor de literatura científica—, pero si intentamos aplicarlo a una única persona, llegamos al absurdo de decir que una persona tiene 2,4 hijos. [227] Las medias miden poblaciones enteras y a menudo no se pueden aplicar a las personas individuales». Keith Devlin añade que el IMC, con sus puntuaciones numéricas, reviste de autoridad científica lo que no es más que un «remedio chino matemático».
El IMC se obtiene dividendo el peso en kilos de una persona entre su altura en centímetros. Es un valor sustitutivo numérico muy tosco del estado de salud física. Aplicándolo, es más probable llegar a la conclusión de que las mujeres padecemos sobrepeso (al fin y al cabo, no somos un «hombre medio»). Es más, dado que la grasa pesa menos que el músculo, los atletas muy musculados suelen tener el IMC por las nubes. En el universo del IMC, el jugador de la NBA LeBron James padece sobrepeso. Cuando se establecen recompensas y castigos económicos en relación con el IMC, se penaliza a enormes grupos de trabajadores por el tipo de cuerpo que tienen. Y esto afecta especialmente a las mujeres negras, quienes a menudo tienen índices más altos.
Pero ¿no es algo bueno ayudar a la gente a mejorar sus problemas de peso y otros problemas de salud?, preguntarán los defensores de los programas de salud y bienestar. La cuestión clave aquí es si esta ayuda es una oferta o una exigencia. Si las empresas ofrecieran programas de salud y bienestar voluntarios, muy pocos tendrían razones para oponerse a ellos (y es cierto que los trabajadores que deciden apuntarse a dichos programas mejoran su salud, aunque es posible que también lo hubieran hecho aunque no se hubieran apuntado a esos programas). No obstante, asociar una estadística errónea como el IMC a una recompensa y persuadir a los trabajadores para moldear sus cuerpos según el ideal de una empresa va en contra de la libertad. Y da a las empresas una excusa para castigar a la gente a la que no quiere ver —y de camino también para sacarles dinero—.
Y todo esto se hace en nombre de la salud, Mientras tanto, el sector de la salud y el bienestar (valorado en 6000 millones de dólares) proclama sus éxitos a diestro y siniestro —y con frecuencia sin presentar ninguna prueba—, [228] «Estos son los hechos —escribía Joshua Love, presidente de Kinema Fitness, una empresa corporativa de salud y bienestar—: las personas que están más sanas trabajan más, son más felices, ayudan a los demás y son más eficientes. Los trabajadores con mala salud suelen estar inactivos y sentirse agotados e infelices, porque su forma de trabajar es un síntoma de su estilo de vida». [229]
Naturalmente, Joshua Love no citaba ninguna fuente que respaldase estas aseveraciones, e incluso, de ser ciertas, existe muy poca evidencia de que los programas de salud y bienestar obligatorios consigan realmente mejorar la salud de los trabajadores. Un informe del grupo de investigación del Programa de Revisión de las Coberturas de Salud de California llegó a la conclusión de que los programas corporativos de salud y bienestar no consiguen reducir la tensión sanguínea media, el azúcar en sangre ni el colesterol de quienes participan en ellos. [230] Incluso cuando los participantes logran perder peso en alguno de estos programas, tienden a recuperarlo fácilmente (la única área en la que estos programas muestran resultados positivos son los programas para dejar de fumar).
También resulta que, a pesar de sus tan publicitados éxitos individuales, estos programas de salud y bienestar no suelen conseguir reducir el gasto en asistencia sanitaria. Un estudio de 2013 dirigido por Jill Horwitz, profesora de Derecho en la Universidad de California en Los Ángeles (UCLA), desmantela los fundamentos económicos del movimiento. [231] Según sus conclusiones, los estudios aleatorios «plantean dudas» sobre si los trabajadores obesos o fumadores cargan realmente facturas médicas más altas que otros. Aunque es cierto que es más probable que sufran problemas de salud, estos suelen llegar en etapas más tardías de la vida, cuando ya están fuera de los planes corporativos de salud y han pasado a estar cubiertos por Medicare, el programa de salud para personas mayores con enfermedades graves. De hecho, el mayor ahorro obtenido por los programas de bienestar proviene en realidad de las sanciones aplicadas a los trabajadores. En otras palabras, igual que los algoritmos que se utilizan para definir los horarios de trabajo, estos programas ofrecen a las empresas una herramienta más para saquear las nóminas de sus empleados.
A pesar de los problemas que veo en los programas de salud y bienestar, (aún) no cumplen todos los requisitos para ser considerados un ADM en toda regla. Es cierto que están muy extendidos, se cuelan en la vida de millones de empleados y les infligen perjuicios económicos. Pero no son opacos y, salvo por el engañoso IMC, no se basan en algoritmos matemáticos. Se trata de un sencillo y muy difundido caso de robo de salarios, aunque muy bien envuelto en las florituras de la retórica de lo saludable.
Los empleadores ya se están dando un festín con nuestros datos. Como hemos visto, están aprovechándolos para clasificarnos como potenciales empleados y como trabajadores. Tratan de hacer un esquema de nuestros pensamientos y de nuestras amistades, e intentan predecir nuestra productividad. Y dado que están muy relacionados con los seguros, puesto que la asistencia sanitaria de los trabajadores es uno de sus principales gastos, es lógico que hayan ampliado la vigilancia a una mayor escala para cubrir la salud de los trabajadores. Y si las empresas elaboraran sus propios modelos de salud y de productividad, esto podría acabar siendo un ADM de pleno derecho.

Capítulo 10
Ciudadano segmentado. Derechos civiles y políticos

A estas alturas, creo que resulta ya más que evidente que me escandalizan todos los tipos de ADM. Pues imaginemos que decido lanzar una campaña para presionar a favor de una normativa más estricta que las regule y publico una petición en mi página de Facebook. ¿Cuáles de mis amigos la verían en sus muros?
No tengo ni idea. En el momento en que le doy a enviar, la petición pertenece a Facebook y el algoritmo de la red social decidirá cómo usarla, calculando las probabilidades que tiene de ser atractiva para cada uno de mis amigos. Facebook sabe que algunos de ellos firman peticiones a menudo y que las comparten con sus amigos en sus propias redes. Otros suelen pasar de largo por la pantalla. Por otro lado, algunos de mis amigos me prestan más atención que otros y suelen hacer clic en los artículos que publico. El algoritmo de Facebook decide quién verá mi petición teniendo en cuenta todo esto. A muchos de mis amigos les aparecerá tan abajo en sus muros que nunca llegarán a verlo.
Esto es lo que pasa cuando la poderosísima red que compartimos con 1500 millones de usuarios es al mismo tiempo una sociedad que cotiza en bolsa. Aunque Facebook pueda parecer una moderna plaza del pueblo, la empresa decide, conforme a sus propios intereses, qué vemos y qué descubrimos en su red social. En el momento en que escribo esto, aproximadamente dos tercios de la población adulta de Estados Unidos tienen un perfil en Facebook. [232] Pasan treinta y nueve minutos al día en la página, solo cuatro minutos menos que los que dedican a la socialización cara a cara. [233] Casi la mitad de ellos, según un informe del laboratorio de ideas Pew Research Center, confía en Facebook para que transmita al menos algunas de las cosas que quieren contarles a sus amigos, lo que nos lleva a preguntarnos: si Facebook alterara el algoritmo y modificara las noticias que vemos, ¿podría llegar a manipular el sistema político? [234]
La empresa ha estado estudiando esta cuestión con sus propios investigadores. Durante las elecciones de 2010 y 2012 en Estados Unidos, Facebook llevó a cabo una serie de experimentos para perfeccionar una herramienta a la que llamó «el megáfono del votante», [235] La idea era animar a la gente a que publicara en la red social un mensaje anunciando que ya habían votado. La idea parecía bastante razonable. Al salpicar el muro de los usuarios con mensajes diciendo: «He votado», Facebook alentaba a los estadounidenses —a más de 61 millones de personas— a cumplir su deber como ciudadanos y a hacer oír sus voces. Es más, al publicar mensajes diciendo que la gente había votado, la página ejercía presión de grupo sobre los demás usuarios para que votaran. Algunos estudios han demostrado que la satisfacción íntima de cumplir con un deber ciudadano moviliza mucho menos a la gente que el posible juicio de sus amigos o vecinos. [236]
Al mismo tiempo, los investigadores de Facebook estudiaron cómo los diferentes tipos de publicaciones influían en el comportamiento electoral de la gente. Nadie había investigado jamás en un laboratorio humano a tal escala. En cuestión de horas, Facebook podía recopilar información sobre decenas de millones de personas y calcular el impacto que sus palabras y los enlaces que compartían tenían los unos sobre los otros. Y, además, podía usar ese conocimiento para influir en las acciones de las personas, lo que, en este caso, era conseguir que fueran a votar.
Estamos hablando de una cantidad de poder realmente significativa, y Facebook no es la única empresa que ostenta tanto poder, Otras empresas que cotizan en bolsa como Google, Apple, Microsoft, Amazon y compañías telefónicas como Verizon y AT&T poseen una ingente cantidad de información sobre gran parte de la humanidad (y disponen de los medios necesarios para llevarnos por el camino que deseen).
Como ya hemos visto, normalmente se centran en generar ingresos. Sin embargo, sus beneficios están estrechamente ligados a las políticas gubernamentales. El Gobierno los regula o deja de hacerlo, aprueba o bloquea sus fusiones y adquisiciones y define las políticas fiscales (a menudo haciendo la vista gorda a los miles de millones de dólares depositados en paraísos fiscales). Esta es la razón por la que las empresas de tecnología, al igual que el resto de las grandes empresas estadounidenses, inundan Washington con grupos de presión e inyectan silenciosamente cientos de millones de dólares como donaciones al sistema político. [237] Ahora, además, están consiguiendo los medios necesarios para moldear nuestro comportamiento político —y, con él, la configuración del Gobierno estadounidense— y para hacerlo no tienen más que ajustar sus algoritmos.
La campaña de Facebook comenzó con un objetivo constructivo y aparentemente inocente: animar a la gente a ir a votar, Y lo consiguió. Al comparar las cifras de participación de elecciones anteriores, los investigadores calcularon que su campaña había incrementado el número de votantes en 340.000 personas. [238] Es una cantidad de gente lo suficientemente grande como para cambiar el resultado electoral en estados enteros, e incluso en las elecciones nacionales. Al fin y al cabo, George W. Bush ganó en el año 2000 por una diferencia de 537 votos en Florida. [239] Está claro que la actividad de un único algoritmo de Facebook el día de las elecciones podría no solo cambiar el equilibrio del Congreso, sino también decidir quién ocuparía la presidencia.
La fuerza de Facebook no solo se debe a su alcance, sino también a su habilidad para hacer que sus propios clientes influyan en sus amigos. La gran mayoría de los 61 millones de personas incluidas en el experimento recibieron en sus muros un mensaje que las animaba a ir a votar.
En el mensaje había un montaje de fotografías de seis amigos del usuario de Facebook que habían hecho clic en el botón de «He votado» seleccionados al azar. Los investigadores también estudiaron otros dos grupos de control, ambos de en torno a 600.000 personas. Un grupo vio la campaña del «He votado» sin las fotos de sus amigos y el otro no recibió nada de nada.
Al esparcir sus mensajes por la red, Facebook estudiaba el impacto del comportamiento de los amigos del usuario sobre dicho usuario. ¿Fomentaría la gente el voto entre sus amigos? ¿Afectaría esto a su comportamiento? Según las estimaciones de los investigadores, ver que sus amigos participaban en las elecciones lo cambiaba todo. La gente prestaba mucha más atención cuando las publicaciones de «He votado» provenían de sus amigos y era más probable que compartieran esos posts. Aproximadamente el 20 % de gente que vio que sus amigos habían votado también hizo clic en el botón de «He votado». Entre los que no recibieron el botón de sus amigos, solo el 18 % hizo clic en él. No se puede afirmar con seguridad que toda la gente que hizo clic en el botón de «He votado» fuera a votar, ni que aquellos que no lo hicieron se quedaran en casa. Aun así, con 61 millones de votantes potenciales en su red, una posible diferencia de dos puntos puede tener enormes consecuencias.
Dos años después, Facebook fue un poco más lejos. Durante los tres meses previos a las elecciones presidenciales entre el presidente Obama y Mitt Romney, un investigador de la compañía, Solomon Messing, alteró el algoritmo de actualización del muro de unos dos millones de personas, todas ellas comprometidas políticamente. [240] A estas personas se les mostró una proporción más alta de noticias serias, en lugar de los típicos vídeos de gatitos, invitaciones a graduaciones o fotos en Disney World. Si sus amigos compartían una noticia, esta aparecía en la parte superior de la página.
Messing quería ver si el hecho de recibir más noticias de los amigos modificaría el comportamiento político de la gente. Después de las elecciones, Messing envió sus encuestas. Los resultados facilitados por los propios encuestados indicaban que la participación de los votantes de este grupo había subido ligeramente del 64 % al 67 %. «Cuando son tus amigos los que te entregan el periódico pasan cosas interesantes», afirmaba Lada Adamic, científica social computacional de Facebook, [241] Evidentemente, no eran realmente sus amigos los que les entregaban el periódico, sino el propio Facebook. Podríamos argumentar que los periódicos han ejercido un poder similar durante muchísimo tiempo. Los editores escogen las noticias de portada y deciden cómo caracterizarlas, eligen presentar a los palestinos bombardeados o a los israelíes de luto, a un policía rescatando a un bebé o cargando contra un manifestante. Sin duda estas decisiones pueden influir tanto en la opinión pública como en las elecciones. Y lo mismo ocurre con las noticias de la televisión. Sin embargo, cuando el New York Times o la CNN cubren una historia, todo el mundo lo ve. Su decisión editorial está clara, queda registrada. No es opaca. Y después, la gente puede debatir (a menudo en Facebook) si esa decisión editorial ha sido o no la correcta.
Facebook es más como el Mago de Oz: no vemos a los seres humanos implicados. Cuando visitamos la página, nos desplazamos a través de las publicaciones de nuestros amigos. La máquina parece no ser más que un intermediario neutro. Mucha gente sigue pensando que es así. En 2013, una investigadora de la Universidad de Illinois llamada Karrie Karahalios llevó a cabo una encuesta sobre el algoritmo de Facebook, y descubrió que el 62 % de los encuestados no era consciente de que la compañía interviene en lo que aparece en el muro. [242] Pensaban que el sistema compartía inmediatamente todo lo que publicaban con todos sus amigos.
El potencial de Facebook para controlar la política va más allá de cómo coloca las noticias o de sus campañas para promocionar la participación en las elecciones. En 2012 unos investigadores experimentaron con 680.000 usuarios de Facebook para ver si las publicaciones que aparecían en sus muros podían alterar su estado de ánimo. [243] Por experimentos anteriores ya se sabía que el estado de ánimo es contagioso. Si estamos cerca de una persona gruñona, es probable que nos pongamos de mal humor, al menos durante un rato. Pero ¿podría este contagio propagarse en línea?
Facebook clasificó las publicaciones entre positivas (¡mola!) y negativas (¡terrible!) con la ayuda de un software lingüístico. Acto seguido, se redujo el volumen de las publicaciones deprimentes en la mitad de los muros y el contenido alegre en la otra mitad. Cuando investigaron el posterior comportamiento de los usuarios en sus propias publicaciones, encontraron pruebas de que, en efecto, los muros modificados habían alterado su estado de ánimo. Los que habían recibido menos posts alegres hicieron más publicaciones negativas y en el grupo expuesto a mensajes positivos apareció un patrón optimista.
Conclusión: «Los estados emocionales pueden transferirse a otras personas […], y las conducen a sentir las mismas emociones sin ser conscientes de ello». En otras palabras, los algoritmos de Facebook pueden influir en los sentimientos de millones de personas sin que estas se den cuenta de lo que ocurre. ¿Qué pasaría si jugasen con las emociones de la gente el día de las elecciones?
No tengo ninguna razón para creer que los científicos sociales de Facebook estén jugando activamente con el sistema político. La mayoría de ellos son académicos serios que llevan a cabo sus investigaciones en una plataforma con la que solo podían soñar hace apenas dos décadas. Lo que sí han demostrado es el enorme poder de Facebook para influir en lo que sabemos, en cómo nos sentimos y en si votamos o no. La plataforma es gigantesca, poderosa y opaca. Los algoritmos quedan ocultos y solo vemos los resultados de los experimentos que los investigadores deciden publicar.
Con Google la situación es muy parecida. Aparentemente, su algoritmo de búsquedas tiene como propósito incrementar los ingresos, pero los resultados de las búsquedas, si Google así lo decidiera, podrían tener un efecto dramático en lo que sabe la gente y en el sentido de su voto. Recientemente, dos investigadores, Robert Epstein y Ronald E, Robertson, pidieron a votantes indecisos en Estados Unidos e India que usasen un motor de búsqueda para informarse sobre las elecciones que iban a celebrarse poco después. [244] Los motores que usaron estaban programados para sesgar los resultados, favoreciendo a un partido frente a otro. Según afirmaron, estos resultados cambiaban en un 20 % las preferencias de voto.
El efecto fue influyente en parte porque la gente confía mucho en los motores de búsqueda. Según un informe del laboratorio de ideas Pew Research Center, un 73 % de los estadounidenses cree que los resultados de las búsquedas son rigurosos e imparciales. [245] Por lo tanto, empresas como Google pondrían en riesgo su reputación y estarían pidiendo a gritos fuertes medidas regulatorias si manipularan los resultados de las búsquedas para favorecer un resultado político en detrimento de otro.
Pero, en realidad, ¿lo sabríamos sí lo hicieran? La información que recibimos sobre estos gigantes de Internet proviene fundamentalmente de la ínfima proporción de investigaciones propias que comparten. Sus algoritmos son secretos de mercado fundamentales. Desarrollan su actividad en las sombras.
Todavía no puedo decir que los algoritmos de Facebook o Google sean ADM políticas, porque no tengo ninguna prueba de que estas empresas usen sus redes para provocar daños. Aun así, el potencial que tienen para llegar al abuso es inmenso. El drama se desarrolla en el código y tras imponentes cortafuegos. Y, como veremos a continuación, esta tecnología tiene la capacidad de colocarnos a cada uno de nosotros dentro de nuestro propio y acogedor rincón político.

* * *

A finales de la primavera de 2012, el exgobernador de Massachusetts, Mitt Romney, tenía la candidatura republicana bien atada. El paso siguiente consistía en conseguir los fondos de financiación adecuados para el momento decisivo de las elecciones generales frente al presidente Obama. Por lo tanto, el 17 de mayo viajó a Boca Ratón (Florida), para un evento de recaudación de fondos en la mansión de Marc Leder, un inversor de capital privado. [246] Leder ya había insuflado 225.000 dólares en el Super PAC (comité de acción política sin limitación de recaudación) «Recuperemos nuestros futuro», a favor de Romney, y otros 63.330 en el PAC (comité de acción política regulado) por la victoria de Romney. Marc Leder había reunido a muchos de sus amigos ricos, la mayoría de ellos del sector de las finanzas y del mercado inmobiliario, para conocer al candidato. Naturalmente, en el evento habría catering.
Romney podía dar por sentado que hablaba en un entorno cerrado y seguro, ante un grupo de personas que compartían la línea de pensamiento de Marc Leder. Si se hubiera tratado de un discurso televisado, Romney habría tenido cuidado de no molestar a ninguno de los potenciales votantes republicanos, desde cristianos evangélicos y financieros de Wall Street a cubano-americanos y amas de casa de zonas residenciales entregadas al cuidado de sus hijos. Precisamente ese esfuerzo por complacer a todo el mundo es una de las razones de que los discursos políticos sean tan aburridos (y los de Romney lo eran hasta tal punto que incluso sus partidarios se quejaban de ello). Sin embargo, en un encuentro privado en casa de Marc Leder, un pequeño e influyente grupo podría ver en persona al verdadero Mitt Romney y escuchar lo que el candidato opinaba de verdad, sin filtros. Le habían entregado ya generosas donaciones; una charla sincera era lo menos que podían esperar de su inversión.
Romney, al creer que disfrutaba de la compañía de personas afines y que le apoyaban, dio rienda suelta a sus opiniones personales diciendo que el 47 % de la población eran unos «aprovechados» que vivían de la generosidad del gran Gobierno. Esta gente jamás votaría por él, afirmaba el gobernador, por lo que era especialmente importante llegar al otro 53 96. Sin embargo, Romney se había equivocado al identificar a su audiencia. Los empleados del catering que servían las bebidas y los canapés entre los invitados eran intrusos y, como casi todo el mundo hoy en día, tenían móviles con cámara de vídeo. El vídeo con los comentarios despectivos de Romney que grabó uno de los camareros se hizo viral. [247] Es muy probable que esta metedura de pata le costara a Romney las pocas posibilidades que tuviese de llegar a la Casa Blanca, [248]
El éxito de Romney en aquel encuentro en Boca Ratón requería tanto una buena identificación de la audiencia como discreción. Quería ser el candidato ideal para Marc Leder y compañía y confiaba en que la casa de Leder era una zona segura en la que podía ser ese candidato. En un mundo ideal, los políticos circularían por incontables zonas seguras segmentadas, para así poder adaptar el discurso a cada subgrupo sin dejar que los otros lo viesen. Un candidato podría ser muchos candidatos, y cada subgrupo del electorado vería únicamente el lado del candidato que prefiere.
Esta duplicidad, o «multiplicidad», no es nueva en política. Durante mucho tiempo, los políticos han intentado ser muchas cosas para mucha gente, ya sea comiendo salchichas tradicionales polacas en Milwaukee (con una de las mayores comunidades polacas de Estados Unidos), citando la Tora en Brooklyn (en su importante barrio judío) o jurando lealtad al bioetanol de maíz en Iowa (estado productor de maíz). Sin embargo, como Romney descubrió, ahora las cámaras de vídeo podían trincarlos fácilmente si se pasaban de contorsionistas.
No obstante, el moderno marketing orientado al consumidor ofrece a los políticos nuevas vías para decir a grupos concretos de votantes lo que saben que esos electores quieren oír. Y cuando lo hacen, es más probable que dichos votantes acepten la información tal y como se la presentan porque confirma sus creencias anteriores, un fenómeno que los psicólogos llaman sesgo de confirmación. Este sesgo es una de las razones por las que ninguno de los contribuyentes invitados cuestionó a Romney cuando este afirmó que casi la mitad de los votantes solo buscaban las ayudas del Gobierno. Esta aseveración no hacía más que reforzar sus convicciones previas.
Esta mezcla de política y marketing orientado al consumidor ha ido desarrollándose desde hace medio siglo, al mismo tiempo que los rituales tribales de la política estadounidense, con sus jefes de distrito electoral y sus largos listines telefónicos, se han entregado a la ciencia del marketing. En The Selling of the President, publicado tras la campaña de 1968 de Richard Nixon, el periodista Joe McGinniss presentó a sus lectores los equipos operativos políticos que trabajaban para promocionar al candidato presidencial como si de un bien de consumo se tratara. [249] La campaña de Nixon consiguió moldear el discurso para adaptarlo a diferentes regiones y sectores demográficos gracias a la investigación con grupos focales.
Sin embargo, con el paso del tiempo, los políticos demandaron una aproximación más detallada, una que idealmente llegara a cada votante individual con un anzuelo personalizado. Este deseo condujo al nacimiento de las campañas de correo directo. Tomando prestadas tácticas del sector de las tarjetas de crédito, los equipos operativos políticos generaron enormes bases de datos de clientes —votantes en este caso— y los clasificaron en varios subgrupos en función de sus valores y sus sectores demográficos. Por primera vez era posible enviar a dos vecinos de la misma calle diferentes cartas y distinta propaganda del mismo político, unas prometiendo proteger la naturaleza y otras poniendo el acento en la ley y el orden.
El correo directo era la microsegmentación en pañales. La convergencia del big data y el marketing de consumo ha entregado a los políticos nuevas herramientas mucho más poderosas. Ahora pueden dirigirse a microgrupos de ciudadanos para conseguir votos o dinero y para atraerlos con un mensaje meticulosamente pulido, un mensaje que probablemente nadie más vea. Puede ser un banner de Facebook o un correo electrónico solicitando fondos. Y cada uno de ellos permite a los candidatos vender silenciosamente múltiples versiones de sí mismos… y nadie sabe qué versión será la que ocupará el despacho después de la toma de posesión.
En julio de 2011, más de un año antes de que el presidente Obama se presentase a la reelección, un científico de datos, Rayid Ghani, publicó el siguiente anuncio en LinkedIn: [250]
Se contratan expertos en analítica que quieran marcar la diferencia. La campaña para la reelección de Obama necesita más analistas en el equipo dedicado a problemas de minería de datos a gran escala y de alto impacto.
Ofrecemos varios puestos que requieren distintos niveles de experiencia. Se buscan expertos en estadística, aprendizaje automático, minería de datos, análisis de textos y análisis predictivo para trabajar con grandes volúmenes de datos y ayudar a orientar la estrategia de las elecciones.
Rayid Ghani, ingeniero de sistemas que estudió en la Universidad Carnegie Mellon, estaba al frente del equipo de datos de la campaña de Obama. [251] En su puesto anterior en Accenture Labs, en Chicago, había desarrollado aplicaciones de consumo para big data y confiaba en que podría aplicar sus capacidades a la política. El objetivo de la campaña de Obama era la creación de tribus de votantes que pensaran de forma similar, gente igualmente uniforme en sus valores y prioridades como los invitados al evento de Maro Leder —pero sin los camareros—. Así podrían dirigirse a ellos con el mensaje que más probabilidades tuviese de movilizarlos hacia objetivos específicos, como votar, organizar o recaudar fondos.
Uno de los proyectos de Ghani en Accenture consistía en hacer modelaciones con los compradores de un supermercado. [252] Una importante cadena entregó al equipo de Accenture una base de datos gigantesca con las compras de clientes cuyos datos personales habían sido borrados. La idea era investigar esos datos a fondo y estudiar los hábitos de compra de cada consumidor, para luego clasificarlos en cientos de grupos diferentes. Estaban los compradores impulsivos que cogían caramelos al pasar por caja y los fanáticos de la salud dispuestos a pagar el triple por la col rizada ecológica. Estas eran las categorías obvias, pero otras resultaron más sorprendentes. Ghani y su equipo, por ejemplo, pudieron identificar a los consumidores que permanecían fieles a una marca y a otros que cambiaban en cuanto se les ofrecía un pequeño descuento. También había clasificaciones para esos «influenciables». El objetivo final era elaborar un plan diferente para cada comprador y guiarlo a través de la tienda, llevándolo por todos los alimentos que con más probabilidad querría y compraría.
Por desgracia para los clientes de Accenture, ese objetivo final dependía de la llegada de carritos de la compra computarizados, que aún no se han puesto muy de moda y puede que nunca lleguen a hacerlo. No obstante, a pesar de la decepción de los supermercados, el experimento de Ghani se podía trasladar perfectamente a la política. Esos compradores volubles que cambiaban de marca para ahorrarse unos pocos céntimos, por ejemplo, se comportaban de manera muy similar a los votantes indecisos. En el supermercado se podía calcular cuánto costaría que un comprador cambiase de una marca de café o kétchup a otra más rentable, de modo que el supermercado podía seleccionar al, digamos, 15 % de los clientes con más probabilidades de cambiar de una marca a otra y darles vales de descuento. Una segmentación inteligente era esencial. No querían entregar vales de descuento a los consumidores que estuviesen dispuestos a pagar el precio completo. Eso sería como quemar dinero. [253]
¿Funcionarían los mismos cálculos con los votantes indecisos? Armados con grandes volúmenes de datos de consumo, demográficos y de voto, Ghani y su equipo se pusieron manos a la obra con la investigación. Sin embargo, se dieron de bruces con una diferencia crucial. En el proyecto del supermercado todos los datos disponibles estaban directamente relacionados con el ámbito de las compras. Estudiaron patrones de consumo para predecir lo que la gente compraría (e influir en ello). Sin embargo, en política había muy poca disponibilidad de datos directos. En ambos casos, los equipos de datos necesitaban valores sustitutivos, y para obtenerlos hacía falta investigar.
Comenzaron realizando entrevistas de gran profundidad a miles de personas. A algunos les preocupaba la educación o los derechos de los homosexuales, a otros la Seguridad Social o el impacto del fracking en los acuíferos de agua dulce. Algunos apoyaban incondicionalmente al presidente, otros no se definían. A muchos les gustaba, pero casi nunca iban a votar. Algunos de ellos —y esto era vital— estaban dispuestos a aportar dinero a la campaña de Obama.
Cuando el equipo de Ghani hubo comprendido a este pequeño grupo de votantes, sus deseos, sus miedos y lo que hacía falta para cambiar sus comportamientos, el siguiente reto era encontrar otros millones de votantes (o donantes) que se pareciesen a ellos. Esto suponía buscar entre los datos de consumo y demográficos de los votantes que habían entrevistado y crear perfiles matemáticos de todos ellos. Después, bastarla con rastrear las bases de datos nacionales para encontrar a personas con perfiles similares y clasificarlas en los mismos grupos.
La campaña podría entonces dirigirse a cada grupo con publicidad específica, tal vez en Facebook o en las páginas web de los medios de comunicación que visitaban, para ver si respondían como se esperaba, llevaron a cabo el mismo tipo de test A/B que usa Google para ver con qué tono de azul consigue más clics. Probaron diferentes enfoques y descubrieron que, por ejemplo, los correos con el asunto «¡Hey!» fastidiaban a la gente, pero también conducían a un mayor compromiso y, a veces, a más donaciones. Tras miles de pruebas y ajustes, la campaña al fin pudo tomarle la medida a su audiencia —incluido un importantísimo contingente de 15 millones de votantes indecisos—.
A través de este proceso, la campaña elaboró diferentes perfiles de votantes estadounidenses, [254] Cada perfil contenía numerosas puntuaciones, que no solo calibraban su valor como votante, voluntario o donante potencial, sino que también reflejaban sus posturas ante diferentes temas. Un votante podia tener una puntuación alta en temas medioambientales, pero baja en seguridad nacional o comercio internacional. Este tipo de perfiles políticos son muy similares a los que las empresas de Internet como Amazon o Netflix usan para gestionar a sus decenas de millones de consumidores. Los sistemas de análisis de estas empresas producen en masa análisis casi constantes de la relación coste-beneficio para maximizar los ingresos por cliente.
Cuatro años más tarde, la campaña de Hillary Clinton se basó en la metodología creada por el equipo de Obama, [255] Contrató a una empresa emergente de microsegmentación, financiada por el presidente de Google, Eric Schmidt, y gestionada por Michael Slaby, director tecnológico de la campaña de Obama en 2012, El objetivo, según un informe divulgado en la publicación económica electrónica Quartz, era elaborar un sistema de datos que pudiese crear una versión política de los sistemas que desarrollan empresas como la empresa de computación en la nube Salesforce.com para gestionar a sus millones de clientes.
El apetito por nuevos datos pertinentes, como es fácil de imaginar, es intenso. Y muchos de los métodos empleados para reunirlos son repugnantes, por no decir invasivos. A finales de 2015 el Guardian denunció que una empresa de datos políticos, Cambridge Analytica, había pagado a académicos del Reino Unido para reunir los perfiles de Facebook de millones de votantes estadounidenses, incluidos sus datos demográficos y los registros de los «Me gusta» de cada usuario. [256] Usaron esta información para llevar a cabo análisis psicográficos de más de 40 millones de votantes, clasificándolos dentro de la escala del «modelo de los cinco grandes factores de la personalidad»: apertura a nuevas ideas, responsabilidad, extraversión, amabilidad e inestabilidad emocional Posteriormente, los grupos que trabajaban para la campaña presidencial de Ted Cruz usaron estos estudios para crear anuncios de televisión dirigidos a diferentes tipos de votantes y los colocaron en los programas que verían con mayor probabilidad. Cuando, por ejemplo, en mayo de 2015 el lobby Coalición Judía Republicana se reunió en el hotel Venetian de Las Vegas, la campaña de Cruz lanzó una serie de anuncios web que únicamente podían verse dentro del complejo hotelero y en los que este recalcaba su devoción por Israel y su seguridad. [257]
Tendría que mencionar aquí que no todas estas campañas publicitarias segmentadas han resultado efectivas. No hay duda de que algunas solo venden humo, Al fin y al cabo, las empresas de microsegmentación hacen el marketing de sus propios productos a distintas campañas y grupos de acción política que tienen millones de dólares para gastar. Les venden grandes promesas de bases de datos de valor incalculable y segmentaciones milimétricas, muchas de ellas exageradas. De modo que, en este sentido, los políticos no solo hacen promesas dudosas, sino que también las consumen (y aprecios exorbitantes). Una vez dicho esto, y tal y como quedó demostrado con la campana de Obama, algunos de estos métodos sí dan frutos. Y el sector entero —tanto los científicos de datos serios como los charlatanes— pone el foco en los votantes.
Sin embargo, las empresas de microsegmentación política se enfrentan a limitaciones singulares que hacen que su trabajo sea aún más complejo. El valor de cada votante, por ejemplo, sube o baja dependiendo de la probabilidad de que los resultados del estado en el que vota estén decididos o no. Un votante indeciso en un estado indeciso como Florida, Ohio o Nevada es muy valioso. Sin embargo, si los sondeos muestran que el estado está inclinándose decisivamente hacia los republicanos o hacia los demócratas, el valor del votante cae en picado y el presupuesto de marketing es rápidamente redirigido hacia otros votantes cuyo valor está al alza.
En este sentido, podemos imaginar que el electorado es similar a los mercados financieros. Con el flujo de información, los valores suben y bajan igual que las inversiones. En estos nuevos mercados políticos, cada uno de nosotros representa una acción con un precio que fluctúa. Cada campaña debe decidir si invierte en nosotros y cómo lo hace. Si merecemos la inversión, no solo deciden qué información nos suministran, sino también cuánta y de qué manera nos la hacen llegar.
Durante décadas se han venido hacienda cálculos similares a una escala macro para decidir la inversión que se hacía en televisión. Según iban cambiando los sondeos, recortaban, por ejemplo, la inversión en anuncios en Pittsburgh y trasladaban esos dólares a Tampa o a Las Vegas. Ahora, con la microsegmentación, la atención pasa de la región al individuo. Y, lo que es más importante, el individuo ve una versión personalizada del político.
Las campañas usan análisis similares para identificar y optimizar a los posibles donantes. Y aquí las cosas se complican, porque muchos de estos donantes hacen sus propios cálculos. Quieren sacar el mayor partido posible a su dinero. Saben que si entregan inmediatamente su máxima donación, la campaña los considerará como «completamente agotados» y, por tanto, irrelevantes. No obstante, negarse a dar dinero también los convertirá en irrelevantes, conque muchos van soltando dinero poco a poco, en función de si están de acuerdo con los mensajes que oyen. Para ellos, manejar a los políticos es como entrenar a un perro con galletitas. El efecto del entrenamiento es aún más poderoso en el caso de los que hacen donaciones a un Super PAC, en los que no hay tope máximo para los donativos.
Evidentemente, los responsables de las campañas son muy conscientes de esta estrategia. Gracias a la microsegmentación, pueden mandar a cada uno de estos donantes la información con más probabilidades de sacar la mayor cantidad de dinero posible de sus cuentas bancarias. Y esos mensajes son diferentes para cada donante.

* * *

Estas estrategias no se limitan a las campañas. Contaminan el ejercicio de nuestros derechos civiles y políticos con lobbies y grupos de interés que utilizan métodos de segmentación para hacer el trabajo sucio, En 2015, el Center for Medical Progress, un grupo antiaborto, publicó unos vídeos con imágenes de lo que ellos aseguraban que era un feto abortado en una clínica de planificación familiar de la organización sin ánimo de lucro Planned Parenthood. [258] En los vídeos se afirmaba que los médicos de Planned Parenthood vendían partes del cuerpo de los bebés para su utilización en investigación. Los vídeos dieron lugar a una oleada de protestas e impulsaron a los republicanos a presionar para que se retirara la financiación a la organización.
Una investigación posterior demostró que el vídeo había sido manipulado: el supuesto feto era en realidad una foto del bebé de una mujer de una zona rural de Pensilvania que había nacido muerto. [259] Planned Parenthood no vendía tejido fetal. El Center for Medical Progress admitió que el vídeo contenía información falsa, lo que redujo su atractivo en el mercado de las grandes masas. Aun así, gracias a la microsegmentación, los antiabortistas pudieron continuar forjándose una audiencia para el vídeo, a pesar de estar basado en una mentira, y lo emplearon para recaudar fondos para luchar contra Planned Parenthood.
Aunque esa campaña en concreto fue expuesta ante la opinión pública, siguen flotando bajo la superficie centenares de campañas más discretas que van dirigidas a votantes individuales. Estas campañas silenciosas son igualmente fraudulentas y rinden aún menos cuentas que la del Center for Medical Progress, Sueltan bombas ideológicas que los políticos apenas pueden insinuar oficialmente. Según Zeynep Tufekci, tecnosocióloga y profesora de la Universidad de Carolina del Norte, estos grupos localizan a votantes vulnerables y les envían campañas que alimentan su miedo, asustándolos con temas como la seguridad de sus hijos o el aumento de La inmigración ilegal. [260] Y al mismo tiempo evitan que esos anuncios estén a la vista de los votantes a los que probablemente les disgusten (o incluso les ofendan) los mensajes de este tipo.
El éxito de la microsegmentación explica en parte por qué, según una encuesta, en 2015 más del 43 % de los republicanos todavía creía que era cierta la mentira de que el presidente Obama era musulmán, mientras que el 20 % de los estadounidenses creía que había nacido fuera de Estados Unidos y que, por consiguiente, era un presidente ilegítimo (puede que también los demócratas hayan difundido su propia desinformación a través de la microsegmentación, pero nada de lo que ha salido a la luz alcanza la magnitud de las campañas anti-Obama). [261]
A pesar del desarrollo de la microsegmentación, las campañas políticas todavía destinan de media el 75 % de su compra de espacios publicitarios en los medios de comunicación a la televisión. [262] Podríamos pensar que esto tiene un efecto igualador, y es verdad. La televisión distribuye el mensaje más amplio y por el que los políticos rinden cuentas, mientras que la microsegmentación trabaja en las sombras. No obstante, incluso la televisión está evolucionando hacia una publicidad más personalizada. Nuevas agencias publicitarias como Simulmedia, en Nueva York, reúnen a los telespectadores en grupos de comportamiento para que los anunciantes puedan dirigirse a un público que piense de manera similar, ya sean cazadores, pacifistas o compradores de todo terrenos del tamaño de un tanque. [263] A medida que la televisión y los medios audiovisuales tienden a segmentar cada vez más el perfil de su público, crece el potencial de la microsegmentación política.
Y con la generalización de esta tendencia, será cada vez más difícil acceder a los mensajes políticos que ven nuestros vecinos, y, como consecuencia, será más complicado entender por qué creen en lo que hacen, a menudo fervientemente. Incluso a un periodista entrometido le costará localizarlos mensajes. No basta simplemente con visitar la página web del candidato, porque está diseñada para trazar automáticamente el perfil de cada visitante y adaptarse a él, considerándolo todo, desde su código postal hasta los enlaces en los que hace clic en la página e incluso las fotos que parece que mira. La creación de docenas de perfiles falsos resultaría también ineficaz, ya que los sistemas asocian con cada votante real mucha información acumulada, como historiales de compra, direcciones, números de teléfono, historiales de voto e incluso números de la seguridad social o perfiles de Facebook. Para engañar al sistema, cada perfil falso tendría que llegar con todo un cargamento de datos. Confeccionar uno exigiría demasiado trabajo para un proyecto de investigación (y en el peor de los casos podría acabar implicando al investigador en actividades fraudulentas).
El resultado de estas campañas veladas es un peligroso desequilibrio. Los agentes del marketing político mantienen elaborados dosieres sobre nosotros, nos suministran la información con cuentagotas y estudian cómo respondemos a ella, pero tío sabemos nada de la información que suministran a nuestros vecinos. Esto se parece a una estrategia muy común usada por los negociadores profesionales del mundo empresarial, que tratan con cada parte por separado para que ninguna de ellas sepa lo que se le dice a la otra parte. Esta asimetría de la información impide que las distintas partes unan sus fuerzas —que es precisamente el objetivo de un Gobierno democrático—.
Esta ciencia creciente de la microsegmentación, con sus perfiles y predicciones, encaja increíblemente bien en nuestra oscura colección de ADM, Es descomunal, opaca y no da explicaciones a nadie de su funcionamiento. Proporciona cobertura a los políticos, alentándolos a ser muchas cosas para mucha gente.
La clasificación de votantes individuales también debilita la democracia al hacer que una minoría de ellos sea importante, mientras que los demás son poco más que meros actores de reparto. De hecho, si analizamos los modelos empleados en las elecciones presidenciales, parece que vivimos en un país encogido, En el momento en que escribo esto, toda la población que importa por sus votos vive en un puñado de condados en Florida, Ohio, Nevada y algunos otros estados en disputa. Dentro de esos condados, son las opiniones de un pequeño número de votantes las que determinan la balanza. Tendría que señalar que, mientras que muchas de las ADM que hemos visto, desde la publicidad depredadora hasta los modelos de vigilancia, castigan sobre todo a las clases más desfavorecidas, la microsegmentación política afecta a votantes de cualquier clase económica. De Manhattan a San Francisco, tanto ricos como pobres se encuentran privados del derecho a voto (aunque, por supuesto, los verdaderamente ricos pueden compensar esto con creces con sus donaciones a las campañas).
En cualquier caso, todo el sistema político —el dinero, la atención, la adulación— se concentra en los votantes seleccionados por la segmentación. Al resto de nosotros prácticamente se nos ignora (excepto para las maniobras de recaudación de fondos). Una vez que los programas han predicho nuestro comportamiento de voto, cualquier intento de cambiarlo deja de compensar la inversión. [264]
Esto crea un bucle de retroalimentación perverso. Los votantes ignorados tienen más probabilidades de sentirse decepcionados. Los ganadores saben cómo aprovechar las reglas del juego. Conocen los entresijos del sistema, mientras que a la gran mayoría de los consumidores nos llegan únicamente unos cuantos fragmentos testados en el mercado.
Hay, además, una asimetría añadida. Las personas que los modelos habían previsto que irían a votar, pero que, por alguna razón, no participan en unas elecciones, reciben una atención especial en las siguientes elecciones. Parecen rebosar de un alto potencial de voto. En cambio, se ignora mayoritariamente a aquellos que se prevé que no votarán. Los sistemas buscan los votos que menos costaría convertir, los que den el más alto rendimiento a cada dólar gastado. Las personas que se abstienen son costosas. Esta dinámica incita a cierta clase de gente a permanecer activa y deja al resto en barbecho para siempre.
Como suele ocurrir con las ADM, los mismos modelos que pueden infligir daños también pueden usarse para beneficio de la humanidad. En lugar de segmentar a los ciudadanos para manipularlos, se podría establecer una lista de personas a las que ayudar prioritariamente. En unas elecciones municipales, por ejemplo, una campaña de microsegmentación podría etiquetar a ciertos votantes por la publicación de mensajes airados por alquileres prohibitivos. Y si el candidato sabe que estos votantes están enojados por el precio del alquiler, ¿por qué no usar la misma tecnología para identificar a aquellos que más se beneficiarían de una vivienda asequible y después ayudarles a encontrarla?
Con los mensajes políticos, como con la mayoría de ADM, la clave del problema está casi siempre en la finalidad. Si modificamos su propósito y, en lugar de chuparle la sangre a la gente, el objetivo es ayudarla, desarmamos el ADM… y puede que incluso se convierta en una fuerza del bien.

Conclusión

En este recorrido a lo largo de una vida virtual, hemos ido al instituto y a la universidad, hemos estado en los tribunales y en el lugar de trabajo, e incluso hemos visitado las urnas. A lo largo del camino hemos sido testigos de la destrucción que causan las ADM, Las ADM, con su promesa de eficiencia y justicia, distorsionan la educación superior, acrecientan la deuda, incitan a las penas de prisión en masa, golpean a los pobres en prácticamente todas las coyunturas y socavan la democracia. Parece que la respuesta lógica debe ser desarmar estas armas una a una.
El problema es que se alimentan mutuamente. Las personas pobres tienen más probabilidades de tener malos historiales crediticios y de vivir en barrios con altas tasas de delincuencia, rodeadas de otras personas pobres. Una vez que el universo oscuro de las ADM ha digerido estos datos, cubre a esas personas de anuncios depredadores de préstamos de alto riesgo o de universidades privadas con ánimo de lucro. Envía más agentes de policía a arrestarlas y, cuando son declaradas culpables, las condena a penas más largas. Estos datos alimentan a otras ADM, que califican a las mismas personas como de alto riesgo o como blancos fáciles y pasan a excluirlas de las vacantes en las empresas, al tiempo que inflan los tipos de interés de sus hipotecas o de sus préstamos para comprarse un coche, así como las primas de todos los seguros imaginables. Esto reduce aún más su calificación de solvencia crediticia, con lo que se crea una espiral mortal en la modelación. Ser pobre en un mundo de ADM resulta cada vez más peligroso y caro.
Las mismas ADM que maltratan a los pobres también colocan a las clases acomodadas de la sociedad en sus propios silos de marketing. Las envían en jets privados de vacaciones a Araba y las inscriben en la lista de espera de la prestigiosa escuela de negocios Wharton. Seguro que muchos tienen la sensación de que el mundo es más inteligente y más fácil. Los modelos les muestran descuentos en prosciutto y vinos Chianti, les recomiendan una película fantástica en Amazon Prime o los dirigen, uno a uno, hasta una cafetería de moda en lo que antes era un barrio «oscuro». El carácter tranquilo y personal de esta segmentación evita que los ganadores de la sociedad vean cómo esos mismos modelos están destruyendo vidas, en ocasiones a solo unas cuantas manzanas de distancia.
El lema nacional de Estados Unidos, «E Pluribus Unum», significa «de muchos, uno», pero las ADM han invertido la ecuación. Operando en las sombras, dividen un todo en muchos, al tiempo que nos ocultan el daño que están infligiendo a nuestros vecinos más o menos cercanos. Esos daños son incalculables. Se producen cuando una madre soltera no consigue encontrar a alguien que cuide de su hija con la suficiente rapidez para adaptarse a su horario de trabajo cambiante, o cuando un joven con dificultades es excluido del proceso de selección para un trabajo por horas por un test de personalidad. Los vemos cuando un adolescente de una minoría pobre es detenido, amenazado y amonestado por la policía local, o cuando un trabajador de una gasolinera que vive en un código postal de un barrio pobre recibe la mala noticia de que le han subido la prima del seguro. Es una guerra silenciosa, que golpea con más dureza a los pobres, aunque también afecta a la dase media. Sus víctimas, en su mayoría, no tienen el suficiente poder económico, ni acceso a abogados o a organizaciones políticas bien financiadas para poder ganar las batallas. El resultado es un daño generalizado, que con demasiada frecuencia es percibido como algo inevitable.
No podemos contar con que el mercado libre corrija estos males. Y para entender por qué, vamos a comparar las ADM con otra lacra contra la que nuestra sociedad ha estado luchando: la homofobia.
En septiembre de 1996, dos meses antes de su reelección, el presidente Bill Clinton firmó la Ley de Defensa del Matrimonio. [265] Esta ley, que definía el matrimonio como la unión entre un hombre y una mujer, prometía consolidar el apoyo al presidente en los reductos conservadores de los estados en disputa en las elecciones, incluidos Ohio y Florida.
Justo una semana después, el gigante tecnológico IBM anunciaba que daría cobertura médica a las parejas del mismo sexo de sus trabajadores. [266] Podríamos preguntarnos por qué IBM, un pilar del establishment corporativo, se decidía a abrir esta vía e invitar a la polémica precisamente en el momento en que un presidente estadounidense supuestamente progresista daba un paso en la dirección opuesta.
La respuesta a esto tiene que ver con la cuenta de resultados de las empresas. En 1996, la fiebre de Internet estaba justo arrancando e IBM competía por los mejores cerebros con Oracle, Microsoft, Hewlett-Packard y montones de start-ups, entre las que se encontraban Amazon y Yahoo. La mayoría de estas otras empresas ya daban cobertura sanitaria a las parejas del mismo sexo de sus empleados, con lo que habían atraído a gais y lesbianas con talento. IBM no pedía permitirse quedar fuera, «En términos de competitividad empresarial tenía sentido hacerlo», declaró entonces un portavoz de IBM a Businessweek. [267]
Si pensamos en las políticas de recursos humanos de IBM y otras empresas como si fueran algoritmos, podemos decir que han estado codificando la discriminación durante décadas. El paso de igualar la cobertura médica las impulsó a ser más justas. Desde entonces, los gais y las lesbianas han conseguido impresionantes avances en muchos campos. El avance es desigual, evidentemente. Muchos estadounidenses gais, lesbianas y transgénero siguen siendo víctimas del prejuicio, la violencia y las ADM. Y esto es especialmente cierto entre las poblaciones pobres y en las minorías. Pese a todo, según redacto estas líneas, un gay, Tim Cook, [268] es el director ejecutivo de Apple, la compañía de mayor valor de todo el planeta. [269] Y si así lo desea, tiene el derecho constitucional de casarse con un hombre.
Ahora que hemos visto cómo las grandes corporaciones pueden dar pasos decisivos para corregir un error en sus algoritmos de contratación, ¿por qué no hacer ajustes similares en los modelos matemáticos que están causando estragos en nuestras sociedades, las ADM?
Desgraciadamente, existe una diferencia evidente. Los derechos de los gais se beneficiaron de muchas formas de las fuerzas del mercado. Existía un grupo de gais y lesbianas con gran talento y formación académica superior que se hacía valer cada vez más y que las empresas deseaban contratar. De modo que las compañías optimizaron sus modelos para atraerlos. Lo hicieron pensando en su cuenta de resultados y, en la mayoría de los casos, el hecho de que sus modelos fueran así más justos no fue más que un efecto colateral. Al mismo tiempo, empresas de todo el país empezaron a centrar su atención en pudientes consumidores LGTB, a los que ofrecen cruceros, bares con su hora feliz y programas de televisión de temática gay. Aunque sin duda la inclusión estaba provocando ciertas quejas en algunos focos de intolerancia, también estaba produciendo altos dividendos.
El desmantelamiento de un ADM no siempre ofrece una compensación tan evidente. Aunque es cierto que una mayor ecuanimidad y justicia beneficiaría a la sociedad en su conjunto, las empresas individuales no están en posición de cosecharlos frutos de algo así. De hecho, a la mayoría de ellas les parece que las ADM son altamente efectivas. Modelos de negocios enteros, como las universidades privadas con ánimo de lucro y los préstamos rápidos, se han construido sobre esa base. Y cuando un programa informático identifica con éxito a las personas que están lo suficientemente desesperadas como para pagar un tipo de interés del 18 % al mes, los que recogen los beneficios piensan que el programa funciona a la perfección.
Las víctimas, obviamente, sienten algo distinto. Sin embargo, la gran mayoría de ellas —las personas que trabajan por horas y los desempleados, las personas que arrastran calificaciones crediticias bajas durante toda su vida— son pobres, y los presos están indefensos. Y en nuestra sociedad, en la que el dinero compra influencias, las víctimas de las ADM no tienen voz. Desde el punto de vista político, la mayoría de ellas son tratadas como personas sin derecho a voto. De hecho, con demasiada frecuencia se culpa a los pobres de su propia pobreza, de sus colegios deficientes y de la delincuencia que aqueja sus barrios. Esa es la razón por la que muy pocos políticos se molestan siquiera en preparar estrategias antipobreza. La opinión general es que las desgracias de la pobreza son una especie de enfermedad y lo que hay que hacer —al menos según dicen los discursos— es ponerla en cuarentena para evitar que se propague a la clase media. Debemos reflexionar sobre cómo se atribuye la culpa en la vida moderna y sobre cómo los modelos empeoran este círculo vicioso.
No obstante, los pobres no son en absoluto las únicas víctimas de las ADM. Ni mucho menos. Ya hemos visto cómo unos modelos malintencionados pueden poner a unos candidatos cualificados en la lista negra y aplicar descuentos a los sueldos de los trabajadores que no encajan en la imagen de salud ideal de una empresa. Estas ADM golpean a la clase media con la misma fuerza que a cualquiera. Incluso los ricos son microsegmentados por modelos políticos y se esfuerzan tanto como todos los demás por satisfacer a la despiadada ADM que decide quién es admitido en la universidad y que contamina la educación superior.
También es importante recordar que esto no es más que el principio de esta nueva era. Como es obvio, los prestamistas de créditos rápidos y otras empresas de su índole irán primero a por los pobres y los inmigrantes. Son los blancos más fáciles, los objetivos más cercanos. Son personas que tienen menos acceso a la información y muchas de ellas están desesperadas. Sin embargo, las ADM que generan fabulosos márgenes de beneficios no se limitarán durante mucho tiempo a las clases más bajas de la sociedad. Los mercados no funcionan así. Ya hemos visto que las cosas están cambiando con el ejemplo de los bancos tradicionales que invierten en operaciones de préstamos entre particulares como Lending Club. En pocas palabras, todos somos blancos de las ADM. Y seguirán multiplicándose y sembrando injusticias hasta que tomemos medidas para detenerlas.
La injusticia siempre ha existido, ya fuera por avaricia o por prejuicios. Y podría decirse que las ADM no son peores que la maldad de la humanidad en el pasado reciente. Al fin y al cabo, en muchos casos, el responsable de la concesión de préstamos o de contratación podía excluir sistemáticamente a toda una raza, por no mencionar a todo un sexo, del proceso de evaluación para la concesión de una hipoteca o de un proceso de selección de personal. Incluso los peores modelos matemáticos, podrían decir algunos, no llegan a ser tan terribles.
Y, sin embargo, la toma de decisiones humana, aunque a menudo tenga defectos, tiene una gran virtud: puede evolucionar. Al ir aprendiendo y adaptándonos, los humanos cambiamos y nuestros procesos cambian con nosotros. Por el contrario, los sistemas automatizados permanecen congelados en el tiempo hasta que los ingenieros bucean en ellos para modificarlos. Si se hubiera creado un modelo de big data para gestionar las solicitudes de acceso a la universidad a principios de la década de 1960, seguiría sin haber muchas alumnas en la universidad, porque dicho modelo se habría basado principalmente en hombres de éxito. Si los museos de esa misma época hubieran codificado las ideas preponderantes sobre las grandes obras de arte, seguiríamos valorando casi exclusivamente el arte producido por hombres blancos, las personas a las que los ricos mecenas pagaban para que crearan arte. El equipo de rugby de la Universidad de Alabama seguiría estando formado exclusivamente por jugadores blancos.
Los procesos del big data codifican el pasado. No inventan el futuro. Para inventar el futuro hace falta imaginación moral y eso es algo que solo los seres humanos pueden ofrecer. Debemos integrar de forma explícita mejores valores en nuestros algoritmos y crear modelos de big data que sigan nuestro ejemplo ético. Y a veces eso significa dar prioridad a la justicia antes que a los beneficios.
En cierto sentido, nuestra sociedad está enfrentándose a una nueva revolución industrial, Y podemos extraer algunas lecciones de la última revolución industrial que vivimos. La llegada del siglo XX fue una época de grandes avances. Era posible alumbrar los hogares con electricidad y calentarse con carbón. Las modernas vías ferroviarias trajeron carne, verduras y alimentos en lata de un continente muy lejano. Para muchos, la vida mejoraba.
No obstante, este progreso también tuvo un espantoso lado oscuro. Estaba impulsado por la explotación de los trabajadores, muchos de ellos niños. Al no existir ninguna normativa de salud ni seguridad, las minas de carbón se convirtieron en trampas mortales. Solo en 1907 murieron 3242 mineros. [270] Los trabajadores que empaquetaban carne trabajaban entre doce y quince horas al día en condiciones inmundas, y a menudo despachaban productos tóxicos. Armour and Co. enviaba a las tropas del Ejército estadounidense toneladas de latas de ternera podrida cuyo hedor cubría con una capa de ácido bórico. Mientras tanto, ávidos monopolios dominaban los ferrocarriles, las compañías eléctricas y los servicios públicos e inflaban las tarifas que debían pagar los consumidores, lo que equivalía a un impuesto sobre la economía nacional.
Era evidente que el mercado libre no era capaz de controlar sus excesos, por lo que, cuando periodistas como Ida Tarbell y Upton Sinclair expusieron estos y otros problemas, el Gobierno empezó a intervenir. Estableció protocolos más seguros e inspecciones sanitarias a los alimentos y prohibió el trabajo infantil. Con el auge de los sindicatos y la aprobación de leyes que los protegían, nuestra sociedad empezó a estructurarse en días laborables de ocho horas de trabajo y fines de semana libres. Estas nuevas normas protegían a las empresas que no querían explotar a los trabajadores ni vender alimentos contaminados, porque sus competidores tenían que regirse por las mismas reglas. Y aunque sin duda incrementaron el coste de los negocios, también beneficiaron a la sociedad en su conjunto. Casi nadie querría volver a la época anterior a su existencia.

* * *

¿Y cómo empezar ahora a regular los modelos matemáticos que dirigen cada vez más nuestras vidas? Yo sugeriría que el proceso comenzara con los programadores que crean los modelos, Al igual que los médicos, los científicos de datos deberían hacer un juramento hipocrático centrado en los posibles abusos y malinterpretaciones de sus modelos. Tras la crisis financiera de 2008, dos ingenieros financieros, Emanuel Derman y Paul Wilmott, redactaron el que debería convertirse en el juramento de los programadores. [271] Es el siguiente:
→ Recordaré que no he creado el mundo, y que este no satisface mis ecuaciones.
→ Aunque emplee audazmente modelos para estimar valor, no me dejaré impresionar excesivamente por las matemáticas.
→ Nunca sacrificaré la realidad por elegancia sin explicar por qué lo he hecho.
→ Tampoco proporcionaré a quienes usen mis modelos una falsa sensación de seguridad sobre su precisión, sino que haré explícitos los supuestos y omisiones.
→ Reconozco que mi trabajo puede tener enormes efectos sobre la sociedad y la economía, muchos de ellos más allá de mi comprensión.
Se trata de una buena base filosófica, pero la autorregulación y unos valores sólidos solo contendrán a los escrupulosos. Además, el juramento hipocrático ignora la presión que a menudo sufren los científicos de datos en el terreno cuando sus jefes les piden respuestas concretas. Para eliminar las ADM debemos ir más allá de unas meras buenas prácticas en el gremio de los datos. Las leyes también deben cambiar. Y para que eso ocurra debemos reevaluar cómo medimos el éxito.
En la actualidad, el éxito de un modelo suele medirse en términos de beneficios, eficiencia o tasas de morosidad Casi siempre se mide con algo que se pueda contar. Pero ¿qué deberíamos contar? Pensemos en el siguiente ejemplo. Cuando alguien busca información sobre vales de comida en un motor de búsqueda, suelen aparecer anuncios de intermediarios, como FindFamilyResources, de Tempe (Arizona). [272] Este tipo de páginas web parecen oficiales e incluyen enlaces a formularios auténticos del Gobierno, pero también recopilan nombres y direcciones de correo electrónico para los anunciantes depredadores, incluidas las universidades privadas con ánimo de lucro. Viven de los honorarios que cobran por la generación de oportunidades de negocio (los leads) que consiguen a cambio de suministrar a la gente un servicio superfluo, y muchas de esas personas se convierten entonces en el blanco de servicios que no se pueden permitir.
¿Tiene éxito esta transacción? Pues depende de lo que contemos. Cada clic en uno de estos anuncios le reporta a Google 25 o 50 centavos, o incluso uno o dos dólares. Eso es un éxito. Evidentemente, la empresa que genera los leads también gana dinero. De modo que parece que el sistema funciona de forma eficiente. Los engranajes del comercio están girando.
Sin embargo, desde la perspectiva de la sociedad, una simple búsqueda de servicios gubernamentales pone bajo el punto de mira a las clases pobres, empujando a algunas de estas personas hacia falsas promesas y préstamos con altos tipos de interés. Incluso al considerar la cuestión desde un punto de vista estrictamente económico, es un agujero en el sistema. El hecho de que haya personas que necesitan vales de comida supone de por sí un fallo de la economía de mercado. El Gobierno intenta compensar ese fallo con dinero de los contribuyentes, con la esperanza de que los beneficiarios de los vales de comida consigan algún día arreglárselas solos, pero los generadores de leads los empujan hacia transacciones innecesarias, lo que deja a muchos de ellos con mayores déficits e incluso dependiendo aún más de la ayuda pública. Esta ADM, aunque produce ingresos para los motores de búsqueda, los generadores de leads y los comercializadores, es un parásito del sistema en su conjunto.
Un sistema regulatorio de ADM debería medir esos costes ocultos e incorporar asimismo montones de valores no numéricos. Esto ya es así en otros tipos de normativa. Aunque los economistas intenten calcular el coste de la contaminación atmosférica, de la escorrentía agrícola o del búho manchado, las cifras nunca podrán expresar todo su valor Y lo mismo suele ocurrir con la justicia y el bien común en los modelos matemáticos. Son conceptos que radican únicamente en la mente humana y se resisten a la cuantificación, Y dado que los seres humanos son los que hacen los modelos, casi nunca hacen el esfuerzo adicional necesario para siquiera intentarlo; parece demasiado difícil. No obstante, tenemos que imponer valores humanos en estos sistemas, aunque sea a costa de la eficiencia. Por ejemplo, podríamos tener un modelo programado para asegurarse de que distintas etnias o niveles de ingresos estén siempre representados en distintos grupos de votantes o consumidores, O un modelo que señalara los casos en los que los habitantes de ciertos códigos postales pagan por algunos servicios el doble del precio medio. Es posible que estas aproximaciones sean algo toscas, sobre todo al principio, pero son esenciales. Las matemáticas deben ser nuestras herramientas, no nuestras amas.
La brecha en los resultados escolares, el encarcelamiento en masa y la apatía de los votantes son graves problemas que afectan a todo Estados Unidos y que no podrá resolver ningún mercado libre ni ningún algoritmo matemático. De modo que el primer paso es tomar las riendas de nuestra utopía tecnológica, esa confianza ilimitada e injustificada en lo que los algoritmos y la tecnología pueden lograr. Antes de pedirles que sean mejores, tenemos que admitir que no lo pueden hacer todo.
Para desarmar las ADM, también tenemos que medir su impacto y realizar auditorías de los algoritmos. El primer paso, antes de sumergirnos en el código de programación, es hacer estudios de investigación. Empezaríamos tratando las ADM como una caja negra que coge datos y produce conclusiones. Esta persona presenta un riesgo medio de cometer otro delito, esta tiene un 73 % de probabilidades de votar a los republicanos, esta maestra está en el decil inferior Si estudiamos estos resultados, podremos deducir las premisas en las que se sustenta el modelo y valorarlas en función de si son justas o no.
En ocasiones, resulta obvio desde el principio que ciertas ADM no son más que herramientas primitivas que convierten a base de golpes la complejidad en simplicidad, para que sea más fácil para los responsables de los departamentos despedir a ciertos grupos de personas y ofrecer descuentos a otros. El modelo de valor añadido utilizado en las escuelas públicas de Nueva York, como el que asignó a Tim Clifford un desastroso 6 % un curso y un increíble 96 % el año siguiente, es una farsa estadística. Si se hace un gráfico con las puntuaciones de cada año, los puntos muestran una distribución casi igual de aleatoria que la de los átomos de hidrógeno en una habitación. [273] Muchos de los alumnos de Matemáticas de esos mismos institutos podrían estudiar esas estadísticas y al cabo de quince minutos llegarían a la conclusión de que las evaluaciones no miden nada. Los buenos profesores, al fin y al cabo, suelen ser buenos todos los años. Al contrario de lo que ocurre, por ejemplo, con los relevistas en béisbol, los profesores rara vez tienen excelentes temporadas y luego épocas desastrosas (y al contrario también de lo que ocurre con los relevistas; su rendimiento se resiste al análisis cuantitativo).
No hay manera de arreglar un modelo atrasado como el modelo de valor añadido, La única solución en estos casos es deshacerse del sistema injusto. Olvidémonos, al menos durante los próximos diez o veinte años, de construir herramientas para medir la efectividad de un profesor. Es demasiado complejo, no se puede modelar, y los únicos datos disponibles son valores sustitutivos aproximados. El modelo no es aún lo suficientemente bueno como para sustentar decisiones importantes sobre las personas en las que confiamos para que enseñen a nuestros hijos. Es una tarea que requiere sutileza y contexto. Incluso en la era del big data, sigue siendo un problema que deben resolverlos seres humanos.
Evidentemente, los analistas humanos, el director u otro cargo directivo del centro, deberían considerar muchos datos, incluidas las notas de los alumnos en los exámenes. Deberían incorporar bucles de retroalimentación positivos, que son los primos angelicales de los bucles de retroalimentación perniciosos que hemos llegado a conocer tan bien. Un bucle positivo simplemente facilita información al científico de datos (o al sistema automático) para mejorar el modelo. En este caso, bastaría con preguntar a los profesores y los alumnos por igual si les parece que las evaluaciones son correctas, si comprenden y aceptan las premisas que los sustentan. Y si no es así, ¿cómo se podrían mejorar? Solo podemos esperar mejorar la enseñanza a través de los datos si contamos con un ecosistema en el que haya bucles de retroalimentación positivos. De lo contrario, el sistema será únicamente punitivo.
Es cierto que, como señalan rápidamente los defensores de los datos, los cerebros humanos ejecutan sus propios modelos y que estos a menudo están sesgados por sus prejuicios o por el egoísmo. Y, por tanto, sus resultados —en este caso las evaluaciones de los profesores— también deben ser auditados para verificar que son justos. Y estas auditorías deben ser cuidadosamente diseñadas y comprobadas por seres humanos, antes de automatizarlas. Mientras tanto, los matemáticos pueden diseñar modelos que ayuden a los profesores a medir su propia efectividad y a mejorar.
Otras auditorías son mucho más complicadas. Tomemos el ejemplo de los modelos de reincidencia delictiva que los jueces de muchos estados de Estados Unidos consultan antes de decidir la condena de los presos. En estos casos, dado que la tecnología es bastante nueva, hay un antes y un después. ¿Ha cambiado el comportamiento de los jueces a la hora de decidir las condenas desde que empezaron a recibir el análisis de riesgo del ADM? Sin duda veremos que muchos de los jueces ejecutaban modelos igualmente preocupantes en sus mentes mucho antes de que llegaran los programas informáticos y que castigaban a los acusados pobres y de las minorías de forma más severa que a los demás. Podemos suponer que en algunos de esos casos el software moderará la condena, aunque en otros casos no será así. Y cuando dispongamos de los suficientes datos, empezaremos a ver patrones bastante claros, que nos permitirán evaluarla solidez y la inclinación del ADM.
Si descubrimos (como ya han demostrado algunos estudios) que los modelos de reincidencia codifican los prejuicios y penalizan a los pobres, deberíamos analizar los datos de entrada. En este caso, incluyen muchísimas conexiones entre personas de la misma clase. Predicen el comportamiento individual basándose en las personas que dicho individuo conoce, en el tipo de trabajo que tiene y en su calificación crediticia —información que sería inadmisible durante un juicio—. Si queremos arreglar estos modelos para que sean justos habrá que eliminar esos datos.
Un momento, diría mucha gente, ¿vamos a sacrificar la precisión del modelo para que sea justo? ¿Tenemos que bajar el nivel de nuestros algoritmos?
En algunos casos la respuesta es sí. Si queremos ser todos iguales ante la Ley, o ser tratados todos igual como votantes, no podemos defender sistemas que nos clasifican en diferentes castas y nos tratan de forma diferente. [274] Empresas como Amazon o Netflix pueden poner a sus clientes de pago en distintos grupos y optimizarlos todo lo que quieran, pero ese mismo algoritmo no puede impartir justicia o democracia.
Ya están en marcha algunos movimientos para auditar algoritmos. En Princeton, por ejemplo, los investigadores han lanzado un proyecto sobre responsabilidad y transparencia en la web. [275] Han creado robots de software que se disfrazan en Internet como si fueran personas de todo tipo —ricos, pobres, hombres, mujeres o personas con problemas de salud mental—. Los investigadores estudian el tratamiento que reciben estos robots y así pueden detectar los sesgos existentes en los sistemas automáticos, desde los motores de búsqueda hasta las páginas web de búsqueda de empleo. Se están lanzando iniciativas similares en universidades como Carnegie Mellon y el MIT.
El apoyo académico a estas iniciativas es crucial. Al fin y al cabo, para vigilar las ADM necesitamos a personas que tengan las competencias necesarias para construirlas. Sus herramientas de investigación pueden replicar la inmensa escala de las ADM y encontrar conjuntos de datos que sean lo suficientemente grandes como para revelar los desequilibrios y las injusticias incrustados en los modelos. También pueden montar campañas de colaboración masiva, para que personas de distintas partes de la sociedad puedan facilitar información sobre los mensajes que reciben de los anunciantes o de los políticos. De este modo se podrían desvelar las prácticas y estrategias de las campañas de microsegmentación.
No todos los modelos tienen que ser necesariamente perversos. Después de las elecciones presidenciales de 2012, por ejemplo, ProPublica construyó su llamada Máquina de Mensajes, que montó campañas de colaboración masiva para descompilar con técnicas de ingeniería inversa el modelo empleado en la segmentación de anuncios políticos durante la campaña de Obama. [276] Resultó que distintos grupos de personas habían oído a distintas celebridades haciendo comentarios entusiastas sobre el presidente, cada uno de ellos dirigido a un público específico. No es que fuera una prueba irrefutable, pero al menos, al facilitar información sobre el modelo y eliminar el misterio que lo rodeaba, la Máquina de Mensajes consiguió reducir la justificación de los rumores y las sospechas que proliferaban en ese momento (aunque solo fuera un poco). Y eso es algo bueno.
Si consideramos los modelos matemáticos como los motores de la economía digital —y en muchos sentidos lo son—, podríamos decir que estos auditores abren el capó del coche y nos enseñan cómo funciona. Es un paso crucial para que podamos equipar esos poderosos motores con volantes y frenos.
No obstante, los auditores se enfrentan a ciertas resistencias, a menudo de los gigantes de la web, que es lo más parecido que tenemos a servicios públicos de información. Google, por ejemplo, ha prohibido a los investigadores externos crear montones de perfiles falsos para identificar los sesgos del motor de búsqueda. [277] Si la empresa efectivamente lleva a cabo auditorías de sesgos, prefiere hacerlas internamente. Así pueden proteger el funcionamiento interno del algoritmo, y sus prejuicios, de personas externas a la empresa. Aunque lo más probable es que los empleados de la empresa, que sufren como todos nosotros del sesgo de confirmación, encuentren lo que esperan encontrar. Es posible que no se hagan las preguntas más inquisitivas. Y si encuentran injusticias que parecen incrementar su cuenta de resultados…, bueno, algo así podría dar lugar a algunos debates incómodos que seguro que prefieren mantener bien lejos de la luz pública. Es evidente que existen poderosos argumentos empresariales a favor de hacerlo en secreto, pero espero que cuando el público haya descubierto más cosas sobre las ADM y exija una mayor rendición de cuentas de estas empresas de servicio público, a Google no le queden más opciones que dejar que entren los investigadores externos.
Lo mismo ocurre con Facebook. La estricta política de la red social que vincula los usuarios a su nombre real limita enormemente la investigación que se puede hacer desde fuera. La política de nombre real es admirable en muchos sentidos, y uno de sus aspectos más importantes es que obliga a los usuarios a rendir cuentas de los mensajes que publican. No obstante, Facebook también debe rendir cuentas ante todos nosotros, y eso implica abrir su plataforma a más auditores de datos.
El Gobierno, evidentemente, tiene que jugar un importante papel regulatorio, igual que hizo cuando se enfrentó a los excesos y las tragedias de la Primera Revolución Industrial. Puede empezar por adaptar y aplicar las leyes que ya existen.
Tal y como debatimos en el capítulo sobre las calificaciones crediticias, las leyes sobre derechos civiles conocidas como la Ley de Información Crediticia Imparcial (FCRA, por sus siglas en inglés) [278] y la Ley de Igualdad de Oportunidades Crediticias (ECOA, por sus siglas en inglés) [279] fueron redactadas con el propósito de garantizar la justicia en la calificación crediticia. La FCRA garantiza que los consumidores tienen derecho a ver los datos que son considerados en su calificación crediticia y a corregir los posibles errores, mientras que la ECOA prohíbe asociar la raza o el sexo a la calificación crediticia.
Esta legislación no es perfecta y necesita desesperadamente una actualización. A menudo se ignoran las quejas de los consumidores y no hay nada que impida de forma explícita a las empresas de calificación crediticia utilizar los códigos postales como valores sustitutivos de la raza. Aun así, estas leyes constituyen un punto de partida. En primer lugar, debemos exigir transparencia. Cada uno de nosotros debería tener derecho a recibir una alerta cuando se utiliza una calificación crediticia para juzgarnos o investigarnos. Y todos deberíamos tener acceso a la información que se utiliza para calcular esa calificación y, si es incorrecta, deberíamos tener derecho a impugnarla y corregirla.
En segundo lugar, la legislación debe ampliarse y cubrir los nuevos tipos de empresas de concesión de préstamos, como Lending Club, que utilizan calificaciones electrónicas modernas para predecir el riesgo de impago de los préstamos. No debería permitírseles operar en las sombras.
También es necesario actualizarla Ley sobre Estadounidenses con Discapacidades (ADA, por sus siglas en inglés), que protege a las personas con problemas mentales de la discriminación en el lugar de trabajo. [280] El texto de la ley prohíbe en la actualidad la realización de exámenes médicos dentro del proceso de selección, pero es necesario actualizarlo para que prohíba también los test de personalidad, las calificaciones de salud y las calificaciones de reputación del big data. Todos ellos se escabullen de la aplicación de la ley y no deberían poder hacerlo. Otra posibilidad que se ha empezado a debatir ya es la ampliación de la protección de la ADA para que prohíba también los resultados de las «predicciones» de salud que llegarán en el futuro. Es decir, que no deberían negársele oportunidades de empleo a una persona porque su análisis genético muestre que tiene un alto riesgo de desarrollar cáncer de mama o alzhéimer.
También debemos ampliar la cobertura de la Ley de Transferibilidad y Responsabilidad de los Seguros Médicos (HIPPA, por sus siglas en inglés), que protege nuestra información médica, para que cubra los datos médicos que están recopilando actualmente las empresas sobre sus empleados, las apps de salud y otras empresas de big data. [281] También deben estar protegidos todos los datos relacionados con la salud que recopilan las agencias de datos, como los recogidos a través de las búsquedas de tratamientos médicos en Google.
Si queremos sacar la artillería pesada, quizá deberíamos considerar acercarnos al modelo europeo, que estipula que todos los datos recopilados deben ser autorizados por el usuario, quien debe dar su consentimiento previo. [282] La condición del consentimiento previo suele evitarse pidiendo al usuario que haga clic en una casilla para aceptar un texto jurídico inescrutable. Sin embargo, la cláusula de «no reutilización» tiene mucha fuerza: hace que sea ilegal vender los datos de los usuarios. [283] Y esto evita que los datos acaben en manos de las agencias de datos cuyos expedientes alimentan las calificaciones electrónicas tóxicas y las campañas de microsegmentación. Gracias a esta cláusula de «no reutilización», las agencias de datos en Europa tienen una actividad mucho más restringida, suponiendo que cumplen la ley.
Por último, los modelos que tienen un impacto significativo en nuestras vidas, como las calificaciones crediticias y las calificaciones electrónicas, deberían ser públicos y accesibles para todos. Lo ideal sería poder navegar por ellos a través de una aplicación desde el móvil. De ese modo, en un mes malo, por ejemplo, un consumidor podría utilizar la aplicación para comparar el impacto de las facturas de electricidad y de teléfono impagadas en su calificación crediticia y en qué medida el hecho de tener una calificación más baja afectaría a sus planes de comprarse un coche. Ya existe la tecnología necesaria, solo falta la voluntad de ponerla en práctica.

* * *

Un día del verano de 2013 cogí el metro hasta el extremo sur de Manhattan y fui andando hasta un gran edificio administrativo situado frente al ayuntamiento de Nueva York. Quería construir modelos matemáticos pata ayudar a la sociedad, quería hacer lo contrario a un ADM. De modo que me apunté como voluntaria en un grupo de análisis de datos de los Departamentos de Servicios Humanos y de Vivienda del Ayuntamiento. El número de personas sin hogar en la ciudad había alcanzado los 64.000, entre los que contaban 22.000 niños. [284] Mi trabajo consistía en ayudar a crear un modelo que haría una predicción de cuánto tiempo permanecería una familia sin hogar en la red de albergues y que identificara los servicios que dicha familia necesitaría. El objetivo era facilitar a las personas acceso a lo que necesitaban para poder cuidarse a sí mismas y a sus familias y encontrar un hogar permanente.
Mi trabajo, en muchos sentidos, consistía en ayudar a crear un modelo de reincidencia. Al igual que a los analistas que construyeron el modelo LSI-R, a mí me interesaba saber qué fuerzas hacían que la gente volviera a los albergues y cuáles las empujaban hacia una vivienda estable. No obstante, al contrario de lo que ocurre con el ADM para la determinación de condenas, nuestro pequeño grupo se concentraba en utilizar estos resultados para ayudar a las víctimas y reducir tanto la desesperación como el número de personas sin hogar El objetivo era crear un modelo para el bien común.
En un proyecto diferente, aunque relacionado con este, uno de los investigadores había encontrado una correlación extremadamente alta que apuntaba hacia una solución. Había un grupo de familias que solía desaparecer de los albergues y no volvía nunca más. Se trataba de las familias que recibían vales de asistencia en el marco de un programa federal de vivienda asequible denominado Sección 8 (la Sección 8 de la Ley de Vivienda), El resultado no debía extrañar a nadie. Si se facilita a las familias sin hogar una vivienda asequible, no muchas de ellas elegirán volver a las calles o a miserables albergues.
No obstante, esta conclusión podría resultar vergonzosa para el que era el alcalde de la ciudad en aquel momento, Michael Bloomberg, y su equipo. Con mucha ostentación, el Ayuntamiento había empezado a retirar el programa de la Sección 8 a las familias. [285] Habían creado un nuevo sistema, bajo el nombre de Ventaja, que limitaba los subsidios de vivienda a tres años. La idea que justificaba el cambio era que los pobres harían más esfuerzos por conseguir ganar más dinero y arreglárselas solos cuando vieran que se acercaba el final de su prestación. Esta visión resultó ser excesivamente optimista, tal y como demostraron los datos. Mientras tanto, el floreciente mercado inmobiliario de Nueva York empujaba los alquileres al alza, lo que hacía la transición aún más difícil. Las familias a las que se les acababan los vales de la Sección 8 volvían en tropel a los albergues.
Los hallazgos del investigador no fueron bien recibidos. Nuestro grupo preparó una presentación de PowerPoint sobre las personas sin hogar en Nueva York para una reunión con importantes funcionarios públicos. Después de presentar la transparencia con las estadísticas de reincidencia y la efectividad de la Sección 8 tuvo lugar una conversación extremadamente incómoda y breve. Uno de ellos pidió que se eliminara esa diapositiva y se impuso la línea del partido.
Aunque el big data, si se maneja con prudencia, puede facilitar la compresión profunda de muchos fenómenos, muchas de sus conclusiones serán disruptivas. Al fin y al cabo, el objetivo del big data es encontrar patrones que son invisibles al ojo humano. El reto al que se enfrentan los científicos de datos es comprender los ecosistemas que investigan y presentar no solo los problemas, sino también sus posibles soluciones. Es posible que un sencillo análisis de datos aplicado a un proceso de trabajo identifique que hay cinco trabajadores que parecen superfluos, pero si el equipo de datos llama a un experto, es posible que descubran una versión más constructiva del modelo. De ese modo, sería posible sugerir puestos que podrían cubrir esas personas en un sistema optimizado e identificar la formación que necesitarían estos empleados para realizar sus nuevas funciones. A veces el trabajo de un científico de datos consiste en saber identificar los momentos en los que no se sabe lo suficiente.
Al estudiar la economía de los datos, encuentro montones de modelos matemáticos que podrían utilizarse para hacer el bien y otros tantos con el potencial de ser grandiosos —si no se abusa de ellos—. Pensemos en el trabajo de Mira Bernstein, que investiga la esclavitud. Tiene un doctorado en Matemáticas por la Universidad de Harvard y creó un modelo para escanear grandes cadenas de suministros industriales, como las que se utilizan para montar teléfonos móviles, zapatillas de deporte o todoterrenos de gama alta, con el objetivo de detectar indicios de trabajos forzados. Construyó un modelo para la identificación de la esclavitud para una organización sin ánimo de lucro llamada Made in a Free World, cuyo objetivo es utilizar ese modelo para ayudar a las empresas a eliminar los componentes de sus productos que hayan sido montados por esclavos. [286] La idea es que las empresas querrán liberarse de esta lacra, en teoría porque se oponen a la esclavitud, aunque también porque asociarse con ella podría destruir su marca.
Mira Bernstein recopiló datos de una serie de fuentes, como los datos de comercio de las Naciones Unidas, estadísticas sobre las regiones en las que la esclavitud es más prevalente e información detallada sobre los componentes que se utilizan en miles de productos industriales y los incorporó todos en un modelo que calificaría un producto dado de una región concreta según la probabilidad de que hubiera sido fabricado por mano de obra esclava. «La idea es que la empresa pueda ponerse en contacto con su proveedor para pedirle más información sobre el origen de ciertas piezas de los ordenadores», declaró Mira Bernstein a la revista Wired. Al igual que muchos modelos responsables, el detector de esclavitud no reacciona de manera exagerada. Se limita a señalar lugares sospechosos y deja la última parte de la persecución en manos de los seres humanos. Seguro que algunas de las empresas descubren que el proveedor sospechoso es legítimo (todos los modelos dan falsos positivos). Y esa información es recopilada por Made in a Free World, donde Mira puede estudiar la retroalimentación.
Otro modelo para el bien común ha aparecido en el campo del trabajo social. Se trata de un modelo predictivo que identifica los hogares en los que es más probable que los niños sufran malos tratos. El modelo, desarrollado por Eckerd, una organización sin ánimo de lucro de protección a los niños y las familias en el sureste de Estados Unidos, fue lanzado en 2013 en el condado de Hillsborough (Florida), donde se encuentra la ciudad de Tampa. [287] En los dos años anteriores, nueve niños de la zona habían muerto por malos tratos, incluido un bebé al que habían tirado por la ventanilla de un coche. Los programadores incluyeron 1500 casos de maltrato infantil en su base de datos, incluidos los casos de muerte. Encontraron ciertos marcadores de maltrato, como el hecho de que el novio de la madre viviera en casa, antecedentes de consumo de drogas o violencia doméstica y que el padre o la madre hubieran estado en acogida temporal en su infancia:
Si fuera un programa que busca delincuentes potenciales, resulta evidente lo injusto que podría ser. El haber vivido en un hogar de acogida o el que una pareja que no se haya casado conviva en la casa no deberían ser razones de sospecha. Además, es mucho más probable que el modelo seleccione a los pobres (y que ignore el posible maltrato en los barrios acomodados).
No obstante, si el objetivo no es castigar a los padres, sino ayudar a los niños que puedan necesitarlo, un ADM se convierte en un modelo benigno. Canaliza recursos hacia las familias en riesgo y en los dos años siguientes a la aplicación del modelo, según el Boston Globe, no se produjo en el condado de Hillsborough ninguna muerte por maltrato infantil. [288]
Este tipo de modelos se multiplicarán en los próximos años y valorarán nuestro riesgo de sufrir osteoporosis o un infarto, se lanzarán en picado para ayudar a los alumnos que tengan dificultades con Cálculo II e incluso harán una predicción de qué personas tienen mayor probabilidad de sufrir caídas graves con secuelas permanentes. Muchos de estos modelos, al igual que algunas de las ADM que hemos comentado, llegarán con la mejor de las intenciones, pero deben garantizar también la transparencia y publicar tanto los datos de entrada que utilizan como los resultados de su segmentación. Y deben someterse a auditorías. Al fin y al cabo, son motores muy potentes. No debemos perderlos de vista.
Los datos no van a desaparecer, ni tampoco los ordenadores… y aún menos las matemáticas. Los modelos predictivos son las herramientas de las que dependeremos cada vez más para dirigir nuestras instituciones, desplegar nuestros recursos y gestionar nuestras vidas. No obstante, tal y como he intentado demostrar a lo largo de este libro, estos modelos no se construyen únicamente con datos, sino también con las decisiones que tomamos sobre cuáles son los datos a los que debemos prestar atención —y qué datos dejaremos fuera—. Y esas decisiones no se refieren únicamente a cuestiones logísticas, de beneficios o eficiencia, sino que son fundamentalmente decisiones morales.
Si nos retiramos y tratamos los modelos matemáticos como si fueran una fuerza neutra e inevitable, como la meteorología o las mareas, estaremos renunciando a nuestra responsabilidad. Y el resultado, como hemos visto, son ADM que nos tratan como piezas de una maquinaría en el lugar de trabajo, que excluyen a posibles empleados y que se dan un festín con las desigualdades. Debemos trabajar juntos para vigilar, dominar y desarmar estas ADM. Espero que pasen a la historia, al igual que ocurrió con las terribles minas de carbón de hace un siglo, como las reliquias de los albores de esta nueva revolución, antes de que aprendiéramos a introducir la justicia y la rendición de cuentas en la era de los datos. Las matemáticas se merecen mucho más que las ADM, y la democracia también.
«Los Modelos matemáticos ampliamente utilizados —basados en prejuicios, malentendidos y parcialidad—con sus desalentadores algoritmos que rigen todos los aspectos de nuestras vidas tienden a castigar a los pobres y recompensar a los ricos.»
CORY DOCTOROW

Notas:
[1] Robert Stillwell, Public School Graduates and Dropouts from the Common Core of Data: School Year 2006-07, NCES 2010-313 (Washington D. C.: National Center for Education Statistics, Institute of Education Sciences, US Department of Education, 2009), p. 5, http//nces.ed.gov/pubsearch/pubsinfo.asp?pubid=2010313.
[2] Jihyun Lee, Wendy S. Grigg y Gloria S. Dion, The Nation’s Report Card Mathematics 2007, NCBS 2007-494 (Washington D. C.: National Center for Education Statistics, Institute of Education Sciences, US Department of Education, 2007), p. 32, https://nces.ed.gov/nationsreportcard/pdf/main2007/2007494.pdf.
[3] Bill Turque, «Rhee Dismisses 241 D. C. Teachers; Union Vows to Contest Firings», Washington Post, 24 de julio de 2010, www.washingtonpost.com/wp-dyn/content/article/2010/07/23/AR2010072303093.html.
[4] Steven Sawchuck, «Rhee to Dismiss Hundreds of Teacbers for Poor Performance», Education Week Blog, 23 de julio de 2oio, http//blogs.edweek.org/edweek/teacherbeat/2010/07/_states_and_districts_across.html.
[5] Bill Turque, «206 Low-Performing D. C. Teachers Fired», Washington Post, 15 de julio de 2011, www.washingtonpost.com/local/education/206-low-performing-dc-teachers-fired/2011/o7/15/gIQANEj5GI_story.html.
[6] Bill Turque, «“Creative… Motivating” and Fired», Washington Post, 6 de marzo de 2012, www.washmgtonpost.com/local/education/creative-motivating-and-fired/2012/02/04/gIQAwzZpvR_story.html.
[7] Ibid.
[8] Ibid.
[9] Ibid.
[10] Ibid.
[11] Sarah Wysocki, entrevista por correo electrónico llevada a cabo por la autora, 6 de agosto de 2015.
[12] Guy Brandenburg, «DCPS Administrators Won’t or Can’t Give a DCPS Teacher the IMPACT Value-Added Algorithm», GFBrandenburg’s Blog, 27 de febrero de 2011, https//gfbrandenburg.wordpress.com/2011/20/27/dcps-administrators-wont-or-cant-give-a-dcps-teacher-the-impact-value-added-algorithm/.
[13] Turque, «“Creative… Motivating” and Fired».
[14] Jack Gillum y Marisol Bello, «When Standardized Test Scores Soared in D. C., Were the Gains Real?», USA Today, 30 de marzo de 2011, httpi//usatoday30.usatoday.com/news/education/2011-03-28-1Aschooltesting28_CV_N.htm.
[15] Ibid.
[16] Turque, «“Creative… Motivating” and Fired».
[17] Ibid.
[18] David Waldstein, «Who’s on Third? In Baseball’s Shifting Defenses, Maybe Nobody», New York Times, 12 de mayo de 2014, www.nytimes.com/2014/05/13/sports/baseball/whos-on-third-in-baseballs-shifting-defenses-maybe-nobody.html?_r=o.
[19] Michael Lewis, Moneyball: The Art of Winning an Unfair Game (Nueva York: W. W. Norton, 2003).
[20] Manny Fernandez, «Texas Execution Stayed Based on Race Testimony», New York Times, 16 de septiembre de 2011, www.nytimes.com/2011/ 09/17/us/experts-testimony-on-race-Ied-to-stay-of-execution-in-texas.html?pagewanted=all.
[21] ibid.
[22] Alan Berlow, «See No Racism, Hear No Racism: Despite Evidence, Perry About to Execute Another Texas Man», National Memo, 15 de septiembre de 2011, www.nationalmemo.com/perry-might-let-another-man-die/.
[23] NAACP Legal Defense Fund, «Texas Fifth Circuit Rejects Appeal in Case of Duane Buck», sitio web de NAACP LDF, 21 de agosto de 2015, www.naacpldf.org/update/texas-fifth-circuit-rejects-appeal-case-duane-buck.
[24] OpenFile, «TX: Study Finds Harris County Prosecutors Sought Death Penalty 3-4 Times More Often Against Defendants of Color», Open Fite, Prosecutorial Misconduct and Accountability, 15 de marzo de 3013, www, prosecutorialaccountalability.com/2013/03/15/tx-study-finds-harris-county-prosecutors-sought-death-penalty-3-4-times-more-often-against-defendants-of-color/.
[25] American Civil Liberties Union, Racial Disparities in Sentencing, Hearing on Reports of Racism in the Justice System of the United States, presentado ante la Comisión Interamericana de Derechos Humanos, sesión 153.º, 27 de octubre de 2014, www.aclu.org/sites/default/files/assets 141027_iachr_racial_disparities_aclu_submissioin_o.pdf.
[26] Federal Bureau of Prisons, sitio web de estadísticas, www.bop.gov/about/statistics/statistics_inmate_race.jsp [última consulta el 8 de enero de 2016].
[27] Sonja Starr, «Sentencing, by the Numbers», New York Times, 10 de agosto de 2014, www.nytimes.com/2014/08/11/opinion/sentencing-by-the-numbers.html.
[28] Christian Henrichson y Ruth Delaney, The Price of Prisons: What Incarceration Costs Taxpayers (Nueva York: VERA Institute of Justice, 2011), www.vera.org/sites/default/files/resources/downloads/price-of-prisons-updated-version-021914.pdf.
[29] New York Civil Liberties Union, «Stop-and-Frisk 2011», informe de la NYCLU, 9 de mayo de 1012, www,nyclu.org/files/publications/NYCLU_2011_Stop-and-Frisk_Report.pdf.
[30] Rhode Island Department of Corrections, Planning and Research Unit, «Level of Service Inventory-Revised: A Portrait of RIDOC Offenders», abril de 2011, www.doc.ri.gov/administration/planning/docs/LSlNewsletterFINAL.pdf [última consulta el 8 de enero de 2016].
[31] Center for Sentencing Initiatives, Research Division, National Center for State Courts, «Use of Risk and Needs Assessment Information at Sentencing: 7th Judicial District, Idaho», diciembre de 2013, www.ncsc.org/~/media/Microsites/Files/CSI/RNA%2oBrief%20-%207th%2oJudicial%20District%2oID%20csi.ashx [última consulta el 8 de enero de 2016].
[32] Ibid.
[33] El LSI-R se utiliza en los siguientes veinticuatro estados según indican los documentos referenciados (la mayoría de ellos publicados por los correspondientes departamentos a cargo de las cárceles) [la última consulta de todos los enlaces se realizó el 13 de enero de a2016].
Alaska, www.correct.state.ak.us/pnp/pdf/902.03.pdf
Carolina del Norte, www.ncids.org/Reports%20&%20Data/Latest%20Releases/SentencingServicesContRe view3-1-10.pdf
Colorado, www.doc.state.co.us/sites/default/files/phase_ii.pdf
Connecticut, www.ct.gov/opm/lib/opm/cjppd/cjabout/mainnav/risk_as-sessment_strategy.pdf
Dakota del Norte, www.nd.gov/docr/adult/docs/DOCR%2oPrograms%20Reference%2oGuide%20(Rev.96204-14).pdf
Dakota del Sur, https://doc.sd.gov/documents/about/policies/LSI-R%20Assessment%20and%20Case%20Planning.pdf
Delaware, https://ltgov.delaware.gov/traskforces/djrtf/DJRTFVOPAppendix BFINAL.pdf
Hawái, http://ag.hawaii.gov/cpja/files/2013/01/AH-UH-Mainland-Prison-Study-2011.pdf
Idaho, http://sentencing.isc.idaho.gov/
Illinois, www.illinotscourts.gov/supremecourt/annualreport/2012/adninsumm/admimstrative.pdf
Indiana, www.in.gov/idoc/files/CEBP_long_report(1).pdf y http://indiana-courts.us/times/2011/04/risk-assessment/
Iowa, http://publications.iowa.gov/13104/
Kansas, www.doc.ks.gov/kdoc-policies/AdultIMPP/chapter-14/14-111a/view
Maine, www.bja.gov/Funding/14SmartSup-MDOCapp.pdf
Maryland, www.justicepolicy.org/images/upload/09-03_rpt_mdparole_ac-md-ps-rd.pdf
Minnesota, www.doc.state.mn.us/DocPolicy2/html/DPW_Display_TOC.asp?Opt=203.015.htm
Nebraska, www.uc,edu/content/dam/uc/ccjr/docs/vitas/VITA10_PVV.pdf
Nevada, www.leg.state.nv.us/74th/Exhibits/Assembly/JUD/AJUD77H.pdf
Nuevo Hampshire, www.nh.gov/nhdoc/policies/documents/6-33.pdf
Oklahoma, www.ok.gov/doc/documents/LSI-R%20White%20Paper.pdf
Pensilvania, http;//pacrimestats.info/PCCDReports/RelatedPublications/Publications/Publications/Pennsylvania%2oBoard%20of%20Probation%20and%2oParole/Ctr%2ofor%2oEffective%20Public%2oPolicy.pdf
Rhode Island, www.doc.ri.gov/admmlstration/planning/docs/LSlNewsletter FlNAL.pdf
Utah, http://ucjc.utah.edu/wp-content/uploads/LSI-ImpIementation-Report-final.pdf
Washington, http://static.nicic.gov/Library/019033.pdf
[34] Carol Lloyd, «Impossible LoanTurns Dream Home into Nightmare», SFGafe, 15 de abril de 2007,www:sfgate.com/business/article/lmpossible-loan-turns-dream-home-into-nightmare-2601880.php.
[35] Michael Powell, «Bank Accused of Pushing Mortgage Deals on Blacks», New York Titnes, 6 de junio de 2009, www.nytimes.com/2009/06/07/us/o7baltimore.html.
[36] Ibid.
[37] lbid.
[38] Luke Broadwater, «Wells Fargo Agrees to Pay $175M Settlement in Pricing Discrimination Suit», Baltimore Sun, 12 de julio de 2012, http://articles.baltimoresun.com/2012-o7-12/news/bs-md-ci-wells-fargo-20120712_1_mike-heid-wells-fargo-home-mortgage-subprime-mortgages.
[39] Robert Morse, «The Birth of the College Rankings», U.S. News, 16 de mayo de 2008, www.usnews.com/news/national/articles/2008/05/16/the-birth-of-college-rankings.
[40] Julie Rawe, «A Better Way to Rank Colleges?», Time, 20 de junio de 2007, http://content.time.com/time/nation/article/0,8599,1635326,00.html.
[41] Sara Rimer, «Baylor Rewards Freshmen Who Retake SAT», New York Times, 14 de octubre de 2008, www.nytimes.com/2008/10/15/education/15baylor.html.
[42] Nick Anderson, «Five Colleges Misreported Data to U. S. News, Raising Concerns About Rankings, Reputation», Washington Post, 6 de febrero de 2013, www.washingtonpost.com/local/education/five-colleges-misreported-data-to-us-news-raising-concerns-about-rankings-reputation/2013/02/06/cb437876-6b17-11e2-af53-7b2b2a7510a8_story.html.
[43] Robert Morse, «Iona College Admits to Inflating Rankings Data for 9 Years», U. S. News, 1 de diciembre de 2011, www.usnews.com/education/blogs/college-rankings-blog/2011/12/01/iona-college-admits-to-inflating-rankings-data-for-9-years.
[44] Logan Wilson, «University Drops in Ranking for the Third Time in a Row», TCU 360, 4 de septiembre de 2008, www.tcu360.com/story/university-drops-in-ranking-for-third-time-in-a-row-1287643/.
[45] Ibid.
[46] TCUleads, «U.S. News & World Report Rankings Show Improvement for TCU», Itexas Christian University, 9 de septiembre de 2014, http://newsevents.tcu.edu/st0ries/u-s-news-world-report-rankings-show-improvement-for-tcu/ [última consulta el 9 de enero de 2016].
[47] Sean Silverthorne, «The Flutie Effect: How Athletic Success Boosts College Applications», Forbes, 29 de abril de 2013, www.forbes.com/sites/hbsworkingknowledge/2013/04/29/the-flutie-effect-how-athletic-success-boosts-college-applications/.
[48] TCUleads, «U. S. News & World Report Rankings».
[49] Michelle Jamrisko e Ilan Kolet, «College Costs Surge 500 % in U. S. Since 1985: Chart of the Day», Bloomberg Business, 26 de agosto de 2013, www-bloomberg.com/news/artldes/2013-08-26/college-costs-surge-500-in-u-s-since-i985-chart-of-the-day.
[50] Ruffalo Noel Levitz, «ForecastPlus for Student RecruitmentTM», www.ruffalonl.com/enrollment-management/enrollment-marketing-services-to-target-and-recruit-students/recruitment-technologies/forecast-plus-student-recruitment-predictive-modeling [última consulta el 9 de enero de 2016].
[51] Megan Messerly, «Citations for Sale», Daily Californian, 5 de diciembre de 2014, www.dailycal.org/2014/12/05/citations-sale/.
[52] Malcolm Moore, «Riot after Chinese Teachers Try to Stop Pupils Cheating», Telegraph, 20 de junio de 2013, www.telegraph.co.uk/news/worldnews/asia/china/10132391/Riot-after-Chinese-teachers-try-to-stop-pupils-cheating.html.
[53] Application Boot Camp, www.toptieradmissions.com/boot-camp/application-boot-camp/ [última consulta el 9 de enero de 2016].
[54] Peter Waldman, «How to Get into an Ivy League College-Guaranteed», Bloomberg Businessweek, 4 de septiembre de 2014, www.bloomberg.com/news/articles/2014-09-04/how-to-get-into-an-ivy-league-college-guaranteed.
[55] Li Zhou, «Obama’s New College Scorecard Flips the Focus of Rarikings». Atlantic Monthly, 15 de septiembre de 2015, www,theatlantic.com/education/archive/2015/09/obamas-new-college-scorecard-flips-the-focus-of-rankings/405379/.
[56] David Segal, «Is Law School a Losing Game?», New York Times, 8 de enero de 2011, www.nytimes.com/2011/01/09/business/09law.html.
[57] Meghan Kelly «96 Percent of Google’s Revenue Is Advertising, Who Buys It?», Venture Beat, 29 de enero de 1012, http://venturebeat.com/2012/01/29/google-advertising/.
[58] David Deming, Claudia Goldin y Lawrence Katz, «For-Profit Colleges», Postsecondary Education in the United States, 23 (primavera de 2013), pp. 137-163, http://futureofchildren.org/futureofchildren/publications/journals/article/index.xml?journalid=79&articleid=584.
[59] Emily Jane Fox, «White House Crackdown on For-Profit Colleges Begins Today», CNN, 1 de julio de 2015, http://money.cnn.com/2015/07/01/pf/college/for-profit-colleges-debt/.
[60] Melody Peterson, «State Sues Corinthian Colleges, Citing “Predatory” Tactics», Orange County Register, 10 de octubre de 2013, www.ocregister.com/articles/company-530539-students-corinthian.html.
[61] Corinthian Colleges Inc., «California Attorney General Complaint Allegations vs, Facts», http://files.shareholder.com/downloads/COCO/3283532602x0x709108/11BC55FD-BB6F-45DB-Bo82-5C6AEB6D8D30/CCi_Response_to_California_Attorney_General_Lawsuit.pdf [última consulta el 9 de enero de 2016].
[62] Megan Woolhouse, «For-Profit Colleges Get Harsh Grades by Former Students», Boston Globe, 20 de octubre de 2014, www.bostonglobe.com/business/2014/10/19/high-debt-unfulfilled-dreams/Ku/DKIWiyRO5E5HDpRpSLRO/story.html.
[63] Review & Outlook, «Obama’s Corinthian Kill, Review and Outlook», Wall Street Journal, 15 de julio de 2014, www.wsj.com/articles/obamas-corinthian-Kill-1406327662.
[64] Shahien Nasiripour, «Corinthian Colleges Files for Bankruptcy», Huffington Post, 4 de mayo de 2015, www.huffingtonpost.com/2015/05/04/corinthian-colleges-bankruptcy_n_7205344.html.
[65] Sheryl Harris, «For-Profit Colleges Provide Lesson in Strong-Arm Sales: Plain Dealing», cleveland.com, 4 de agosto de 2012, www.cleveland.com/consumeraffairs/index.ssf/2012/08/for-profit_colleges_provide_le.html.
[66] David Halperin, «What College Was Michael Brown About to Attend?», Huffington Post, 26 de agosto de 2014, www.huffingtonpost.com/davidhalperin/what-college-was-michaeLb_5719731.html.
[67] Committee on Health, Education, Labor, and Pensions, «For-Profit Higher Education; The Failure to Safeguard the Federal Investment and Ensure Student Success», Senate Committee Print, S. Prt. 112-37, vol. 1, 30 de julio de 2012, p. 60, www.gpo.gov/fdsys/granule/CPRT-112SPRT74931/CPRT-112SPRT74931/content-detail.html.
[68] Captura de pantalla, realizada por la autora, de un anuncio de un puesto de trabajo en marketing en línea publicado en LinkedIn.
[69] Sharona Coutts, «Bogus “Obama Mom” Grants Lure Students»» ProPublica, 23 de julio de 2010, www.propublica.org/article/bogus-obama-niom-grants-lure-students.
[70] Jenna Leventoff, «For-Profit Colleges Under Scrutiny for Targeting Vulnerable Students», Equal Future, 6 de mayo de 2015, www.equalfuture.us/2015/05/06/for-profit-colleges-targeting-vulnerable-students/.
[71] David Halperin, «More Scam Websites to Lure the Poor to For-Profit Colleges», Huffington Post, 13 de noviembre de 2014, www.huffingtonpost.com/davidhalperin/more-scam-websites-to-lur_b_6151650.html.
[72] Coutts, «Bogus “Obama Mom”».
[73] US Government Accountability Office, «For-Profit Colleges: Undercover Testing Finds Colleges Encouraged Fraud and Engaged in Deceptive and Questionable Marketing Practices», GAO-10-948T, 4 de agosto de 2010, www.gao.gov/products/GAO-10-948T.
[74] Mara Tucken entrevista personal con la autora, 15 de junio de 2015.
[75] Cassie Magesis, entrevista telefónica con la autora, 16 de junio de 2015.
[76] Howard Hotson, «Short Cuts», London Review of Books, 2 de junio de 2011, www.lrb.co.uk/v33/n11/howard-hotson/short-cuts.
[77] Mike Dang, «For-Profit Colleges Still Terrible», Billfold, 1 de agosto de 2012, https.//thebillfold.com/for-profit-colleges-stili-terrible-7e3b5bd3442b#.4ti2e2y8o.
[78] Rebecca Schuman, «“This Is Your Money” Why For-Profit Colleges Are the Real Welfare Queens», Slate, 4 de junto de 2015, www.slate.com/articles/life/educatlon/2015/06/for_profit_colleges_and_federal_sid_they_get_more_than_90_percent_ of_their.html.
[79] Tamar Lewin, «Government to Forgive Student Loans at Corinthian Colleges», New York Times, 8 de junio de 1015, www.nytimes.com/2015/06/09/education/us-to-forgive-federal-loans-of-corinthian-college-students.html.
[80] Rajeev Darolia, Cory Koedel, Paco Martorell, Katie Wilson y Francisco Pérez-Arce, «Do Employers Prefer Workers Who Attend For-Profit Colleges? Evidence from a Field Experiment», RAND Corporation, Santa Monica, California, 2014 www.rand.org/pubs/working_papers/WR1054.html [última consulta el 9 de enero de 2016].
[81] William Domhoff, «Wealth, Income, and Power», Who Rutes America?, http://whorulesamerica.net/power/wealth.html [publicado por primera vez en septiembre de 2005, actualizado en febrero de 2013, última consulta el 9 de enero de 2016].
[82] Josh Harkinson, «The Nation’s 10 Most Overpaid CEOs», Mother Jones, 12 de julio de 2012, www.motherjones.com/politics/2012/07/executive-pay-america-top-10-overpaid-ceo.
[83] Gwen Ifill y Andrew Schmertz, «Fighting the Debt Trap of Tripie-Digit Interest Rate Payday Loads», PBS Newshour, 6 de enero de 2016, vww.pbs.org/newshour/bb/fighting-the-debt-trap-of-triple-digit-interest-rate-payday-loans/.
[84] Lindsay Wise, «Feds Charge Data Broker with Selling Consumer Info to Scammers», McClatchyDC, 12 de agosto de 2015, www.mcclatchydc.com/news/nation-world/national/article30862680.html.
[85] Rob Engle, «The Guilded [sic] Age in Reading Pennsylvania», Historical Review of Berks County, verano de 2,005, www.berkshifrtory.org/multimedia/articies/the-guilded-age-in-reading-pennsylvania/.
[86] Sabrina Tavernise, «Reading, Pa., Knew It Was Poor, Now It Knows Just How Poor», New York Times, 26 de septiembre de 2011, www.nytimes.com/2011/09/27/us/reading-pa-tops-list-poverty-list-census-shows.html.
[87] Steven Henshaw, «Homicides in Reading Rise, Other Crimes Down, Police Say», Reading Eagle, 30 de agosto de 2015, www.readingeagle.com/news/article/homicides-m-reading-rise-other-crimes-down-police-say.
[88] Juliana Reyes. «Philly Police Will Be First Big City Cops to UseAzavea’s Crime Predicting Software», Technically Philly, 7 de noviembre de 2013, http://technical.ly/philly/2013/11/07/azavea-philly-police-crime-prediction-software/.
[89] Nate Berg, «Predicting Crime, LAPD-Style», Guardians, 25 de junio de 2014, www.theguardian.cojm/cities/2014/jun/25/predicting-crime-lapd-los-angeles-police-data-analysis-algorithm-minority-report.
[90] Jeff Brantingham, responsable de investigación y desarrolio de PredPol, entrevista telefónica con la autora, 3 de febrero de 2015.
[91] George Kelling y James Wilson, «Broken Windows: The Police and Neighborhood Safety», Atlantic Monthly, marzo de 1982, www.theatlantic,com/magazine/archive/1982/03/broken-windows/304465/.
[92] Judith Greene, «Zero Tolerance: A Case Study of Police Policies and Practices in New York City», Crime and Delinquency 45 (abril de 1999), pp. 171-187, doi:10.1177/ 0011128799045002001.
[93] Steven Levitt y Stephen Dubner, Freakonomics: A Rogue Economist Explores the Hidden Side of Everything (Nueva York: William Morrow, 2005).
[94] Berg, «Predicting Crime, LAPD-Style».
[95] Kent Police, «PredPol Operational Review», 2014, www.statewatch.org/docbin/uk-2014-kent-police-predpol-op-review.pdf.
[96] Jeffrey Bellin, «The Inverse Relationship between the Constitutionality and Effectiveness of New York City “Stop and Frisk”», Boston University Law Review 94 (6 de mayo de 2014): 1495, artículo de investigación de la Facultad de Derecho William and Mary Law School n.º 09-274, http://ssrn.com/abstract=2413935.
[97] Ryan Devereaux, «Scrutiny Mounts as NYPD “Stop-and-Frisk” Searches Hit Record High», Guardian, 14 de febrero de 2012, www.theguardian.com/world/2012/feb/14/nypd-stop-frisk-record-high.
[98] David Goodman y Al Baker, «Murders in New York Drop to a Record Low, but Officers Aren’t Celebrating», New York Times, 31 de diciembre de 2014, www.nytimes.com/2015/01/01/nyregion/new-york-city-murders-fafl-but-the-police-arent-celebrating htm.
[99] Jason Oberholtzer, «Stop-and-Frisk by the Numbers», Forbes, 17 de julio de 2012, www.forbes.com/sites/jasonoberholtzer/2012/07/17/stop-and-frisk-by-the-numbers/.
[100] Eric T. Schneiderman, «A Report on Arrests Arising from the New York City Police Department’s Stop-and-Frisk Practices», New York State Office of the Attorney General, Civil Rights Bureau, noviembre de 2013, www.ag.ny.gov/pdfs/OAG_REPORT_ON_SQF_PRACTICES_NOV_2013.pdf.
[101] «The Bronx Defenders Hails Todays “Stop and Frisk” Decision by Federal Judge Scheindlin», Bronx Defenders, 12 de agosto de 2013, www.bronxdefenders.org/the-bronx-defenders-hails-todays-stop-and-frisk-decision-by-federal-judge-scheindlin/.
[102] Ibid.
[103] Adam Benforado, Unfair: The New Science of Criminal Injustice (Nueva York: Crown, 2015).
[104] Peter Kerwin, «Study Finds Private Prisons Keep Inmates Longer, Without Reducing Future Crime», University of Wisconsin-Madison News, 10 de junio de 2015, http://news,wisc.edu/study-finds-private-prisons-keep-inmates-longer-without-reducing-future-crime/.
[105] Julia Bowling, «Do Private Prison Contracts Fuel Mass Incarceration?», Brennan Center for Justice Blog, 20 de septiembre de 2013, www.brennancenter.org/blog/do-private-prison-contracts-fuel-mass-incarceration.
[106] Allison Schrager, «In America, Mass Incarceration Has Caused More Crime Than It’s Prevented», Quartz, 22 de julio de 2015, http://qz.com/458675/in-america-mass-incarceration-has-caused-more-crime-than-its-prevented/.
[107] Timothy Williams, «Facial Recognition Software Moves from Overseas Wars to Local Police», New York Times, 12 de agosto de 2015, www.nytimes.com/2015/08/13/us/facial-recognition-software-moves-from-overseas-wars-to-local-police.html.
[108] Anthony Rivas, «Boston Police Used Facial Recognition Software on Concertgoers; Will It Really Stop Suspicious Activity or Just Encroach upon Our Rights?», Medical Daily, 18 de agosto de 2014, www.medicaldaily.com/boston-police-used-facial-recognition-software-concertgoers-will-it-really-stop-suspicious-298540.
[109] Matt Stroud, «The Minority Report; Chicago’s New Police Computer Predicts Crimes, but Is It Racist?», Verge, 19 de febrero de 2014, www-theverge.com/2014/2/19/5419854/the-minority-report-this-computer-predicts-crime-but-is-it-racist.
[110] Ibid.
[111] Ibid.
[112] Lauren Weber y Elizabeth Dwoskin, «Are Workplace Personality Tests Fair?», Wall Street Journal 29 de septiembre de 2014, www.wsj.com/articles/are-workplace-personality-tests-fair-1412044257.
[113] Roland Behm, entrevista telefónica con la autora, 1 de abril de 2015.
[114] Weber y Dwoskin, «Are Workplace Personality Tests Fair?».
[115] ADA National Network; «What Limitations Does the ADA Impose onMedtcal Examinations and inquiries About Disability?», https://adata.org/faq/what-limitations-does-ada-impose-medical-examinations-and-inquiries-about-disability [última consulta el 9 de enero de 2016].
[116] «Kronos History: The Early Years», sitio web de Kronos, www.kronos.com/about/history.aspx [última consulta el 9 de enero de 2016].
[117] «Workforce Ready HR», sitio web de Kronos, www.kronos.com/products/smb-solutions/workforce-ready/products/hr.aspx [última consulta el 9 de enero de 2016].
[118] Weber y Dwoskin, «Are Workplace Personality Tests Fair?».
[119] Ibid.
[120] NAACP Legal Defense Fund, «Case: Landmark: Griggs v. Duke Power Co.», sitio web de NAACP LDF, www.naacpldf.org/case/griggs-v-duke-power-co [última consulta el 9 de enero de 2016].
[121] Whitney Martin, «The Problem with Using Personality Tests for Hiring», Harvard Business Review, 27 de agosto de 2014, https://hbr.org/2014/08/the-problem-with-using-personality-tests-for-hiring.
[122] Roland Behm, entrevista telefónica con la autora, 1 de abril de 2015.
[123] Weber y Dwoskin, «Are Workplace Personality Tests Fair?».
[124] Lauren Weber, «Better to Be Artistic or Responsible? Decoding Workplace Personality Tests», Wall Street Journal, 29 de septiembre de 2014, http://blogs.wsj.com/atwork/2014/09/29/better-to-be-artistic-or-responsible-decoding-workplace-personality-tests/.
[125] Sí, es cierto que muchos estudiantes preuniversitarios trabajan durante un par de veranos en empleos donde reciben el salario mínimo, pero si tienen una mala experiencia en estos trabajos o si un ADM arbitraria los juzga mal, la vivencia no hace más que reforzar el mensaje de que lo que deben hacer es centrarse en estudiar y olvidarse de esos horribles trabajos.
[126] Marianne Bertrand, «Racial Bias in Hiring: Are Emily and Brendan More Employable Than Lakisha and Jamal?», Research Highlights from the Chicago Graduate School of Business 4, n.º 4 (2003), www.chicagobooth.edu/capideas/springo3/racialbias.html.
[127] Curt Rice, «How Blind Auditions Help Orchestras to Eliminate Gender Bias», Guardian, 14 de octubre de 2013, www.theguardian,com/women-in-leadership/2013/oct/14/blind-auditions-orchestras-gender-blas.
[128] Mona Abdel-Halim, «12 Ways to Optimize Your Resume for Applicant Tracking Systems», Mashable, 27 de mayo de 2012, http://mashable.com/2012/05/27/
resume-tracking-systems/.
[129] Ibid.
[130] Stella Lowry y Gordon MacPherson, «A Blot on the Profession», British Medical Journal 296 (5 de marzo de 1988), pp. 657-658.
[131] Heather Boushey y Sarah Jane Glynn, «There Are Significant Business Costs to Replacing Employees», American Progress, 16 de noviembre de 2012, www.americanprogress.org/issues/labor/report/2012/11/16/44464/there-are-significant-biasiness-costs-to-replacing-employees/.
[132] Jessica Leber, «The Machine-Readable Workforce: Companies Are Analyzing More Data to Guide How They Hire, Recruit, and Promote Their Employees», MIT Technology Review, 27 de mayo de 2013, www.technologyreview.com/news/514901/the-machine-readable-workforce/.
[133] Jeanne Meister, «2015: Social HR Becomes A Reality», Forbes, 5 de enero de 2015, www.forbes.com/sites/jeannemeister/2015/01/05/2015-sodal-hr-becomes-a-reality/.
[134] Don Peck, «They’re Watching You at Work», Atlantic Monthly, diciembre de 2013, www.theatlantic.com/magazine/archive/2013/12/theyre-watching-you-at-work/354681/.
[135] Jodi Kantor, «Working Anything but 9 to 5: Scheduling Technology Leaves Low-Income Parents with Honrs of Chaos», New York Times, 13 de agosto de 2014, www.nytimes.com/interactive/2014/08/13/us/starbucks-workers-scheduling-hours.html?_r=o.
[136] Jodi Kantor, «Starbucks to Revise Policies to End Irregular Schedules for Its 130,000 Baristas», New York Times, 14 de agosto de 2014, www.nytimes.com/2014/08/15/us/starbucks-to-revise-work-scheduling-policies.html.
[137] Justine Hofherr, «Starbucks Employees Still Face “Clopening”, Uhderstaffing, and Irregular Workweeks», Boston.com, 24 de septiembre de 2015, www.boston.com/jobs/news/2015/09/24/starbucks-employees-still-face-clopening-understaffing-and-irregular-workweeks/FgdhbalfQqC2p1WLaQm2SK/story.html.
[138] William Ferguson Story, «A Short History of Operations Research in the United States Navy», tesis de máster, Naval Postgraduate School, diciembre de 1968, https:// archive.org/details/shorthistoryofopoostor.
[139] US Congress, Offices of Technology Assessment, A History of the Department of Defense Federally Funded Research and Development Centers, OTA-BP-ISS-157 (Washington D. C: US Government Printing Office, junio de 1995), www.princeton.edu/-ota/didsk1/1995/9501/9501.PDF.
[140] John Holusha, «“Just-In-Time” System Cuts Japan’s Auto Costs», New York Times, 25 de marzo de 1983, www.nytimes.com/1983/03/25/business/just-in-time-system-cuts-japan-s-auto-costs.html.
[141] Leila Moray y Richard Rothstein, «Parents’ Non-standard Work Schedules Make Adequate Childrearing Difficult». Economic Policy Institute, 6 de agosto de 2015, www.epi.org/publication/parents-non-standard-work-schedules-make-adequate-childrearing-difficult-reforming-labor-market-practices-can-improve-childrens-cognitive-and-behavioral-outcomes/.
[142] H.R. 5159 —Schedules That Work Act, 113.º Congreso (2013-2014), www.congress.gov/bill/113th-congress/house-bill/5159 [última consulta el 10 de enero de 2016].
[143] Stephen Baker, «Data Mining Moves to Human Resources», Bloomberg Businessweek, 11 de marzo de 2009, www.bloomberg.com/bw/stories/2oo9-o3-11/data-mining-moves-to-human-resources.
[144] Joshua Rothman, «Big Data Comes to the Office», New Yorker, 3 de junio de 2014, www.newyorker.com/books/joshua-rothman/big-data-comes-to-the-office.
[145] National Commission on Excellence in Education, A Nation at Risk; The Imperative for Educational Reform (Washington D. C.: National Commission on Excellence in Education, 1983), www2.ed.gov/pubs/NatAtRisk/index.html.
[146] Tim Clifford, «Charting the Stages of Teacher Data Report Grief», WNYC-FM, 9 de marzo de 2012, www.wnyc.org/story/302123-charting-the-stages-of-teacher-data-report-grief/.
[147] Tim Clifford, entrevista por correo electrónico con la autora, 13 de mar zo de 2014.
[148] Tamim Ansary, «Education at Risk: Fallout from a Flawed Report», Edutopia, 9 de marzo de 2007, www.edutopia.org/landmark-education-report-nation-risk.
[149] Clifford Wagner, «Simpson’s Paradox in Real Life», American Statistician 36, n.º 1 (1982), pp. 46-48.
[150] Gary Rubinstein, «Analyzing Released NYC Value-Added Data Part 2», Gary Rubinstein’s Blog, 28 de febrero de 2012, https://garyrubinstein.wordpress.com/2012/02/28/analyzing-released-nyc-value-added-data-part-2/.
[151] Las sanciones de la ley «Que ningún niño se quede atrás» ofrecían a los alumnos de escuelas deficientes la opción de asistir a otras de mayor éxito. En casos graves, la ley exigía el cierre de la escuela deficiente y su sustitución por una concertada.
[152] Julie Hirschfeld Davis, «President Obama Signs into Law a Rewrite of No Child Left Behind», New York Times, 10 de diciembre de 2015, www.nytimes.com/2015/12/11/us/politics/president-obam-signs-into-law-a-rewrite-of-no-child-left-behind.html.
[153] Yoav Gonen y Carl Campanile, «Cuomo Vacktracks on Common Core, Wants 4-Year Moratorium», New York Post, 10 de diciembre de 2015, http;//nypost.com/2015/12/10/cuomo-backtracks-on-common-core-wants-4-year-moratorium/.
[154] Elizabeth Harris, «20 % of New York State Students Opted Out of Standardized Tests This Year», New York Times, 12 de agosto de 2015, www.nytimes.com/2015/08/13/nyregion/new-york-state-students-standardized-tests.html.
[155] Tim Clifford, entrevista por correo electrónico con la autora, 15 de diciembre de 2015.
[156] Emma Brown, «Education Researchers Caution Against Using Students’ Test Scores to Evaluate Teachers», Washington Post, 12 de noviembre de 2015, www.washingtonpost.com/local/education/education-researchers-caution-against-using-value-added-models-ie-test-scores-to-evaluate-teachers/2015/11/12/72b6b45c-8950-11e5-be39-0034bb576eee_story.html.
[157] «Do We Still Need the Equal Credit Opportunity Act?», documento de trabajo, Payment Cards Center, Federal Reserve Bank of Philadelphia, septiembre de 2012, https://ideas.repec.org/p/fip/fedpdp/12-03.html.
[158] Ibid.
[159] Martha Poon, «Scorecards as Devices for Consumer Credit: The Case of Fair, Isaac & Company Incorporated», Sociological Review 55 (octubre de 2007), pp. 284-306, doicio.1111/j.1467-954X.2007.007400.x.
[160] Sitio web de FICO, www.myfico.com/CreditEducation/ImproveYourScore.aspx [última consulta el 10 de enero de 2016].
[161] Free Credit Reports, Federal Trade Commission, Consumer Information, www.consumer.ftc.gov/articles/0155-free-credit-reports [última consulta el 10 de enero de 2016].
[162] Natasha Singer, «Secret E-Scores Chart Consumers’ Buying Power», New York Times, 18 de agosto de 2012, www.nytimes.com/2012/08/19/business/electronic-scores-rank-consumers-by-potential-value.html.
[163] Emily Steel y Julia Angwirt, «On the Web’s Cutting Edge, Anonymity in Name Only», Wall Street Journal, 4 de agosto de 2010, www.wsj.com/news/articles/SB10001424052748703294904575385532109190198.
[164] Sitio web CreditScoreDating.com, http://creditscoredating.com/ [última consulta el 10 de enero de 2016].
[165] Gary Rivlin, «The Long Shadow of Bad Credit in a Job Search», New York Times, 11 de mayo de 2013, www.nytimes.com/2013/05/12/business/employers-pull-applicants-credit-reports.html.
[166] Amy Traub, «Discredited: How Employment Credit Checks Keep Qualified Workers Out of a Job», Demos, febrero de 2013, www.demos.org/sites/default/files/publications/Discredited-Demos.pdf.
[167] Christina LaMontagne, «NerdWallet Health Finds Medical Bankruptcy Accounts for Majority of Personal Bankruptcies», NerdWallett 26 de marzo de 2014, www.nerdwallet.com/blog/health/medical-costs/medical-bahkruptcy/.
[168] Tami Lubby, «The Black-White Economic Divide in 5 Charts», CNN Money, 25 de noviembre de 2015, http://money.cnn.com/2015/11/24/news/economy/blacks-whites-inequality/.
[169] Rakesh Kochhar, Richard Fry y Paul Taylor, «Wealth Gaps Rise to Record Highs Between Whites, Blacks, Hispanics: Twenty-to-One», Pew Research Center, 26 de julio de 2011, www.pewsocialtrends.org/2011/07/26/wealth-gaps-rise-to-record-highs-between-whites-blacks-hispanics/.
[170] National Conference of State Legislatures, «Use of Credit Information in Employment 2013 Legislation», sitio web de NCSL, www.ncsl.org/research/financial-services-and-commerce/use-of-credit-info-in-employ-2013-legis.aspx [actualizado el 29 de septiembre de 2014].
[171] Federal Trade Commission, «In FTC Study, Five Percent of Consumers Had Errors on Their Credit Reports That Could Result in Less Favorable Terms for Loans», sitio web de la FTC, 11 de febrero de 2013, www.ftc.gov/news-events/press-releases/2013/02/ftc-study-five-percent-consumers-had-errors-their-crediit-reports.
[172] Debo añadir que rectificar estos errores puede convertirse en una pesadilla. Patricia Armour, que vive en el estado de Misisipi, tardó dos años en conseguir que Experian eliminara de su expediente una deuda de 40.000 dólares que ya había pagado. Tuvo que llamar al fiscal general del estado de Misisipi y hablar con el New York Times para conseguir que Experian corrigiera su historial. (Gretchen Morgenson, «Held Captive by Flawed Credit Reports», New York Times, 21 de junio de 2014, www.nytimes.com/2014/06/22/business/held-captive-by-flawed-credit-reports.html.)
[173] Joe Palazzolo y Gary Fields, «Fight Grows to Stop Expunged Criminal Records Living On in Background Checks», Wall Street Journal 7 de mayo de 2015, www.wsj.com/articles/fight-grows-to-stop-expunged-criminal-records-living-on-in-background-checks-1430991002.
[174] Office of Oversight and Investigations, «A Review of the Data Broker Industry: Collection, Use, and Sale of Consumer Data for Marketing Purposes», Committee on Commerce, Science, and Transportation, 18 de diciembre de 2013, http://educationnewyork-com/files/rockefeller_databroker.pdf.
[175] Ylan Q. Mui, «Little-Known Firms Tracking Data Used in Credit Scores», Washington Post, 16 de julio de 2011, www.washingtonpost.com/business/economy/little-known-firms-tracking-data-used-in-credit-scores/2011/05/24/gIQAXHcWII_story.html.
[176] Stephen Baker, «After “Jeopardy”», Boston Globe, 15 de febrero de 2011, www.boston.com/bostonglobe/editorial_opinion/oped/articles/2011/02/15/after_jeopardy/.
[177] Alistair Barr, «Google Mistakenly Tags Black People as “Gorillas” Showing Limits of Algorithms», Wall Street Journal, 1 de julio de 2015, http://blogs.wsj.com/digits/2015/07/01/google-mistakenly-tags-black-people-as-gorillas-showing-limits-of-algorithms/.
[178] Robinson Meyer, «Could a Bank Deny Your Loan Based on Your Facebook Friends?», Atlantic Monthly, 25 de septiembre de 2015, www.theatlantic.com/technology/archive/2015/09/fecebooks-new-patent-and-digital-redlining/407287/.
[179] Ron Lieber, «American Express Kept a (Very) Watchful Eye on Charges», New York Times, 30 de enero de 2009, www.nytimes.com/2009/01/31/your-money/credit-and-debit-cards/31money.html.
[180] Steve Lohr, «Big Data Underwriting for Payday Loans», New York Times, 19 de enero de 2015, http://bits.blogs.nytimes.com/2015/01/19/big-data-underwnting-for-payday-loans/.
[181] Sitio web de ZestFanance.com, www.zestfinance.com/ [última consulta el 9 de enero de 2016].
[182] Lohr, «Big Data Underwriting».
[183] Michael Carney, «Flush with $20M from Peter Thiel, ZestFinance Is Measuring Credit Risk Through Non-traditional Big Data», Pando, 31 de julio de 20131 https://pando.com/2013/o7/31/flush-with-20m-from-peter-thiel-zestfinance-is-measuring-credit-risk-through-non-traditional-big-data/.
[184] Richard MacManus, «Facebook App, Lending Club, Passes Half a Million Dollars in Loans», Readwrite, 29 de julio de 2007, http://readwrite.com/2007/07/19/facebook_app_lending_club_passes_half_a_million_in_loans
[185] Lending Club, «Lending Club Completes $6oo Million. SEC Registration and Offers New Alternative for Consumer Credit», Lending Club, 14 de octubre de 2008, http://blog.lendingdub.com/lending-club-sec-registration/.
[186] Peter Renton, «Five Predictions for 2015», Lend Academy, 5 de enero de 2015, www.lendacademy.com/five-predictions-2015/.
[187] Nav Alhwal, «The Disappearance of Peer-to-Peer Lending», Forbes, 14 de octubre de 2014, www.forbes.com/sites/groupthink/2014/10/14/the-disappearance-of-peer-to-peer-lending/.
[188] Maureen Farrell, «Wells Fargo Is a Big Winner in Lending Club IPO», Wall Street Journal, 12 de diciembre de 2014, http://blogs.wsj.com/moneybeat/2014/12/12/wells-fargo-is-a-big-winner-in-lending-dub-ipo/.
[189] Neha Dimri, «Update 1 —Online Lender LendingClub Profit Beats Street as Fees Jump», Reuters, 5 mayo de 2015, www.renters.com/article/lendingdclub-results-idUSL4NoXW4HO20150505.
[190] Athwal, «Disappearance of Peer-To-Peer Lending».
[191] Megan Wolff, «The Myth of the Actuary: Life Insurance and Frederick L. Hoffman’s “Race Traits and Tendencies of the American Negro”». Public Health Reports 121, n.º 1 (enero-febrero de 2006), pp. 84-91, www.ncbi.nlm.nih.gov/pmc/articles/PMC1497788/.
[192] Gregory Squires, «Insurance Redlining; Still Fact, Not Fictions» Skelterforce 79 (enero-febrero de 1995), www.nhi.org/online/issues/79/isurred.html.
[193] Fair Housing Laws and Presidential Executive Orders, US Departmant of Housing and Urban Development, http://portal.hud.gov/hudportal/HUD?src=/program_offices/fair_housing_equal_opp/FHLaws [última consulta el 9 de enero de 2016].
[194] Chris Lewin, «The Creation of Actuarial Science», Zentralblatt für Didaktik der Mathematik 33,n.º 2 (abril de 2001), pp. 61-66,http://link,springer.com/article/10.007 %2FBF02652740.
[195] Margaret de Valois, «Who Was Captain John Graunt?», Actuary, septiembre de 2ooo, pp. 38-39, www.thcactuary.com/archive/old-article/part-3/who-was-captain-john-graunt-3F/.
[196] John Graunt, Bills of Mortality (1662), www.neanatology.org/pdf/graunt.pdf.
[197] De Valois, «Who Was Captain John Graunt?».
[198] «The Truth About Car Insurance», Consumer Reports, informe especial, www.consumerreports.org/cro/car-insurance/auto-insurance-special-report\index, htm [última consulta el 10 de enero de 2016].
[199] Jeff Blyskal, «Secrets of Car Insurance Prices», Consumer Reportsm 30 de julio de 2015, www.consumerreports.org/cro/magazine/2015/07/car-insurance-prices/index.htm.
[200] Don Jergler, «Price Optimization Allegations Challenged, NAIC Investigating Practice», Insurance Journal, 18 de diciembre de 2014, www.insurancejournal.com/news/national/2014/12/18/350630.htm.
[201] «CFA Rips Allstate’s Auto Insurance Pricing», Corporate Crime Reporter, 16 de diciembre de 2014, www.corporatecrimereporter.com/news/200/cfa-rips-allstates-auto-insurance-pricing-policy/.
[202] Ellen Jean Hirst, «Allstate, Other Insurers Accused of Unfairly Pricing Premiums», Chicago Tribune, 16 de diciembre de 2014, www.chicagotribune.com/business/ct-allstate-insurance-risk-premiums-1217-biz-20141216-story.html.
[203] Mitch Lipka, «Watchdog; Allstate Auto Insurance Pricing Scheme Is Unfair», Daily Finance, 16 de diciembre de 2014, www.dailyfinance.com/2014/12/16/allstate-auto-insurance-pricing-scheme-unfair/.
[204] «Consumer Reports Digs into Car Insurance Quote Secrecy, Prices Are Rife with Inequities and Unfair Practices», Clarksville Online, 6 de agosto de 2015, www.clarksvilleonline.com/2015/08/06/consumer-reports-digs-into-car-insurance-quote-secrecy-prices-are-rife-with-inequities-and-unfair-practices/.
[205] David Morris, «There’s Pressure in the Industry to Monitor Truck Drivers-and Drivers Aren’t Happy», Fortune, 26 de mayo de 1015, http.//fortune.com/2015/05/26/driver-facing-truck-cameras/.
[206] Centers for Diseasc Control and Prevention, «Crashes Are the Leading Cause of on-the-Job Death for Truck Drivers in the US», comunicado de prensa, 3 de marzo de 2015, www.cdc.gov/media/releases/2015/p0303-truck-driver-safety.html.
[207] Morris, «There’s Pressure».
[208] Karen Levy, «To Fight Trucker Fatigue, Focus on Economics, Not Electronics», Los Angeles Times, 15 de Julio de 2014, www.latimes.com/opinion/op-ed/la-oe-levy-trucker-fatigue-20140716-story.html.
[209] Mark Chalon Smith, «State Farm’s In-Drive Discount: What’s the Catch?», CarInsurance, 12 de junio de 2015, www.carinsurance.com/Articles/state-farm-in-drive-discount.aspx.
[210] Ibid.
[211] Stephen Baker, «Mapping a New, Mobile Internet», Bloomberg, 25 de febrero de 2009, www.bloomberg,com/bw/stories/2009-02-25/mapping-a-new-mobile-internet.
[212] Greg Skibiski y Tony Jebara, entrevista personal con Stephen Baker, febrero de 2009.
[213] Anthony Ha. «In Its First Acquisition, YP Buys Mobile Ad Company Sense Networks», TechCrunck, 6 de enero de 1014, http://techcrunch.com/2014/01/06/yp-acquires-sense-networks/.
[214] Congressional Budget Office, «The Tax Treatment of Employment-Based Health Insurance», marzo de 1994, www.cbo.gov/sites/default/files/103rd-congress-1993-1994/reports/1994_03_taxtreatmentofinsurance.pdf.
[215] Alex Blumberg y Adam Davidson, «Accidents of HistoryCreated U. S. Eslth System», NPR, 22 de octubre de 2009, www.npr.org/templates/story/story.php?story Id=114045132.
[216] Ibid.
[217] Chad Terhune, «U.S. Health Spending Hits $3 Trillion as Obamacare and Rising Drug Costs Kick In», Los Angeles Times, 2 de diciembre de 2015, www.latimes.com/business/healthcare/la-fi-health-spending-increase-20151202-story.html.
[218] Scott Thomas, «Nation’s Total Personal Income Approaches $13 Trillions», Business Journals, 4 de diciembre de 1012, www.bizjournals.com/bizjournals/on-numbers/scott-thomas/2012/12/nations-total-personal-income.html.
[219] US Department of Labor, «The Affordable Care Act and Wellness Programs», ficha técnica, www.dol.gov/ebsa/newsroom/fswellnessprogram.html [última consulta el 9 de enero de 1016].
[220] US Department of Labor, «Affordable Care Act».
[221] Soeren Mattke, Hangsheng Liu, John Caloyeras, Christina Huang, Kristin Van Busum, Dmitry Khodyakov y Victoria Shier, «Workplace Wellness Programs Study», Rand Corporation Research Report, 2013, www.rand.org/content/dam/rand/pubs/research_reports/RR200/RR254/RAND_RR254.sum.pdf.
[222] Washington and Lee Wellness Program, www.wIu.edu/human-resources/wellness/evolve-wellness-program [última consulta el 9 de enero de 2016].
[223] Leslie Kwoh, «When. Your Boss Makes You Pay for Being Fat». Wall Street Journal, 5 de abril de 2013, www.wsj.com/articles/SB10001424127887324600704578402784123334550.
[224] Ibid.
[225] Alissa Fleck, «CVS Drugstore Chain Unveils New Employee Diet Plan: Fat-Shaming and a $600 Fine», Bitch Media. 21 de marzo de 2013, https://bitchmedia.org/post/cvs-drugstore-chain-unveils-new-employee-diet-plan-fat-shaming-and-a-600-fine.
[226] Lily Dayton, «BMI May Not Be the Last Word on Health Risks, Some Experts Say», Los Angeles Times, 19 de diciembre de 2014, www.latimes.com/health/la-he-bmi-20141220-story.html.
[227] Keith Devlin, «Top 10 Reasons Why The BMI Is Bogus», NPR, 4 de julio de 2009, www.npr.org/templates/story/story.php?storyId=106268439.
[228] Rand Corporation, «Do Workplace Wellness Programs Save Employers Money?», Rand Corporation Research Brief, 2013, vmw.rand.org/content/dam/rand/pubs/research_briefs/RB9700/RB9744/RAND_RB9744.pdf.
[229] Joshua Love, «4 Steps to Implement a Successful Employee Wellness Program», Forbes, 28 de noviembre de 2012, www.fobrbes.com/sites/theyec/2012/11/28/4-steps-to-implement-a-successful-employee-wellness-program/.
[230] California Health Benefits Review Program, «Analysis of Senate Bill 189: Health Care Coverage: Wellness Programs», informe a la asamblea legislativa de California de 2013-2014, 25 de abril de 2013, http://chbrp.ucop.edu/index.php?action=read&bill_id=149&doc_type=3.
[231] Jill Horwitz, Brenna Kelly y John Dinardo, «Wellness Incentives in the Workplace: Cost Savings Through Cost Shifting to Unhealthy Workers», Health Affairs 32, n.º 3 (marzo de 2013), pp. 468-476, doi:10.1377/hlthaff.2012.0683.
[232] Andrew Perrin, «Social Media Usage: 2005-2015», Pew Research Center, 8 de octubre de 2015, www.pewinternet.org/2015/10/08/social-networking-usage-2005-2015/.
[233] Victor Luckcerson, «Here’s How Facebook’s News Feed Actually Works», Time, 9 de julio de 2015, http://time.com/3950525/facebook-news-feed-algorithm/.
[234] Michael Barthel, Elisa Shearer, Jeffrey Gottfried y Amy Mitchell, «The Evolving Role of News on Twitter and Facebook», Pew Research Center, 14 de julio de 2015, www.journalism.org/2015/07/14/the-evolving-rok-of-news-on-twitter-and-facebook/.
[235] Robert Bond, Christopher Fariss, Jason Jones, Adam Kramer, Cameron Marlow, Jaime Settle y James Fowler, «A 61-Million-Person Experiment in Social Influence and Political Mobilization», Nature 489 (13 de septiembre de 2012), pp. 295-298, doi:10.1038/natiire11421
[236] Alan Gerber, Donald Green y Christopher Larimer, «Social Pressure and Voter Turnout: Evidence from a Large-Scale Field Experiment», American Political Science Review 102, n.º 1 (febrero de 2008), pp. 33-48, doi:10.1017/S000305540808009X.
[237] Derek Willis y Claire Cain Miller, «Tech Firms and Lobbyists: Now Intertwined, but Not Eager to Reveal It», New York Times, 24 de septiembre de 2004, www.nytimes.com/2014/09/25/upshot/tech-firms-and-lobbyists-now-intertwined-but-not-eager-to-reveal-it.html?_r-o.
[238] Bond et al., «61-Million-Person Experiment».
[239] David Barstow y Don Van Natta Jr., «Examining the Vote; How Bush Took Florida: Mining the Overseas Absentee Vote», New York Times, 15 de julio de 2001, www.nytimes.com/2001/07/15/us/examining-the-vote-how-bush-took-florida-mining-the-overseas-absentee-vote.html.
[240] Eytan Bakshy, Solomon Messing y Ladá Adamic, «Exposure to Ideologically Diverse News and Opinion», Science 348, n º 6239 (7 de mayo de 2015), pp. 1130-1132, doi:10.1126/science, aaa1160.
[241] Lada Adamic, vídeo de YouTube de una conferencia titulada «When Friends Deliver the Newspaper», impartida originalmente en el Foo Camp de O’Reilly el 25 de noviembre de 2013, www.youtube.com/watch?v=vawv-oVC9sE&list=UUoXEyA 5oRlKnp7jkGrYw8ZQ-I [última consulta el 10 de enero de 20×6].
[242] Luckerson, «Here’s How».
[243] Adam Kramer, Jamie Guillory y Jeffrey Hancock, «Experimental Evidence of Massive-Scale Emotional Contagion through Social Networks», Proceedings of the National Academy of Sciences of the United States of America 111, n.º 24 (2 de junio de 2014), pp. 8788-8790, doi:10.1073/pnas.1320040111.
[244] Robert Epstein y Ronald Robertson, «The Search Engine Manipulation Effect (SEME) and Its Possible Impact on the Outcomes of Elections», Proceedings of the National Academy of Sciences of the United States of America 112, n.º 33 (18 de agosto de 2015), pp. E4512-E4521, doi:10.1073/pnas.1419828112.
[245] Kristin Purcell, Joanna Brenner y Lee Rainie, «Search Engine Use 2011», Pew Research Center, 9 de marzo de 2012, www.pewinternet.org/2012/03/09/search-engine-use-2012/.
[246] Dave Gilson, «Who Was at Romney’s “47 Percent” Fundraiser?», Mother Jones, 18 de septiembre de 2012, www.motherjones.com/mojo/2012/09/romney-47-percent-fundraiser-florida.
[247] David Corn, «Meet Scott Prouty, the 47 Percent Video Source», Mother Jones 13 de marzo de 2013, www.motherjones.com/politics/2013/03/scott-prouty-47-percent-video.
[248] Henry Blodget, «Bloomberg: Mitt Romney Just Lost the Election». Business Insider, 17 de septiembre de 2012, www.businessinsider.com/mitt-romney-just-lost-the-election-2012-9.
[249] Joe McGinniss, The Selling of the President 1968 (Nueva York: Trident Press, 1969).
[250] Fragmento extraído de la columna «Straight Dope Message Board», http;//boards.straightdope.com/sdmb/archive/index.php/t-617517.html [última consulta el 9 de enero de 2016].
[251] Alexis Madrigal, «What the Obama Campaign’s Chief Data Scientist Is Up to Now», Atlantic Monthly, 8 de mayo de 2013, www.theatlantic.com/technology/archive/2013/05/what-the-obama-campaigns-chief-data-scientist-is-ts-up-to-now/275676/.
[252] Chad Cumby, Andrew Fano, Rayid Ghani y Marko Krema, «Predicting Customer Shopping Lists from Point-of-Sale Purchase Data», artículo presentado en Proceedings of the Tenth ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, Seattle, 2004, doi:10.1145/1014052.1014098.
[253] De la misma manera, es mucho más probable que las páginas web para consumidores ofrezcan descuentos alas personas que no han iniciado sesión. Una razón más para limpiar las cookies del navegador con regularidad.
[254] Sasha Issenberg, «How President Obama’s Campaign Used Big Data to Rally Individual Voters», Technology Review, 19 de diciembre de 2012, www.technologyreview.com/featuredstory/509026/how-obamas-team-used-big-data-to-rally-voters/.
[255] Adam Pasick y Tim FernHolz, «The Stealthy, Eric Schmidt-Backed Startup That’s Working to Put Hillary Clinton in the White House», Quartz, 9 de octubre de 2015, http://qz.com/520652/groundwork-eric-sdrmidt-startup-working-for-hillary-clinton-campaign/.
[256] Harry Davies, «Ted Cruz Using Firm That Harvested Data on Millions of Unwitting Facebook Users», Guardian, 11 de diciembre de 2015, www.theguardian.com/us-news/2015/dec/11/senator-ted-cruz-president-campaign-facebook-user-data.
[257] Tom Hamburger, «Cruz Campaign Credits Psychological Data and Analytics for Its Rising Success», Washington Post, 13 de diciembre de 2015, www.washingtonpost.com/politics/cruz-campaign-credits-psychological-data-and-analytics-for-its-rising-success/2015/12/13/4cbobaf8-9dc5-11e5-bce4-708fe33e3288_story.htmt.
[258] Eugene Scott, «Anti-abortion Group Releases Fifth Planned Parenthood Video», CNN, 5 de agosto de 2015, www.cnn.com/2015/08/04/politics/planned-parenthood-fifth-video-houston/.
[259] Jackie Calmes, «Planned Parenthood Videos Were Altered, Analysis Rinds», New York Times, 27 de agosto de 2015, www.nytimes.com/2015/08/28/us/abortion-planned-parenthood-videos.html, www.theguardian.com/us-news/2015/nov/29/suspect-in-planned-parenthood-attack-said-no-more-baby-parts-after-arrest
[260] Zeynep Tufekci, entrevista, telefónica con la autora, 3 de abril de 2015.
[261] Peter Schroeder, «Poll: 43 Percent of Republicans Believe Obama Is a Muslim», Hill, 13 de septiembre de 2015, http://thehill.com/blogs/blog-briefing-room/news/253515-poll-43-percent-of-republicans-believe-obama-te-a-musilim.
[262] Elizabeth Wilner, «Romney and Republicans Outspent Obama, but Couldn’t Out-advertise Him», Advertising Age, 9 de noviembre de 2012, http://adage.com/article/campaign-trail/romney-outspent-obama-advertise/238241/.
[263] Steven Perlberg, «Targeted Ads? TV Can Do That Now Too», Wall Street Journal 20 de noviembre de 2014, www.wsj.com/articles/targeted-ads-tv-can-do-that-now-too-1416506504.
[264] A nivel federal, este problema podría paliarse en gran medida mediante la abolición del sistema del Colegio Electoral, en el que los votantes eligen a los electores de cada estado. Los electores son quienes votan por un candidato y el candidato que recibe la mayoría de votos de los electores de un estado recibe en el recuento final los votos de todos los electores de ese estado. Lo que otorga tanto poder a este reducido puñado de votantes son las matemáticas del «todo para el que gane» dentro de cada estado. Es como si en política, al igual que en economía, tuviésemos un 1 % privilegiado. El dinero de ese 1 % financiero sufraga la microsegmentación para asegurar los votos del 1 % político. Sin el Colegio Electoral, en cambio, cada voto valdría exactamente lo mismo. Esto supondría dar un paso más hacia la democracia.
[265] Richard Socarides, «Why Bill Clinton Signed the Defease of Marriage Act», New Yorker, 8 de marzo de 2013, www.newyorker.com/news/news-desk/why-bill-clinton-signed-the-defense-of-marriage-act.
[266] Nick Gillespie, «What’s Good for IBM…», Chicago Tribune, 5 de noviembre de 1996, http://articles.chicagotribune.com/1996-11-05/news/9611050018_1_gay-marriage-defense-of-marriage-act-same-sex.
[267] Businessweek Archives, «Same Sex Benefits: Where IBM Goes, Others May Follow», Bloomberg Business, 6 de octubre de 1996, www.bloomberg.com/bw/stories/1996-10-06/same-sex-benefits-where-ibm-goes-others-may-follow.
[268] Timothy Donald Cook, «Tim Cook Speaks Up», Bloomberg Business, 30 de octubre de 2014 www.bloomberg.com/news/articles/2014-10-30/tim-cook-speaks-up.
[269] Verne Kopytoff, «Apple: The First $700 Billion Company», Fortune, 10 de febrero de 2015, http://fortune.com/2015/02/10/apple-the-first-700-billion-company/.
[270] MSHA, «Coal Fatalities for 1900 Through 2014», US Department of Labor, www.msha.gov/stats/centurystats/coalstats.asp [última consulta el 9 de enero de 2016].
[271] Emanuel Derman y Paul Wilmott, «The Financial Modeler’s Manifesto», 7 de enero de 2009, www.uio.no/studier/emner/sv/oekonomi/ECON4135/ho9/under visningsmateriale/FinancialModelersManifesto.pdf.
[272] Sitio web de FindFamilyResources, http://findfamilyresources.com/ [última consulta el 9 de enero de 2016].
[273] Gary Rubinstein, «Analyzing Released NYC Value-Added Data Part 2», Gary Rubinstein’s Blog, 28 de febrero de 2012, hflp://garymbinstein.teachforus.org/2012/02/28/analyzing-released-nyc-value-added-data-part-2/.
[274] Se podría pensar que una auditoria imparcial debería presionar para eliminar variables como la raza del análisis, pero si queremos medir el impacto de un ADM, necesitamos esos datos. En la actualidad, la mayoría de las ADM evitan incluir la raza de forma directa. En muchos casos es ilegal hacer referencia a ella. No obstante, es más fácil demostrar la discriminación racial en los préstamos hipotecarios que en los préstamos para comprar coches, porque cuando se concede un préstamo hipotecario el empleado del banco tiene que preguntar al solicitante por su raza, mientras que no existe esa obligación en los préstamos para comprar coches. Si se incluye la raza en el análisis, como ha observado la ingeniera de sistemas Cynthia Dwork, podemos cuantificar la injusticia racial cuando la encontramos, y asi darle publicidad, debatir los problemas éticos que plantea y proponer soluciones. Dicho esto, no debemos olvidar que la raza es un constructo social y, como tal, resulta difícil de determinar incluso cuando nos lo proponemos, como puede confirmar cualquier persona de raza mestiza. (Claire Cain Miller, «Algorithms and Bias: Q. and A, with Cynthia Dwork», New York Times, 10 de agosto de 2015, www.nytimes.com/2015/08/11/upshot/algorithms-and-bias-q-and-a-with-cynthia-dwork,html.)
[275] Elizabeth Dwoskin, «How Social Bias Creeps into Web Technology», Wall Street Journal, 21 de agosto de 2015, www,wsj.com/articles/computers-are-showing-their-biases-and-tech-firms-are-concerned-1440102894.
[276] Jeff Larson, «Message Machine Starts Providing Answers», ProPublica, 18 de octubre de 2012, www.propublica.org/article/message-machine-starts-providing-answers.
[277] Google ha expresado su interés por Intentar eliminar los sesgos de su algoritmo y algunos empleados de Google lo han comentado brevemente conmigo. Una de mis sugerencias es que abran la plataforma a más investigadores externos.
[278] Federal Trade Commission, «Fair Credit Reporting Act», 15 USC § 1681 et seq., sitio web de la FTC, www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/fair-credit-reporting-act.
[279] Federal Trade Commission, «Your Equal Credit Opportunity Rights», sitio web de la FTC, www.consumer.ffcgov/articles/0347-your-equal-credit-opportunity-rights.
[280] US Department of Justice Civil Rights Division, «Information and Technical Assistance on the Americans with Disabilities Act», sitio web de la Ley sobre Estadounidenses con Discapacidades, www.ada.gov/.
[281] US Department of Labor, «The Health Insurance Portability and Accountability Act», noviembre de 2015, www.dol.gov/ebsa/newsroom/fshipaa.html.
[282] L-Soft, «Opt-In Laws in North America and Europe», Lsoft.com, www.lsoft.com/resources/optinlaws.asp.
[283] Elizabeth Dwoskin, «EU Data-Privacy Law Raises Daunting Prospects for U.S. Companies», Wall Street Journal, 16 de diciembre de 2015, www.wsj.com/articles/eu-data-privacy-law-raises-daunting-prospects-for-us-companies-1450306033.
[284] Meghan Henry, Alvaro Cortes, Azim Shivji y Katherine Buck, «The 2014 Annual Homeless Assessment Report (AHAR) to Congress», US Department of Housing and Urban Development, octubre de 2014, www.htudexchange.info/resources/documents/2014-AHAR-Part1.pdf.
[285] Giselle Routhier, «Mayor Bloomberg’s Revolving Door of Homelessness», Safety Net, primavera de 2012, www.coalitionforthehomeless.org/mayor-bloombergs-revolving-door-of-homelessness/.
[286] Issie Lapowsky, «The Next Big Thing You Missed: Software That Helps Businesses Rid Their Supply Chains of Slave Labor», Wired, 3 de febrero de 2015, www.wired.com/2015/02/frdm/.
[287] Darian Woods, «Who Will Seize the Child Abuse Prediction Market?», Chronicle for Social Change, 28 de mayo de 2015, https://chronicleofsocialchange.org/featured/who-will-seize-the-child-abuse-prediction-market/10861.
[288] Michael Levenson, «Can Analytics Help Fix the DCF?», Boston Globe, 7 de noviembre de 2015, www.bostonglobe.com/2015/11/07/childwelfare-bostonglobe-com/AZ2kZ7ziiP8cBMOite2KKP/story.html.