Portada :: Cultura
Aumentar tamaño del texto Disminuir tamaño del texto Partir el texto en columnas Ver como pdf 06-07-2019

Resea de Armas de destruccin matemtica. Cmo el big data aumenta la desigualdad y amenaza la democracia, de Cathy ONeil
Sobre el enorme poder de control y manipulacin sociales generado por la tecnologa de big data

Ramn Campderrich Bravo
mientras tanto


Por lo general, los libros ms fiables sobre una determinada cuestin no estrictamente acadmica son aquellos escritos por quienes no slo la han estudiado tericamente, sino que la han visto desenvolverse en la realidad cotidiana. Este es el caso de la autora del libro que se resea en las siguientes lneas, Cathy O'Neil, matemtica de formacin que ha trabajado en el mundo de las finanzas y del voluntariado. O'Neil pretende con su obra mostrarnos crticamente el funcionamiento de la tecnologa de big data en tanto que instrumento de toma de decisiones en los mbitos ms variados de la vida social, en especial, en el mbito de las inversiones financieras, en el de la justicia penal, en el educativo, en el de la seleccin de personal, en el de la organizacin de los horarios de trabajo, en el de la concesin de crditos, en el de los seguros, en el de la publicidad y en el del marketing poltico-electoral. Desgraciadamente, la investigacin de O'Neil se limita a los Estados Unidos. Pero tambin es cierto que ese es el pas donde la tecnologa de big data se halla ms desarrollada. 

La tecnologa del big data en dichos mbitos sociales consiste, en lo fundamental, en la elaboracin de frmulas matemticas llamadas algoritmos a partir del anlisis informatizado de cantidades ingentes de datos de individuos o grupos de individuos. Frmulas que, a su vez, permiten el anlisis de millones de datos personales con el objeto de hacer previsiones sobre el comportamiento o las vicisitudes futuras de individuos concretos o grupos de individuos y, en funcin de esas previsiones, o predicciones, tomar decisiones acerca de esas personas. El fondo cientfico-tcnico de esta tecnologa no tiene nada de novedoso, pues se trata de simples clculos estadsticos y de probabilidades; lo que s es novedoso es la capacidad que las nuevas herramientas informticas, a las que se est aadiendo la inteligencia artificial, proporcionan a las sociedades humanas para hacer clculos de esa naturaleza de manera automtica, en muy poco tiempo y manejando cantidades de datos con los que los matemticos de la era analgica no podan ni siquiera soar. O, al menos, esto es lo que el autor de la presente resea ha inferido de la lectura del ensayo de O'Neil.

Una vez definida la tecnologa de los big data en tanto que tecnologa social, podemos detallar los principales efectos sociales dimanantes de su uso actual, que son los que nos ayudarn a caracterizarla mejor, y, a travs de esa caracterizacin, resumir las principales ideas expuestas en el ensayo de O'Neil. Estos efectos pueden ser enumerados en los siguientes trminos:

▪ Efecto de naturalizacin del orden social existente. Este es el ms profundo de todos y se deriva del modo en que la tecnologa de los big data se configura y se utiliza en unas sociedades especficas, nuestras sociedades de economa de mercado capitalistas. Los fundamentos de dicha tecnologa y sus resultados se presentan como cientficos o neutrales, pero, obviamente, no lo son. Lo nico cientfico o neutral son las matemticas empleadas en esa tecnologa, pero todo lo dems no tiene nada de cientfico o neutral. Los criterios que se utilizan para seleccionar y ponderar la importancia de los datos, esto es, para cuantificarlos en funcin del peso que se da a cada tipo de dato, y los objetivos que se persiguen con la utilizacin de los algoritmos para tomar decisiones no son, como es lgico, valorativa, moral o polticamente neutros, sino que responden a determinados juicios de valor, prejuicios, concepciones poltico-sociales e intereses y, en ltimo trmino, responden a los particulares fines de las organizaciones sociales, bsicamente estados y empresas, que los emplean. Este hecho es ocultado, a veces intencionadamente y otras no, por las personas y organizaciones que recurren a la tecnologa de big data como instrumento de ingeniera social, esto es, de control y gestin de grupos de personas y de individuos, las cuales suelen proteger celosamente el secreto de sus algoritmos con mecanismos tcnicos y legales (como la propiedad intelectual/industrial) [1]. Ms an, la circunstancia misma de que la realidad social a la cual se aplica la tecnologa de los big data se conciba y sea tratada por sus expertos como equivalente a la realidad fsica sobre cuya base se elaboran los modelos predictivos de las ciencias naturales (por ejemplo, los meteorolgicos o los astrofsicos) supone ya una naturalizacin de un orden social determinado por falta de cuestionamiento tico-poltico del mismo.

Se puede decir que los dems efectos de la tecnologa de los big data aplicada a la toma de decisiones sociales son producto de este primer y bsico efecto de naturalizacin que se acaba de exponer.

▪ Efecto de retroalimentacin perversa. Ya se ha sealado que en la sociedad actual los concretos criterios que orientan el manejo social de la tecnologa de los big data responden a valores, prejuicios, intereses y fines sociales no menos concretos que quedan ocultos tras la apariencia de cientificidad y neutralidad que se desprende de la matematicidad y el uso de programas informticos inherentes a dicha tecnologa y a la falta de cuestionamiento del orden social existente que la misma presupone hoy en da. Puesto que la justicia de ese orden social, de la realidad social de la que se extraen los datos, no se pone en duda a), los valores tico-polticos que inspiran la seleccin y ponderacin de datos son los dominantes b) y los intereses a cuya satisfaccin se orientan las decisiones que supuestamente se fundamentan en los algoritmos son los propios de la elite socioeconmica y las organizaciones ms estrechamente vinculadas a dicha elite sobre todo las empresas y la denominada "mano derecha" del estado [2] c), es inevitable que aparezca un efecto de retroalimentacin perversa asociado a la tecnologa de los big data consistente en la reproduccin constante, ms an, en el refuerzo o intensificacin, de las injusticias y jerarquas sociales, en especial, las relativas a la desigualdad socioeconmica (en suma, a la clase social). En el texto de O'Neil se pueden encontrar numerosos y detallados ejemplos de cmo opera la tecnologa de los big data a la hora de reforzar la desigualdad e, incluso, de potenciar el actual capitalismo de "acumulacin por desposesin" (Harvey), centrado en la reduccin de costes laborales y sociales mediante su externalizacin sobre los hombros de las clases populares por parte de las empresas como principal fuente de generacin de beneficios (una verdadera economa de saqueo que, en sus modalidades ms extremas, poco tiene que envidiar al comercio triangular esclavista colonial de los siglos XVI a XVIII).

▪ Efecto de homogeneizacin social. Tambin cabe hablar de un efecto homogeneizador, uniformizador o normalizador, de la tecnologa de big data, unido a los efectos de naturalizacin y de retroalimentacin perversa. Dado que esta tecnologa se fundamenta en la conjuncin de matemticas, informtica y una serie de valores e intereses que son los dominantes o los propios de las elites y organizaciones sociales ms poderosas, valores e intereses que son el aspecto sustantivo de los big data, mientras que las matemticas y la informtica son su aspecto formal o tcnico, y puesto que es ese aspecto sustantivo el que en ltimo trmino determina la seleccin de los datos y criterios operativos relevantes sin cuestionar en ningn momento el orden social existente, las decisiones basadas en la tecnologa de big data tienden a inducir a los afectados por esas decisiones a adoptar los valores y patrones de conducta dominantes o juzgados deseables en una determinada sociedad, en la medida en que intuyen o llegan a conocer cules son los comportamientos y opiniones ms adecuados para que los algoritmos arrojen unas decisiones ms favorables para el curso de sus vidas. Cuanto menos se ajusten ciertas opiniones, intereses y patrones de conducta a los considerados relevantes configurados y priorizados por las frmulas a que han llegado los expertos (que, no se olvide nunca, no trabajan en el vaco, sino dentro de organizaciones sociales) ms quedaran estigmatizados por los modelos de previsin elaborados mediante la tecnologa de big data y menos dispuesta estar la gente a asumirlos o verlos con buenos ojos.

▪ Efecto de exclusin social. Aunque no es ms que una forma extrema del efecto de retroalimentacin perversa de la tecnologa de big data, parece conveniente hacer una indicacin expresa del mismo por su dramatismo y radicales consecuencias para la vida de las personas. En una poca de creciente mercantilizacin, obsolescencia sociolaboral, darwinismo social y obsesin por la seguridad, la retroalimentacin perversa producida por decisiones sesgadas con ayuda de la tecnologa de big data puede llevar a la marginacin y exclusin sociales de crecientes cohortes de desfavorecidos por el sistema. A fin de cuentas, esta tecnologa se usa para poder tomar decisiones en un tiempo rcord con el menor coste posible en personal administrativo y decisor a escala industrial, esto es, masivamente, sobre todo tipo de asuntos que son vitales para millones de seres humanos. La tecnologa genera un ranking de categoras de personas en funcin de una serie de datos juzgados relevantes en relacin con una determinada cuestin (acceso a bienes y servicios, contratacin laboral, acceso a la educacin superior, evaluacin del rendimiento laboral, acceso y primas de seguro, tratamiento penal, asistencia mdica, peso poltico electoral) y punta a cada individuo cuantifica su valorꞌ? colocndolo en una determinada posicin en ese ranking. Una vez que se sabe la posicin del individuo evaluado en el ranking, se toma una decisin sobre el individuo. La tecnologa permite la evaluacin de y la decisin sobre la situacin de millones de individuos a una gran velocidad y con el mnimo coste, as que millones de individuos resultarn afectados por ella. A medida que el uso de esta tecnologa vaya modulando cada vez ms el acceso de las personas a bienes y servicios y su tratamiento en los diferentes mbitos sociales y cada ranking y cada puntuacin interacte con los dems al incluirse como criterio o dato relevante en algn algoritmo, las personas socialmente peor situadas se hundirn cada vez ms en el abismo social hasta quedar socialmente excluidas-si nadie pone remedio, claro. No puede ser de otro modo, si pensamos en el hecho de que la actual tecnologa de big data no ha sido pensada para incidir en el desigual punto de partida de los miembros de una sociedad, sino para reproducirlo y amplificarlo.

A pesar de los efectos acabados de mencionar, la autora no considera la tecnologa de big data aplicada a asuntos sociales prcticos (es decir, ms all del uso de la tecnologa como herramienta de conocimiento al servicio de las ciencias sociales) como intrnsecamente mala. Entiende que los defectos de los modelos de prediccin de ella resultantes descritos en su libro pueden ser corregidos y pueden crearse nuevos modelos con presupuestos valorativos y con fines tico-polticos diferentes a los hoy en da hegemnicos, hasta el punto de que la tecnologa de big data puede ser un precioso factor de cambio social civilizador. Sin duda alguna, ello es cierto, pero el libro adolece de una falta de reflexin sobre el enorme poder de control y manipulacin sociales generado por la tecnologa de big data como instrumento de ingeniera social en s misma considerada, aunque se corrijan los defectos de su actual configuracin o se reprogramen sus presupuestos tico-polticos. En efecto, una aproximacin ms filosfica, ms especulativa, sobre el potencial totalitario inherente a la tecnologa de big data brilla por su ausencia en el libro de O'Neil.

Notas:

[1] Vase al respecto: Ramos Toledano, J., Propiedad digital. La cultura en Internet como objeto de intercambio, Trotta, Madrid, 2018.

[2] Terminologa del socilogo Pierre Bourdieu para referirse al aparato policial-judicial, en su vertiente penal y de mantenimiento del orden pblico primario.

Fuente: http://www.mientrastanto.org/boletin-181/la-biblioteca-de-babel/armas-de-destruccion-matematica



Envía esta noticia
Compartir esta noticia: delicious  digg  meneame twitter