Portada :: Conocimiento Libre
Aumentar tamaño del texto Disminuir tamaño del texto Partir el texto en columnas Ver como pdf 06-07-2018

A propsito del libro Armas de destruccin matemtica de Cathy ONeil
Apuntes de filosofa poltica en la era del big data

David Guerrero Martn
Mientras Tanto


[Por mor de la simplicidad, marcar entre parntesis y con nmeros arbigos las pginas del libro que comento, segn la edicin castellana: Cathy ONeil, Armas de destruccin matemtica. Cmo el Big Data aumenta la desigualdad y amenaza la democracia, trad. de Violeta Arranz de la Torre, Madrid, Capitn Swing, 2018.]

Sin caer en determinismos tecnolgicos, cualquiera con una mnima sensibilidad materialista aceptar que los instrumentos tcnicos han sido elementos relevantes en el desarrollo de las instituciones polticas. Aunque podamos declarar la autonoma de los principios normativos que regulan nuestras aspiraciones polticas, su realizacin depende en muchas ocasiones de que dispongamos de medios tcnicos que nos lo faciliten. Podemos ser unos incondicionales de la libertad de expresin, pero tenemos que aceptar que para que de facto disfrutemos de todo el contenido implicado en ese principio normativo, hacen falta muchsimas ms cosas adems de su reconocimiento formal en un texto legal. No hace falta pensar en sofisticadas tecnologas como la imprenta, la fibra ptica o el 3G: algo tan sencillo como la escritura es un elemento tcnico fundamental para el ensanchamiento de la libertad de expresin e informacin. Lo es del mismo modo que disponer de tcnicas de contabilidad resulta esencial para llevar a cabo programas de redistribucin de riqueza a gran escala, o una red de telgrafos para conseguir una centralizacin estatal eficaz. Los principios normativos, deca, son autnomos de cada contexto tecnolgico Thomas Jefferson defenda la libertad de expresin con intuiciones muy similares a las de Pericles, aunque la mayora de atenienses fueran analfabetos, no tuvieran correo postal ni conocieran la imprenta, pero es innegable que las herramientas tcnicas abren (o cierran, si estn del lado del tirano) las posibilidades de institucionalizacin y su realizacin de facto.

1. Un ejemplo para explicar la principal idea del libro

Los modelos matemticos son una de esas herramientas tcnicas que en la era del big data la capacidad para generar y procesar datos masivamente afectan de lleno a nuestra vida sociopoltica. Para lo que a nosotros nos interesa, podemos hablar de un modelo matemtico como un conjunto de normas que traducen datos en predicciones. Los puede haber ms y menos sofisticados, pero la modelizacin de la realidad social es una capacidad cognitiva que usamos constantemente. La autora no insiste en ello, pero es fcil entender el uso pernicioso del big data como sesgo cognitivo a escala masiva y camuflado por matemticas. Veamos el siguiente, basado en un prejuicio racial (que lo alimenta):

  1. Datos brutos: a veces roban productos de mi tienda; tengo alguna informacin acerca de esas personas y me fijo en alguna caracterstica llamativa para m, como su acento, su color de piel, su manera de vestir, etc.
  2. Procesamiento, busco correlaciones: la mayora de ladrones a los que he pillado han resultado ser negros.
  3. Prediccin: lo ms probable es que si un negro entra mi tienda, ser para robar; indicar a mi guardia jurado que les vigile con especial atencin.

El modelo es simple y se basa en una sencilla correlacin de dos variables (hurtos y color de piel) que justifica la accin de prestar ms atencin a la vigilancia de ese tipo de clientes. Mi cerebro hace ese pequeo clculo y orienta mi accin, hacindome confundir correlacin con causalidad. Para que un inofensivo algoritmo o modelo matemtico se convierta en un arma de destruccin matemtica (ADM) suele cumplir tres caractersticas:

  1. Opacidad (o incluso invisibilidad): saben mis clientes que trato de predecir si me roban o no?, saben que el color de su piel es una variable relevante en mi modelizacin de los hurtos?
  2. Bucle de retroalimentacin: en lugar de contrastar mi modelo con una prueba emprica rigurosa (para descubrir si existe causalidad entre el color de piel y el robo), asumo que las correlaciones son vnculos causales y a medida que aplico mi modelo, mi propia generacin de datos comienza a sesgarse por las correlaciones que haba observado originalmente. Como vigilo ms a los clientes negros, descubrir ms hurtos suyos que de otros grupos que pudieran ser relevantes, retroalimentando la correlacin inicial del modelo en cada iteracin. Las ADM frecuentemente toman la forma de profecas autocumplidas.
  3. Escalabilidad: a parte de la escasa sensibilidad racial, poco se le puede impugnar a un tendero prejuicioso que con su pequeo modelo mental alimenta su propio sesgo cognitivo. Pero las ADM que trata ONeil son a escala nacional y se basan en gran cantidad de datos por eso afectan a tantas personas. Aunque podra contar como otra caracterstica ms, la escalabilidad suele ir asociada al uso de variables sustitutivas [1].

1.1. Dos casos relacionados: la prediccin de la reincidencia y del crimen

Como el comentario de este libro es una mera excusa para abordar cuestiones filosfico-polticas de mayor calado, me remitir a exponer dos de los muchos casos que el libro desarrolla, para dar una muestra del funcionamiento de las ADM. Es bien sabido que una revisin de la jurisprudencia penal estadounidense revela sesgos racistas por parte de los jueces. Una manera de evitar la arbitrariedad que supone la sensibilidad poltica del juez es usar un algoritmo auxiliar que predice la reincidencia del reo, ayudando as a determinar cuntos aos debera ir a la crcel o si le otorgan la condicional: podramos pensar que la utilizacin de modelos de riesgo informatizados nutridos con datos debera reducir la influencia de los prejuicios en las condenas y contribuira a que el trato impartido sea ms imparcial (p. 35).

El LSI-R es uno de esos algoritmos ampliamente utilizados en Estados Unidos, que basa sus resultados en cuestionarios que rellenan los mismos presos: Cuntas condenas previas ha tenido?, Qu papel tuvieron otras personas en el delito?, Qu papel tuvieron las drogas y el alcohol?, Cundo fue la primera vez que tuvo trato con la polica?.

El modelo elabora sus predicciones de acuerdo a correlaciones que podramos pensar que son razonables [2], por ejemplo, si el reo tuvo su primer encuentro con la polica con 13 aos o si su hermano fue tambin delincuente, el algoritmo le asignar mas probabilidades de reincidir, porque hay una masiva base de datos [3] segn la cual otros condenados con las mismas caractersticas fueron reincidentes.

Si le hacemos esa pregunta [sobre si sus familiares o amigos tienen antecedentes] a un condenado que se haya criado en un barrio de clase media, es mucho ms probable que la respuesta sea no () el cuestionario no pregunta por la raza, ya que esa pregunta es ilegal, pero teniendo en cuenta la abundancia de detalles que obtiene de la vida de cada preso, esa nica pregunta ilegal es prcticamente superflua (p. 37).

La herramienta es tremendamente eficiente y ahorra muchsimos recursos al sistema judicial, resolviendo mucho ms rpido los procesos. Pero sera aceptable que un fiscal argumentara contra la prisin condicional del acusado sealando que sus padres eran unos delincuentes?

Algunos cuerpos de polica en EE.UU. usan PredPol: una aplicacin en la que los datos de entrada principales son la tipologa y localizacin de cada delito, as como el momento en que tienen lugar (p. 109), por lo que a priori no cometera la misma injusticia que el LSI-R. La aplicacin divide un mapa en zonas de diverso riesgo para as distribuir las patrullas policiales. Y otra vez aparece el bucle de retroalimentacin: se envan ms patrullas a barrios de mayor desorden (en los que abundan delitos menores), que a su vez producen ms encuentros con la polica, que a su vez aumentan las correlaciones en la base de datos, que a su vez hace que se enve al mismo lugar ms polica, etc.

La polica de Los ngeles podra decidir eliminar los delitos menores de los datos de entrada del modelo posesin de pequeas cantidades de droga, beber en la calle, hurtos en comercios, grafitis, multas de trfico, pero cuando eso ocurre la capacidad de prediccin se ve muy reducida, ya que los delitos graves, como los grandes robos, los asesinatos o las violaciones se producen de manera dispersa por el mapa. Lo que PredPol hace, concluye ONeil, es un mapa de la pobreza (p. 113) y la criminaliza, convencidos en todo momento de que nuestras herramientas no solo son cientficas, sino tambin justas (p. 115).

PredPol es un gran ejemplo de cmo los algoritmos son meros deudores de los sesgos, vicios y virtudes de sus diseadores. Hay delitos, como las grandes estafas financieras, que no estn localizadas en un mapa; o crmenes, como casos de corrupcin, que se trenzan en restaurantes e instituciones de distritos financieros y que cuando se descubren no dan lugar a un parte policial que aada un punto en el mapa. La herramienta no solo funciona de manera psima, sino que se funda en una criminologa pobre, anticuada y conservadora. Lo mismo con la herramienta que usa la polica de Chicago: hostigaban a jvenes inocentes en base a su red de amigos de Facebook! (p. 129). Esta manera de usar las ADM legitima el statu quo mediante la tcnica: los procesos de big datacodifican el pasado. No inventan el futuro (p. 252).

Con ligeras variaciones, este es el funcionamiento general de las ADM que describe el libro. En general, su carcter pernicioso redunda en que cuando segmentan la base de datos nos agrupan con gente similar a nosotros y nos asignan sus comportamientos. Muchas veces las correlaciones que se extraen del big data son reales, como la relacin entre colesterol e infartos, lo cual no quiere decir que su uso sea justo, por ejemplo, que alguien no pueda acceder a un puesto de trabajo por su nivel de colesterol o que le penalicen en el sueldo con un sobrecoste del seguro mdico porque un algoritmo dice que el que est gordo es ms propenso a morir y trabajar peor (p. 217). Otro tipo de correlaciones, tambin verdaderas, son usadas para reducir la capacidad de negociacin de los ms dbiles [4]: por ejemplo, que si uno tiene familia a su cargo y est en el paro, ser ms propenso a aceptar condiciones de prstamo leoninas [5].

2. Tres reflexiones filosfico-polticas en torno al libro

2.1. Agencia humana y eficiencia en el sistema penal

A mi parecer, lo que todos los ADM que Cathy ONeil expone tienen en comn es la negacin de la capacidad de agencia de los seres humanos. Las herramientas que modelizan nuestro comportamiento gracias al big data tienen una visin del libre albedro propia de Calvino. El modelo matemtico procesa informacin de gente como nosotros, y nos agrupa segn de qu se trate: por nuestro cdigo postal, por una deuda similar en nuestra tarjeta de crdito, por nuestra edad, gustos culturales parecidos, hbitos alimenticios, etc. De esa informacin y de las mltiples correlaciones deduce un comportamiento, nos asigna un grupo, microsegmenta la base de datos: nos asigna un perfil de accin. Esa asignacin de perfiles no es algo diferente en el caso del mrquetin [6], que lo que hace es detectar los perfiles en los que se intersectan mayor cantidad de vulnerabilidades.

Ahora bien, de cara al sistema judicial, la sola idea de que se anule nuestra capacidad de agencia es desastrosa. El tratar de predecir, aunque sea tericamente, si alguien cometer un crimen es un absurdo desde el punto de vista del derecho, pues contradice la idea de responsabilidad moral y penal: si fuera cierto que estoy determinado (por mi infancia, mi familia, mis amigos, mi cdigo postal) a cometer un delito, cmo se me puede exigir responsabilidad por ello? El intento de prediccin y prevencin del crimen mediante el sistema penal, propio de una novela orwelliana, socava uno de los pilares del Estado de derecho: los programas expuestos en este libro son un tenebroso ejemplo que retroalimenta las desigualdades e injusticias existentes.

Pero es que los algoritmos del sistema penal cometen otro grave error. La eficiencia que buscan, el ahorro de tiempo y recursos, no son principios constitucionales. La justicia y la imparcialidad, sin embargo, s; principios, de hecho, bastante ineficientes, caros. Un juicio con acusacin y defensa, presentacin de pruebas, testigos, con varias posibilidades de apelacin a tribunales, crea un sistema ineficaz y largo. Consume una enorme cantidad de recursos y todo a cambio de garantizar un juicio justo o respetar la presuncin de inocencia del acusado. Esta cuestin la comenta muy brevemente ONeil una excepcin de altura filosfica en un libro lleno de crudos estudios de caso: en la lgica implcita en la Constitucin [estadounidense], dejar en libertad a alguien que pudiera haber cometido un delito, por falta de pruebas, es menos peligroso para nuestra sociedad que encarcelar o ejecutar a una persona inocente (p. 119). El LSR-I es un caso de fetichismo tecnolgico: el descubrimiento de una tcnica, a priori til, ha difuminado los principios normativos que constituyen el sistema judicial. Es como si por el mero hecho de tener la capacidad tcnica para llevar a cabo una democracia directa (con smartphones para todos y votaciones diarias) sacrificramos todos los otros principios que articulan nuestro sistema poltico (la deliberacin o las decisiones informadas, por ejemplo) [7].

2.2. Publicidad y disputabilidad de las acciones del Estado

Otro de los casos que cuenta el libro es el de una poltica pblica de evaluacin del profesorado de secundaria a partir de un modelo que indexaba diversas variables basadas en datos provenientes de los exmenes de los alumnos. El sistema fue un desastre (pp. 169-173) por razones que no vienen al caso (bsicamente otro abusivo uso de variables proxy). Lo que s nos interesa es el detalle de que los patrones de funcionamiento del algoritmo estuvieran ocultos a los profesores que estaban siendo modelizados: no saban qu variables eran las relevantes para su puntuacin [8]. Imaginemos unas oposiciones pblicas que excluyen candidatos sin dar razones, o an peor: remitiendo dogmticamente al resultado de un clculo incuestionable escupido por un ordenador, otra escena propia de Orwell. El uso de algoritmos de propiedad privada (siempre opacos) en polticas pblicas viola el criterio bsico de publicidad, que en su ms comn formulacin deca que Son injustas todas las acciones que se refieren al derecho de otros hombres cuyos principios no soportan ser publicados [9]. Los modelos basados en big data convierten en indisputable la decisin del burcrata, del juez, porque su nula transparencia solo permite apelar a los sesgos que contienen mediante deducciones a partir de sus consecuencias. Como los consejos de tecncratas de las instituciones europeas, el uso de algoritmos opacos va contra la naturaleza delegada y fiduciaria del poder poltico. Lo mismo que hoy hacen estos neutrales conjuntos de reglas matemticas lo hicieron en otro tiempo los oscuros gabinetes tcnicos de los poderes ejecutivos desembridados [10].

2.3. Sesgos de confirmacin y deliberacin poltica

Una de las aplicaciones de tcnicas de microsegmentacin es en campaas polticas. Igual que los publicistas que trabajan con los datos que genera nuestra actividad en internet para crear perfiles de consumidores rentables que luego vender a las marcas, los servicios de asesora poltica de anlisis de datos modelizan votantes-tipo. El uso ms siniestro es la capacidad de, literalmente, individualizar la imagen que proyectan los candidatos sobre su electorado [11]. Cada candidato es un prisma con mltiples caras y opiniones especficas en variados temas no necesariamente relacionados entre s. De hecho, las demandas que personifica un candidato pueden ser contradictorias vistas desde el punto de vista de su electorado en general. Imaginemos un poltico que personifique tres demandas controlar el fracking, mejorar los parques nacionales y continuar la poltica exterior beligerante que pueden ser excluyentes entre s para muchos de sus votantes: y si pudiramos saber qu perfil de votante es cada uno de los interesados por el candidato, de tal modo que solo le hagamos llegar informacin de la cara del prisma en la que el votante en cuestin est interesado? En lugar de mandar el mismo email a todos los contactos de la lista, aplicamos minera de datos a los interesados y descubrimos si el email que reciba y los anuncios que vea en la web de campaa tienen que ser del candidato en su versin ecologista o en la militarista [12].

Desde este punto de vista, las perspectivas para la deliberacin poltica no resultan halagadoras. El votante recibir de los candidatos solo informacin personalizada acorde con su visin del mundo. En la era del big data, el votante ya ni siquiera puede ser concebido como consumidor (como se empea en defender Cass Sunstein [13]). El votante es el producto! Detectar mediante minera de datos a los sectores de poblacin indecisos en circunscripciones clave en las que unos miles de votos deciden la presidencia los convierten en un activos en los que centrar las inversiones en publicidad de campaa, mientras que otros votantes quiz porque sus clics han desvelado ya su clara intencin de voto, quiz porque no producen informacin suficiente como para ser modelizados dejan de recibir informacin directa de las oficinas de candidatos [14].

A este contexto agorero para la deliberacin poltica y reino de los sesgos de confirmacin, se unen las cmaras de eco que suponen las redes sociales, que nos proporcionan informacin de puntos de vista que ya conocemos (los de nuestros amigos y aquellos a quienes seguimos). El ltimo golpe que las herramientas algortmicas asestan a la democracia tal y como la conocamos es la gran mediatizacin de nuestro acceso a la informacin, con Facebook y Google operando entre medios de comunicacin convencionales y ciudadanos. Su poder omnmodo se revela mediante las increbles cifras de confianza que infunden como fuentes de informacin [15]. Pero, de nuevo, la invisibilidad y opacidad de los modelos matemticos nos dice mucho acerca de su forma de trabajar. El error es pensar que tecnicidad y matematizacin son equivalentes a neutralidad axiolgica. Facebook utiliza mltiples criterios para decidir el orden en el que aparecen contenidos en nuestro muro. De hecho, no solo vende esa capacidad a anunciantes, sino que lleva a cabo macroexperimentos psicosociales constantemente (pp. 228-229). El algoritmo de bsqueda de Google, igual. Lo hacen igual que los peridicos y los telediarios: eligen un orden de aparicin, unas determinadas imgenes y testimonios sobre otros, etc. Lo que ocurre con ese tipo de medios es que son criticables: sabemos que tienen una lnea editorial y podemos cuestionar sus decisiones. La complejidad y opacidad matemtica de Google y Facebook, en cambio, hace que se presenten como prstinos criterios alejados de sesgos humanos o intereses espurios.

Acabar por donde comenc, compartiendo una reflexin que cruza el texto de ONeil y que le da pleno sentido poltico. Sea cual sea el contexto tecnolgico en el que nos encontremos, nuestras inquietudes polticas y humanas son esencialmente las mismas. La justicia y la presuncin de inocencia tienen un valor autnomo respecto a nuestra capacidad para predecir crmenes, igual que el derecho a una jornada laboral asumible no debe verse afectado por nuestra tecnologa para sofisticar al mximo la produccin just in time, con horarios ajustados al flujo de clientes. Aunque fuese posible determinar cundo uno morir de un infarto, nunca consideraremos legtimo que se nos excluya del mercado de trabajo por discapacidades fsicas. El big data supone una ventana de oportunidades innegable para el desarrollo de polticas pblicas eficaces, implica grandes cambios en la manera en la que nos movemos en el mundo y en la que compartimos nuestra informacin. Implicar cambios en la forma en la nos informamos y nos informan, pero no en las razones por las cuales seguimos queriendo hacerlo.

 

Notas

[1] La ms llamativa es la de los rankings universitarios. Como la variable educacin de calidad es inabarcable, los modelos usan proxies que las sustituyen: ratio de alumno-profesor, cantidad de papers en revistas importantes, cantidad de solicitudes rechazadas, notas medias de ingreso, etc. Crean una dinmica perversa porque estosrankings, a parte de no incluir la eficiencia con la que un centro usa sus recursos disponibles, de facto marcan los objetivos nacionales de la educacin superior (pp. 67 y ss.): la variable proxy acaba dominando a la original; el objetivo se convierte en mejorar el indicador cantidad de papers, perdiendo de vista que se quiere mejorar la calidad educativa general y no la produccin cientfica. La eleccin de proxies es muchas veces sesgada. Otras veces sirve a las empresas para crear perfiles en torno a variables a las que no pueden acceder por ley, por ejemplo, saber el nivel adquisitivo de un internauta por el cdigo postal al que remite su IP (ya que sus datos de Hacienda sern privados).

[2] En realidad lo deducimos, pues los entresijos del algoritmo no son pblicamente accesibles. Comentar ms adelante la trascendencia de esta caracterstica.

[3] La vulneracin de la privacidad de los presos dentro del sistema penal es incluso mayor que la de los que navegamos por internet. La base de datos que maneja el LSI-R es especialmente grande, certera y exhaustiva (p. 43).

[4] Las externalidades del big data siempre afectan ms a la masa de pobres, pues son herramientas tiles para grandes muestras (p. 186). No usar un algoritmo para descartar currculos a un puesto de trabajo hipercualificado que solo recibe ocho solicitudes.

[5] Las herramientas para generar y procesar big data aumentan increblemente la asimetra informativa de los mercados, hacindolos insospechadamente ineficientes e injustos. Por ejemplo, aseguradoras que valoran la propensin o no de un cliente a comparar precios con la competencia (deducida de su comportamiento en internet). En caso de que la probabilidad de que un perfil de cliente sea poco comparador de seguros, les pueden incrementar el precio final hasta un 800% por la misma pliza (p. 205). Algo parecido hacen los partidos polticos para exprimir las donaciones de campaa en donantes clave (pp. 223 y ss.).

[6] Cuando se trata de empresas de mrquetin la cuestin es menos problemtica tambin porque las empresas se preocupan de contrastar que su modelo funciona Si el 90% de los casos seleccionados como clientes potenciales resultan ser personas apenas interesadas por el producto, el algoritmo est fallando por algn sitio: Amazon, Google o Netflix estn constantemente renovando sus algoritmos para modelizar una realidad cambiante, porque su negocio depende de ello. Lo mismo con las aplicaciones que usan los equipos de baloncesto para fichar nuevos jugadores de acuerdo a sus estadsticas (p. 138). O los agrnomos cuando quieren optimizar sus recursos (p. 67). Cuando el LSI-R predice que alguien ser reincidente y luego resulta no serlo, nadie retroalimenta al algoritmo con esa informacin. Cuando un selector masivo de currculos laborales deja pasar a una gran talento que se va a la competencia (o selecciona a un psimo empleado), el algoritmo no se actualiza (p. 138-139). Cuando un algoritmo actuarial asigna un riesgo elevadsimo a un conductor que luego nunca tiene accidentes, ese algoritmo no es modificado (entre otras cosas, porque estar cobrando un sobreprecio a un cliente que nunca hace uso de su pliza de seguro: mxima rentabilidad). Igual cuando apareces segn el modelo de un banco como un deudor arriesgado (p. 181), cuando eres evaluado como mal profesor o tu institucin universitaria es perjudicada en un ranking masivo. La autora llega a comparar la adoracin y poca contrastacin de los algoritmos con la frenologa (p. 151).

[7] Jos Lus Mart, Alguna precisin sobre las nuevas tecnologas y la democracia deliberativa y participativa, IDP. Revista de Internet, Derecho y Poltica, 2008 (6).

[8] Lo cual, por otro lado, es lgico. Cuando los participantes saben cules son las variables claves que determinan el modelo (o su puntuacin, en este caso), tienden a hacer trampas que desfiguran los resultados, como pasa con los rankings universitarios (cf. pp. 69, 79 y 84-85).

[9] Immanuel Kant, Sobre la paz perpetua, trad. Joaqun Abelln, presentacin de Antonio Truyol, Tecnos, Madrid, 1998 [1795], pp. 61-62.

[10] Como sealaba el joven Marx, esos que hacen que el gobierno sea un estaminet (en referencia a los pequeos cafs franceses) promoviendo la esencia misteriosa y sacerdotal del Estado. Cf. David Guerrero, Tres velles per comprendre la llibertat dexpresi avui: El Marx de la Gaseta Renana (1842-1843), Revista Nous Horitzons, 218, 2018 (en prensa). Aqu solo hay una posible solucin: las auditorias de los algoritmos; no solo de su cdigo sino de las consecuencias reales que provocan (p. 257).

[11] El proceso es explicado brevemente para el caso de la campaa de reeleccin de Obama (p. 232-235), del que extraigo algunas partes.

[12] Muestra de la pertinencia de este libro es que, estando escrito durante el 2016, ya explica los ardides de Cambridge Analytica durante la campaa de Ted Cruz (pp. 237-238). Casi dos aos antes de que saltara el escndalo por su relacin con Facebook hace unos meses.

[13] Esa doctrina repite todava en su #Republic: Divided Democracy in the Age of Social Media, Princeton University Press, Princeton, 2017.

[14] En este sentido, podemos imaginar que el electorado es similar a los mercados financieros. Con el flujo de informacin, los valores suben y bajan igual que las inversiones () cada uno de nosotros representa una accin con un precio que flucta. Cada campaa debe decidir si se invierte en nosotros y cmo lo hace. Si merecemos la inversin, no solo dicen qu informacin nos suministran, sino tambin cunta y de qu manera nos la hacen llegar (p. 239).


Fuente: http://www.mientrastanto.org/boletin-170/ensayo/apuntes-de-filosofia-politica-en-la-era-del-big-data

[15] ONeil cita al Pew Research Center: un 73% de los estadounidenses cree que los resultados de las bsquedas [de Google] son rigurosos e imparciales (p. 230). Dos tercios de la poblacin adulta estadounidense tienen un perfil de Faceboo (p. 223).

Fuente: http://www.mientrastanto.org/boletin-170/ensayo/apuntes-de-filosofia-politica-en-la-era-del-big-data



Envía esta noticia
Compartir esta noticia: delicious  digg  meneame twitter