Press "Enter" to skip to content
Um sinal de 'curtir' fica na entrada da sede do Facebook em 18 de maio de 2012 em Menlo Park, Califórnia. Stephen Lam / Getty.

Gigantes da tecnologia estão usando esta crise para colonizar o Estado

Na infinidade de prognósticos sobre como a pandemia do coronavírus transformará o mundo, uma previsão se destaca: retornaremos a um renovado Estado de bem-estar social. O jornal The Economist disse: “O Estado grande está de volta”. Invertendo o lema de Thatcher, Boris Johnson observou que “existe sim essa coisa de sociedade”. Argumenta-se que a pandemia poderia superar o neoliberalismo, triunfando onde a crise financeira de 2008 fracassou.

Em certa medida, a mudança parece já estar em andamento. Governos estão resgatando empresas, nacionalizando folhas salariais e redirecionando a produção industrial para necessidades sanitárias urgentes. Ideias há muito tempo discutidas e rechaçadas, como as garantias mínimas de renda, de repente se tornaram realidade em países como a Espanha. Alguns afirmam (ou esperam) que a natureza coletiva da atual catástrofe pode promover o ressurgimento da solidariedade social, revivendo um certo “espírito” da Segunda Guerra Mundial.

Mas se um novo bem-estar social vai surgir desta crise, será um “bem-estar” bem diferente daquele imaginado no período pós 1945. Ele será fortemente impulsionado por empresas privadas, que usarão suas ferramentas e plataformas, cujo objetivo final é gerar lucro. Fundamentalmente, esse bem-estar social será baseado em formas opacas e intrusivas de dataficação. Com isso, queremos dizer não apenas a intensificação da vigilância digital – o que, como foi tantas vezes dito, já está acontecendo – mas dois processos interconectados: “a transformação da vida humana em dados por meio de processos de quantificação e a geração de diferentes tipos de valor a partir dos dados”. Um sistema de bem-estar dataficado consolidará as grandes empresas de tecnologia (Big Tech) como instituições essenciais no funcionamento básico do Estado e da sociedade. Se isso acontecer, não veremos um retorno ao mundo que existia antes do neoliberalismo, como alguns esperam, mas o surgimento de uma nova ordem social centrada no que Nick Couldry e Ulises Mejias chamaram recentemente de colonialismo de dados.

Relações entre público e privado

É preciso contextualizar esse processo para entendê-lo. O entrelaçamento da dataficação e do bem-estar social não é novo, e muitas vezes representa uma ameaça aos próprios direitos humanos que esses arranjos deveriam proteger.

Uma excelente introdução a essas questões foi publicada em outubro de 2019 por Philip Alston, professor de direito da New York University e relator especial da ONU. O relatório da Alston demonstra que, tanto nos países ricos quanto nos pobres, a seguridade social é cada vez mais impulsionada por “dados e tecnologias digitais que são usados para automatizar, prever, identificar, vigiar, detectar, direcionar e punir”. Essas tecnologias envolvem o desenvolvimento de sistemas de identificação biométrica, como o Aadhaar na Índia, e de sistemas automatizados em países como Reino Unido, Alemanha e Estados Unidos, que avaliam quem é elegível para determinados programas de assistência social e quanto deve ser pago aos beneficiários.

As evidências examinadas por Alston sugerem que as consequências negativas superam largamente as positivas. Apesar de alguns ganhos em eficiência, esses sistemas são propensos a produzir erros e injustiças e a reduzir a capacidade dos cidadãos de compreender e negociar a injustiça dessas decisões computacionais. Eles também geralmente dependem dos dados coletados em condições desiguais, comprometendo a própria ideia de consentimento, sem falar na constante ameaça de tais dados serem acessados ​​ou hackeados para fins comerciais, criminais e políticos. Esses sistemas também arriscam, como diz Virginia Eubanks em seu extraordinário estudo sobre a dataficação do bem-estar social nos Estados Unidos, criando uma “distância ética” entre as classes, enquanto reproduz antigas “hierarquias de valor humano”. Mesmo onde esses danos específicos estão ausentes, o direito das populações de viverem livres da vigilância contínua e da experimentação baseada em dados tem sido corroído.

A situação não é muito melhor quando consideramos o bem-estar social em escala global – o que geralmente é chamado de “desenvolvimento internacional” e ajuda humanitária. “Em nome do desenvolvimento”, afirmam os pesquisadores Linnet Taylor e Dennis Broeders, sistemas difíceis de entender ​​e práticas injustas de coleta de dados foram amplamente adotados.

Populações vulneráveis ​​têm sido usadas como campo de teste para novas tecnologias de extração e desenvolvimento de dados. Um exemplo é o surto de Ebola de 2014, quando atores da comunidade humanitária tiveram acesso a registros telefônicos detalhados de cidadãos da Libéria. Os registros foram praticamente inúteis – mas as organizações que pressionaram pelo acesso puderam “ganharam comercialmente” com isso, “por meio da vantagem competitiva sobre outras organizações humanitárias ou por meio de testes de produtos comerciais”.

Como o caso do Ebola demonstra, Estados são apenas um dos diversos atores nas parcerias público-privadas consideradas necessárias para fornecer soluções “inovadoras” de bem-estar social. Programas e projetos são geralmente desenhados e executados por organizações que ou trabalham em mercados competitivos, como ONGs, ou são, elas próprias, empresas com fins lucrativos. Esses arranjos emergem da percepção de que os governos não possuem a expertise humana, a capacidade tecnológica e os dados necessários para “solucionar” questões sociais complexas, como pobreza, desigualdade e saúde.

Nessas iniciativas, a dataficação do bem-estar e do desenvolvimento social depende de uma típica racionalidade neoliberal, e sua crença de que as empresas privadas devem preencher o vazio deixado por Estados ineficazes, tanto no Sul quanto no Norte Global.

Inteligência Artificial para o bem social?

Uma lógica semelhante afeta projetos em todo o mundo que, no jargão dos “empreendedores sociais” e consultores digitais, foram denominados “Inteligência Artificial (IA) para o bem”. As Big Tech aderiram ansiosamente ao hype. O Facebook lançou seu “Fórum sobre o Bem Social” em 2017, oferecendo “ferramentas e iniciativas para ajudar as pessoas a manterem-se seguras e com o apoio do Facebook”. A empresa tem criado várias iniciativas para fornecer conectividade , e seu controverso programa Free Basics ainda está em expansão, embora exija que os usuários concedam seus dados em troca de uma conexão simplificada (uma razão pela qual foi banido na Índia).

Depois de “Lucy”, um projeto lançado no Quênia em 2014 que prometeu usar IA para “resolver questões de saúde, educação, água, saneamento, mobilidade humana e agricultura” – e amplamente criticado por suas soluções vagas e interesse comercial – a IBM apresentou uma iniciativa intitulada de “Ciência e Bem Social”. Seu objetivo é nada menos do que “resolver os problemas mais difíceis do mundo” por meio de “ciência e tecnologia”.

Em 2019, o Google.org – a divisão filantrópica do gigante das buscas –  redirecionou seu projeto multimilionário Impact Challenge para propostas que tenham a finalidade de ” usar a IA para ajudar a enfrentar os desafios da sociedade“. A Microsoft chama sua iniciativa de “IA para o Bem”. Ela aborda questões como mudança climática, crise humanitária e saúde.

Alguns desses projetos são formas tradicionais de caridade – por exemplo, a doação de dinheiro e de recursos humanos e computacionais para ONGs e pesquisadores poderem desenvolver suas próprias tecnologias. Outros envolvem práticas que intensificam a coleta de dados de populações vulneráveis. Mas todos representam um aumento em massa da capacidade das empresas de intervir na gestão da vida social: o meio apenas melhora sua capacidade de extrair e processar dados.

Considere a “ferramenta de prevenção ao suicídio” do Facebook, que emprega aprendizado de máquina para interpretar vários sinais comportamentais e identificar postagens que sugerem que “alguém pode estar em risco” de se matar: esse projeto simplesmente não poderia existir sem o poder preexistente do Facebook de acessar e analisar todas as ações dos usuários em sua plataforma, por mais pessoais que sejam. Recentemente, o sistema foi patenteado pela empresa.

Na América do Sul, a Microsoft é parceira do Projeto Horus, que diz ajudar governos com o uso de “inteligência artificial na prevenção de gravidez na adolescência e da evasão escolar“. Na Argentina, o projeto coletou “informações completas, constantes, compartilhadas e atualizadas” sobre menores vulneráveis ​​na província de Salta. Esse “banco de dados único”, como argumentaram seus criadores em 2018, alimentou um sistema de aprendizado de máquina que poderia supostamente “prever” quem teria mais chances de parar de frequentar a escola ou engravidar, conclusões que embasariam a ação do governo sobre esses indivíduos. O fato de o projeto ter sido amplamente criticado na Argentina por sua vigilância agressiva e previsões errôneas não impediu que ele fosse incentivado pelo UNICEF e pilotado no Brasil, com a cooperação do governo de extrema-direita de Jair Bolsonaro. No país, a iniciativa se concentra em crianças pobres que já estão registradas no Cadastro Único do governo federal – um dos maiores bancos de dados de assistência social do mundo, com informações de mais de 73 milhões de pessoas.

Quando o novo coronavírus surgiu, foi para uma versão desse discurso de “bem social” que as Big Tech se voltaram. Embora Estados tenham se atrapalhado com suas respostas à crise, as empresas reagiram rapidamente e, para todos os efeitos, de forma decisiva. Mark Zuckerberg mencionou a COVID-19 pela primeira vez em 4 de março. Ele disse então que o Facebook não apenas ajudaria as pessoas a “permanecerem conectadas”, mas também forneceria “informações confiáveis ​​e precisas” e contribuiria para os “esforços no sentido de conter o surto”.

Desde então, as notícias não pararam de chegar: o Facebook financiaria “a aquisição de máquinas de diagnóstico para COVID-19 aprovadas pela FDA [agência regulatória norte-americana]”, iniciaria um “Fundo de Resposta Solidária”, “investiria” US$ 100 milhões para ajudar pequenas empresas, lançaria um “Centro de Informações sobre Coronavírus” e permitiria que os pesquisadores realizassem uma “pesquisa sobre sintomas” em sua plataforma, além de várias doações multimilionárias para pesquisas em saúde e iniciativas de fact-checking. O Facebook não está sozinho. O Google também doou muitos milhões de dólares e dados de mobilidade e colaborou com várias autoridades públicas. Ele também criou um portal “ que registra os sintomas das pessoas, classifica-as para determinar quem precisa do teste drive-thru e exibe os resultados dos testes assim que disponíveis., levando alguns a suspeitar que isso pode ser um golpe para capturar dados. O CEO do Twitter prometeu doar um quarto de sua riqueza, aproximadamente US $ 1 bilhão.

Tomada de território

Não há evidências de que essas organizações não sejam sinceras em seu desejo de ajudar. Nem se pode dizer que o trabalho delas não salvará vidas; muito possivelmente salvará. No entanto, as implicações de suas intervenções são muito mais ambíguas. Dizer que essa crise pode ajudar as Big Tech a recuperar seu prestigio moral, revertendo o “techlash” pós-2016 pode estar correto – mas é também míope. Suas respostas à pandemia estão inerentemente relacionadas à principal forma de criação de valor das empresas: o colonialismo dos dados. 

Esta é a grande história aqui: a continuação e a aceleração de uma nova tomada de território de proporções sem precedentes, merecendo o termo “colonialismo”. Há cinco séculos, o colonialismo histórico tomou posse de terras, seus recursos e corpos. Hoje, essa apropriação é direcionada à própria vida humana e ao valor que pode ser extraído dela na forma de dados. Como essa extração de dados funciona apenas por meio do rastreamento contínuo de inúmeros aspectos da vida cotidiana, o direito fundamental dos seres humanos de viver livre da vigilância se torna o dano colateral do avanço corporativo.

Que tipo de “bem-estar” isso produz? Quando se diz que as plataformas emergirão dessa crise como ” utilidades digitais “, geralmente se supõe que essas utilidades estejam relacionadas ao fornecimento de informações e espaços para interação virtual – o cerne dos modelos de negócios das Big Tech. Mas, desde o início, essas empresas foram marcadas por uma agressiva visão expansionista, que coloniza partes cada vez maiores da vida humana para extração de dados.

O objetivo é tomar não apenas um tipo de prática social, mas a própria vida humana. O Google começou como um organizador de banco de dados, mas agora é um conglomerado (Alphabet) que opera em áreas tão diversas como saúde, infraestrutura urbana, transporte e manejo de capital financeiro. O Facebook começou como uma ferramenta de networking para estudantes de universidades norte-americanas de elite, mas agora diz ser capaz de conectar uma “comunidade global” de mais de 2 bilhões de pessoas, e planeja criar uma moeda digital global, suscitando preocupações de que possa “corroer o controle nacional sobre o dinheiro“, há séculos considerado uma prerrogativa dos governos. Não há limites claros sobre quais áreas podem ser exploradas com fins lucrativos, mesmo que certos segmentos da população representem alvos particularmente úteis.

Até que ponto os Estados ricos, enfraquecidos pela crise da COVID-19, aproveitarão as novas oportunidades de provisão de bem-estar baseada em dados, não é, neste momento, exatamente claro. O que é aparente é que a doença apresenta mais uma oportunidade – particularmente importante – para essa expansão. Há alguns meses, as Big Tech teriam sido alvo de críticas se tentassem usar os dados de bilhões de pessoas para rastrear um surto de vírus, como estão fazendo Facebook, Google e Apple. A pandemia parece ter tornado esse trabalho repentinamente desejável.

Há diversas questões sobre os perigos criados por essas iniciativas. No entanto, a novidade reside menos em algum conjunto particular de aplicativos ou dados, ou no que acontecerá com eles após a pandemia, do que na suposição de que é a esse novo tipo de poder corporativo, com sua capacidade global sem precedentes de produzir novas formas de conhecimento para controle social, que devemos recorrer em um momento de crise pública. O resultado é menos que as Big Tech vão oferecer um novo tipo de utilidade pública e mais que os recursos de dados das Big Tech vão se tornar essenciais para a autoridade do Estado e o ordenamento da vida social. Elas não serão apenas “plataformas de mídia sociais”, “mecanismos de busca” e fabricantes de computadores, mas – juntamente com os governos – o próprio lastro do nosso bem estar.

Gestão de população

Durante e após essa crise, veremos um aumento das “parceria público-privado de vigilância” que vem sendo construídas há alguns anos. Saúde e bem-estar são apenas duas áreas afetadas por esse modelo de gestão da população; outros podem ser educação, infraestrutura laboral e aplicação de leis. 

Haverá resistência, sem dúvida, e é improvável que essa transformação ocorra de forma homogênea em todo o planeta – desenvolvimentos paralelos também estão em andamento na China, mesmo que com um equilíbrio diferente entre empresas e Estado. No entanto, há poucas evidências de que essa resistência represente um obstáculo real à aceleração de um tipo de colonização que já estava em curso antes mesmo da pandemia.

À medida que o colonialismo dos dados se desenvolve, o resultado será um novo e muito mais complexo tipo de bem-estar social, que só pode ser realizado por meio da corrosão de liberdades fundamentais. Muito foi dito sobre como uma renovada valorização dos serviços públicos de saúde significaria o fim da estridente retórica neoliberal. Essa previsão pode ser surpreendentemente posta à prova quando, ao final desta crise, a linha divisória entre mercado e sociedade que o neoliberalismo sempre atacou tiver sido desmantelada em nome de um “bem-estar social” lastreado por conglomerados globais privados.

Cierre

Arquivado como

Published in Análise, Imperialismo and Tecnologia

One Comment

Deixe um comentário

O seu endereço de e-mail não será publicado.

DIGITE SEU E-MAIL PARA RECEBER NOSSA NEWSLETTER

Cierre