Ao longo da última década, as Big Tech – ou, como alguns lhes chamam, as “Big Five” ou “GAFAM” (Google, Apple, Facebook, Amazon e Microsoft) – têm sido fortemente escrutinadas por ONGs, pelos media, parlamentos e tribunais. Dado o (ainda) limitado conhecimento que possuímos acerca do seu opaco modus operandi, bem como sobre o seu impacto real na sociedade, não admira.
A falta de transparência e a complexidade dos Termos e Condições e Políticas de Privacidade dos serviços oferecidos pelas Big Tech sobre o seu modelo de negócio e sobre as suas atividades de tratamento de dados impede os utilizadores de tomar decisões informadas sobre o uso desses serviços. Decisivamente, os utilizadores não estão cientes de quem são os reais clientes das Big Tech nem do número de terceiros (de natureza pública e privada) que podem ter acesso ou utilizar informações a seu respeito para, eles próprios, tomarem decisões que os impactam significativamente.
Acresce que as práticas de vigilância abrangente das Big Tech – que colocam as suas tecnologias de rastreamento nos sites e apps de outras empresas, lançam wearables a preços acessíveis para o corredor comum e instalam técnicas de identificação biométrica nos sistemas operativos dos nossos smartphones – permitem-lhes “saber” mais sobre nós do que nós mesmos sabemos. Utilizando sistemas de Inteligência Artificial tão sofisticados quanto ininteligíveis para o comum mortal, são capazes de recolher e analisar dados da maior fatia da população ocidental (a “conectada”) de uma grande variedade de fontes.
Estas capacidades permitem às Big Tech rotular-nos a partir de conjuntos de dados (não raramente) imprecisos, com base em critérios enviesados, e vender ao maior licitador o direito de utilizar esses rótulos para fins publicitários e outros menos determinados. Esta definição de perfis em larga escala representa (e não apenas potencialmente) consequências sérias para os nossos direitos humanos. Tem um efeito inibidor sobre a forma como nos expressamos em rede (e não só), coloca-nos em risco de discriminação por força das inferências traçadas sobre as nossas preferências religiosas ou sexuais e afeta negativamente a saúde das nossas democracias. Isto, claro, sem falar, a montante, do nosso direito fundamental a ver os nossos dados pessoais serem tratados de forma leal e para finalidades especificamente definidas.
Contudo, o utilizador comum dos serviços das Big Tech, mesmo que esteja a par das práticas deste ecossistema vicioso e não queira entregar-se ao seu “olho que tudo vê”, depara-se com uma escolha difícil: largar o uso desses serviços “regados” com dopamina e, consequentemente, os amigos e conhecidos que por lá param, repleto de FOMO (Fear of Missing Out) e sentindo-se isolado; ou manter-se refém e sob o risco de catalogação permanente, discriminação e manipulação pelas Big Tech e pelos seus “parceiros” (incluindo bancos, seguradoras, agências de recrutamento, partidos políticos e o Estado).
O modelo de negócio das Big Tech recompensa quem produz e publica conteúdo em rede que incorporam os seus trackers nos seus sites e apps com novas formas de receita, fruto da publicidade personalizada. Para os jornais, este rendimento tornou-se importante para a sua subsistência, com o decréscimo das vendas do seu produto em papel. Todavia, há quem sustente que esta conjuntura tem prejudicado a qualidade e independência da imprensa, com o advento do “clickbait”, retraindo o nosso direito fundamental à informação.
O cenário agrava-se com o crescimento inegável da propaganda digital mascarada de notícias ou publicidade, surgindo constantemente nos nossos feeds e notificações. A “indiferença radical” das plataformas quanto a este e outros fenómenos, que veem esta atividade como uma outra fonte de lucro e se recusam a tomar medidas para lhe pôr cobro, desempenhou um papel central no caminho para as fraturas sociais que verificamos atualmente.
A conectividade e o uso de plataformas digitais generalizados deveriam ter-nos aproximado. Mas, na verdade, eles têm vindo a afastar-nos e a encaminhar-nos para um futuro menos humano. Um futuro em que não alcançaremos aquele trabalho que tanto merecemos por causa de algo que “googlámos” durante o liceu. Um futuro em que não poderemos movimentar-nos livremente, obter um empréstimo ou um seguro, aderir a uma associação ou a um partido político sem desmantelar o rótulo que algum algoritmo colocou sobre o nosso perfil digital e que caiu, a troco de um preço (como um serviço), nas mãos de quem decide.
Um futuro que me recuso a aceitar e que quero evitar. Começa aqui.
Nota: Texto da autoria de um associado da D3.