Como as mídias sociais estão nos empurrando para 1984 - exatamente como George Orwell previu

As plataformas de mídia social estão manipulando os usuários e distorcendo nosso senso de realidade – exatamente como George Orwell previu.


Como as mídias sociais estão nos empurrando para 1984 - exatamente como George Orwell previu
Em seu romance distópico, 1984, George Orwell criou o livro “Big Brother/ ou Grande Irmão” e, com ele, a metáfora perfeita para a Big Tech. As “teletelas” de Orwell, que não podem ser desligadas e que registram todas as conversas e monitoram todos os movimentos de seus personagens, têm uma notável semelhança com nossos dias atuais.

E assim como as teletelas enviam programas automaticamente para seus espectadores, os algoritmos das mídias sociais hoje decidem o que vemos e moldam nossa visão do mundo . Os heróis de Orwell, sob a vigilância do Partido, tentam banir certas ideias de suas mentes, de uma forma que lembra como estamos começando a monitorar nossos pensamentos e ações sob a influência da internet.

Embora essa metáfora seja útil (especialmente porque a China trabalha ativamente para transformar a ficção em realidade), ao reler o romance durante o verão, fiquei impressionado com a forma como Orwell parecia antecipar nosso relacionamento com as mídias sociais de outras maneiras. 

Com seus conceitos de Dois Minutos de Ódio, um ritual diário de indignação orquestrado pelo Partido, e Novilíngua, uma linguagem deliberadamente ambígua que é projetada para limitar a capacidade das pessoas de se comunicar de maneiras sutis, Orwell revelou como os pensamentos, emoções e ações das pessoas podem ser manipulado. A dinâmica que ele descreve reflete a forma como as redes sociais agora influenciam a vida de bilhões de pessoas ao redor do mundo.

DOIS MINUTOS DE ÓDIO


No romance de Orwell, as pessoas interrompem suas atividades todos os dias e ficam na frente de suas teletelas para incendiar os inimigos e celebrar o Big Brother. Os inimigos mudam regularmente, mas o ritual, chamado Dois Minutos de Ódio, não:

A coisa horrível sobre Dois Minutos de Ódio não era que alguém era obrigado a desempenhar um papel, mas que era impossível evitar participar. Em trinta segundos, qualquer pretensão era sempre desnecessária. Um êxtase hediondo de medo e vingança, um desejo de matar, de torturar, de esmagar rostos com uma marreta, parecia fluir por todo o grupo de pessoas como uma corrente elétrica, transformando a pessoa mesmo contra a vontade em uma careta, gritando. lunático. E, no entanto, a raiva que se sentia era uma emoção abstrata e não direcionada que podia ser mudada de um objeto para outro como a chama de um maçarico.

Esta descrição soa fantástica até você considerar o que está acontecendo em nossas redes sociais. Durante o escândalo do Gamergate em 2014, uma mulher e sua família se tornaram alvo de uma campanha de assédio em massa que incluiu o vazamento de suas fotos pessoais e a ameaça de estupro e morte. 

As coisas só pioraram. Hoje, hashtags inflamatórias e hoaxes são regularmente promovidos por contas falsas até se tornarem tendências oficiais e serem captadas por pessoas reais e até pela grande mídia. O número de influenciadores e conspiradores que propagam memes racistas e misóginos para seus seguidores está aumentando. E tudo isso não é apenas ativado, mas fortalecido e composto pelas plataformas de mídia social.

Além dessas campanhas de ódio altamente organizadas, o assédio e o bullying diários também aumentaram. De acordo com um relatório do Pew Research Center , 59% dos adolescentes dos EUA foram intimidados ou assediados online. No período que antecedeu as eleições gerais do Reino Unido em dezembro de 2019, uma investigação da BBC e do think tank liberal Demos encontrou um aumento nos abusos e ameaças de morte no Twitter direcionadas a candidatos parlamentares. Cerca de 7% dos tweets (ou seja, 334.000) recebidos pelos candidatos foram classificados como abusivos.

Antes de pensar “eu não”, considere se você já participou de uma indignação nas mídias sociais, apenas para acordar no dia seguinte e pensar “como eu pude ter feito isso?” Você já percebeu que não tinha todos os fatos e ainda assim se sentiu compelido a reagir? Você já postou, gostou ou retweetou um artigo com um título particularmente incendiário sem realmente lê-lo? Se sim, você participou da versão de rede social de Dois Minutos de Òdio de Orwell.

E embora eu desejasse que todos pudéssemos ter um pouco mais de controle sobre nossos impulsos online, o romance distópico de Orwell me lembrou que a verdadeira questão é que a indignação viral é mais do que uma característica acidental das redes sociais. É o núcleo de seus produtos, do que eles pretendem criar: um megafone que continuamente coloca à sua frente conteúdo tão poderoso, emocional e extremo que, como diz Orwell, é “impossível evitar participar. ” E à medida que você continua rolando, é fácil encontrar novos tópicos para a raiva: os algoritmos do YouTube, Facebook e Twitter garantem isso.

O objeto da fúria das pessoas é tão irrelevante para o Partido no romance de Orwell quanto para as redes sociais hoje. O que importa é que as pessoas enfurecidas são profundamente engajadas e mais fáceis de manipular.

NOVILÍNGUA


Igualmente assustador é como, em 1984 , o Partido usa Novilíngua para retirar o significado da linguagem, impossibilitando que as pessoas tenham certos pensamentos. Reduzir o número de palavras disponíveis para as pessoas as impede de ter sentimentos e ideias adequados e torna o mundo mais difícil de processar e compreender. Quando a linguagem perde o sentido (“ guerra é paz, liberdade é escravidão, ignorância é força ”), o Partido está no controle do que é considerado realidade. Fatos e pensamento independente não existem mais:

Em 2050 — mais cedo, provavelmente — todo o conhecimento real de linguagem técnica terá desaparecido. Toda a literatura do passado terá sido destruída. ChaucerShakespeare, Milton, Byron — eles existirão apenas em versões de Novilíngua, não apenas transformados em algo diferente, mas na verdade contraditórios do que costumavam ser. 

Até os slogans vão mudar. Como você pode ter um slogan como Liberdade é Escravidão quando o conceito de liberdade foi abolido? Todo o clima de pensamento será diferente. Na verdade, não haverá pensamento, como o entendemos agora. Ortodoxia significa não pensar – não precisar pensar. Ortodoxia é inconsciência.

Nossa própria linguagem está se tornando mais redutora e simplista, como resultado dos limites de caracteres das mídias sociais e do uso de hashtags para trazer à tona e promover ideias, eventos e tendências cativantes e fáceis de entender. Nessas plataformas, a nuance não é recompensada. E ao permitir que qualquer opinião (por menor que seja) assuma a aparência de fato, as redes sociais dificultam a compreensão da nossa realidade.

SOLUÇÕES SIMPLES


O livro de Orwell termina com o personagem principal, Winston, aceitando totalmente o governo do Partido, participando plenamente do ritualístico Dois Minutos de Òdio, e acreditando que dois mais dois são cinco. Não precisamos ser Winston, mas, mais importante, a Big Tech não precisa se comportar como o Partido.

O que acho desanimador é que existem algumas coisas simples que são defendidas há muito tempo que, se não resolverem o problema completamente, pelo menos ajudariam significativamente:

  • Adicione uma mensagem de aviso. As empresas de mídia social tentaram eliminar todos os pontos de atrito para os usuários, a fim de maximizar o volume de comunicação e engajamento em suas plataformas. Mas e se eles adotassem uma abordagem diferente? E se, quando um usuário estivesse prestes a postar ou twittar algo inflamatório, as empresas de mídia social interrompessem com uma mensagem pop-up dizendo algo como: “Você tem certeza?” O Instagram implementou algo semelhante em 2019 para limitar as comunicações reativas prejudiciais. Embora essa abordagem não impeça que todos publiquem conteúdo ultrajante, ela forçará muitos de nós a fazer uma pausa e refletir antes de fazê-lo.
  • Pare de mostrar postagens ou vídeos sugeridos como forma de manter os usuários rolando/visualizando mesmo quando eles viram tudo o que as pessoas que seguem postaram. O YouTube lançou a Reprodução Automática em 2015, oferecendo a seus espectadores uma série de vídeos sugeridos reproduzidos continuamente. Esse recurso é amplamente considerado como o principal impulsionador da disseminação de conteúdo extremo. O Instagram, que resistiu até agora, mudou sua política em agosto e passou a incluir postagens sugeridas nos feeds dos usuários.
  • Luta agressivamente por fatos . Quando alguém escreve que “dois mais dois é igual a cinco”, torne sua missão pelo menos parar de propagar a mentira, não importa o quão emocionante seja para seus usuários. Esta será uma batalha incrivelmente difícil e provavelmente sem fim. Erros serão cometidos. Mas eles valem a pena. Os esforços até agora têm sido muito tímidos; os investimentos em equipes e processos robustos de verificação de fatos precisam ser aumentados drasticamente. Os pesquisadores ainda estão divididos sobre se colocar mensagens de alerta ao lado de informações falsas é eficaz para limitar o compartilhamento delas. Alguns concluíram que isso poderia tornar os usuários menos propensos a compartilhar; outros não viram nenhum impacto. Mas vale a pena tentar.
  • Identifique e encerre implacavelmente contas, páginas e fóruns que promovam o ódio. Um estudo sobre os efeitos da proibição de duas comunidades de ódio pelo Reddit em 2015 demonstrou que “ao fechar essas câmaras de ódio, o Reddit fez com que as pessoas participantes deixassem o site ou mudassem drasticamente seu comportamento linguístico”. Em outras palavras, o nível de ódio diminuiu completamente, mesmo quando os mesmos usuários continuaram a usar o Reddit e ingressaram em outros fóruns.

Todas essas soluções se resumem a uma ideia simples: um negócio verdadeiramente centrado no ser humano – aquele que deseja melhorar a humanidade – deve apoiar os pontos fortes de seus usuários, em vez de explorar nossas fraquezas. Embora nosso mundo hoje possa se assemelhar a 1984 , ainda há tempo para escrevermos um final diferente.

Artigo por: Maelle Gavet trabalha com tecnologia há 15 anos. Ela atuou como CEO da Ozon, vice-presidente executiva do Priceline Group e diretora de operações da Compass. Ela é autora de um livro, Trampled by Unicorns: Big Tech's Empathy Problem and How to Fix It . - Originalmente em: fastcompany.com/

Anúncio
Anúncio
Anúncio
Suplemento Multivitamínico

Este site usa cookies e outros serviços para melhorar sua experiência. Ao usar nosso site, você concorda com nossa Política de Privacidade e Termos.