Para lucrar ainda mais, corporações big techs demitiram 280 mil profissionais só nos últimos quatro anos.
Ana Mielke
Desde 2022, as empresas de mídia e tecnologia, as chamadas Big Techs, têm promovido uma série de demissões em seus quadros profissionais. Estima-se que mais de 150 mil pessoas já tenham sido demitidas desde então. Se considerados os números desde 2020, quando as primeiras demissões ocorreram, o número de cortes pode ultrapassar o total de 280 mil profissionais. É uma quantidade bastante relevante, especialmente quando se leva em conta que estas empresas seguem tendo lucratividade recorde ano após ano.
Especialistas em mercado justificam o corte crescente de pessoal em razão da desaceleração do mercado de mídia e tecnologia no pós-pandemia e a necessidade de diminuir custos. Mas os dados mostram que as empresas do setor devem lucrar, em 2024, algo na casa de 12% a mais do que no ano passado, com potencial de manter este aumento de 12% também para o ano de 2025. O percentual está bem acima de empresas semelhantes em tamanho e operação que atuam em outros mercados.
Apenas Alphabet (controladora do Google), Apple, Amazon, Meta (controladora de Facebook, Instagram e Whatsapp) e Microsoft ganharam juntas cerca de US$ 327 bilhões em 2023, 25,6% a mais do que no ano anterior. Os valores não incluem os lucros das empresas Tesla e Nvidia, que juntas às demais formam o grupo das setes maiores empresas de tecnologia da atualidade. Os dados foram divulgados pela BBC.
A substituição cada vez mais significativa da ação humana pela inteligência artificial (IA) também estaria entre as razões que levam ao corte de pessoal. Nesta linha, além do impacto socioeconômico na vida de milhares de pessoas, que estão sendo substituídas por máquinas e perdendo sua posição no mercado de trabalho, são crescentes também as preocupações em torno da ética no uso da IA, especialmente quando as Big Techs estão sendo convocadas por governos e sociedade civil, em diferentes países, a se comprometerem com o chamado dever de cuidado e a mitigação de riscos sistêmicos.
Pode não parecer óbvio, mas as ondas recentes de demissões em massa das empresas de mídia e tecnologia podem impactar diretamente na capacidade destas empresas em responder às demandas crescentes por transparência e responsabilidade nas redes. Em especial, no que diz respeito à disseminação de desinformação, discursos de ódio e violações de direitos humanos e conteúdos que atacam a própria democracia.
No dia 6 de fevereiro, por ocasião do Dia da Internet Segura (Safer Internet Day, em inglês), a organização brasileira Safernet apresentou relatório anual com o balanço das denúncias de violações na internet recebidas em seus canais. O relatório aponta recorde de denúncias de violações de direitos humanos na internet em 2023. Foram 101.313 denúncias únicas, sendo a grande maioria delas – 71.867 – de imagens de abuso e exploração sexual infantil online. Os dados em si são alarmantes, especialmente quando se considera que a maior marca anterior era do ano de 2008, quando debates em torno da segurança e a ética nas redes ainda eram incipientes no Brasil.
Na tentativa de explicar o fenômeno, a organização coloca as demissões em massa anunciadas pelas Big Techs, que atingiram as equipes de segurança, integridade e moderação de conteúdo de algumas plataformas, como uma das causas para o aumento significativo das denúncias. Combinadas a essa, outras duas motivações são a introdução da IA generativa para a criação de conteúdos violadores de direitos e a proliferação da venda de packs com imagens de nudez e sexo autogeradas por adolescentes.
Existem outros exemplos de como as demissões em massa estão impactando negativamente os setores responsáveis pela confiança, a segurança e a ética nas empresas de tecnologia. No final de 2022, no auge das demissões pela Meta, uma nova ferramenta de checagem de informações e combate à desinformação, que permitiria que verificadores de fatos como The Associated Press e Reuters pudessem adicionar comentários no topo de artigos no Facebook, como forma de verificar sua confiabilidade, foi completamente cancelada. E no início de 2023, centenas de moderadores de conteúdo também tiveram sua atividade encerrada. No mesmo ano, a Amazon reduziu a sua equipe responsável por IA e a Microsoft despediu toda a sua equipe de ética e sociedade.
Para se ter uma ideia deste impacto, apenas a Meta demitiu 21 mil pessoas entre novembro de 2022 e março de 2023, a Microsoft cortou 10 mil funcionários em 2023 e, ao que tudo indica, cortará outros 1.900 em 2024. A Amazon demitiu outros 18 mil funcionários no ano passado e deve ainda eliminar em torno de 35% da sua força de trabalho da plataforma Twitch e mais uma centena de funcionários da Amazon Prime.
Desde a aprovação do DSA (Digital Services Act) na Europa, os princípios jurídicos de dever de cuidado e avaliação de riscos sistêmicos têm sido incorporados ao debate sobre regulação de plataformas no Brasil e especialmente discutidos à luz da tramitação do PL 2630, que busca garantir liberdade, responsabilidade e transparência na internet. Tais princípios já estão incorporados em legislações de outros países, como na Alemanha, por meio da NetzDG (Netzwerk Durchsetzung Geset), e no Reino Unido, onde consta no projeto de lei do Online Safety Act (ainda em tramitação no Parlamento).
No Brasil, tanto a assimilação do princípio do dever de cuidado na regulação das plataformas quanto a possibilidade de monitoramento e avaliação de potenciais riscos sistêmicos ainda geram alguns questionamentos, sendo o principal deles o de que sem protocolos rigorosos para a notificação e retirada de conteúdos, por exemplo, tais normativas poderiam aumentar ainda mais o poder de curadoria das plataformas.
Atualmente, conteúdos produzidos por terceiros não implicam a responsabilização das plataformas, sendo essas obrigadas a retirada de conteúdos apenas a partir da existência de ordem judicial, como estabelece o Marco Civil da Internet (Lei nº 12.965/2014). Apenas casos de imagens de nudez ou atos sexuais de caráter privado podem ser retirados após notificação ou denúncia direta à plataforma. Ao serem incorporados à proposta legislativa, tanto o dever de cuidado quanto a avaliação de riscos sistêmicos ampliam a responsabilização das plataformas em relação aos conteúdos disseminados, em especial, aqueles que produzem impactos negativos na democracia e nos direitos humanos.
Na Europa, o DSA prevê o monitoramento efetivo para redução de riscos associados a disseminação de conteúdo ilegal; efeitos adversos nos direitos fundamentais; manipulação de serviços com impacto nos processos democráticos e na segurança pública; efeitos adversos que gerem violência baseada no gênero ou contra crianças e adolescentes e consequências graves para a saúde física ou mental dos usuários. No Brasil, um exemplo de risco sistêmico recente envolveu a disseminação, durante a pandemia de coronavírus, de notícias contendo desinformação (fake news) estimulando o medo e a recusa da vacina, o que certamente impactou na garantia do direito à saúde.
Ao considerarmos que os cortes e a substituição de trabalho humano por aprendizado de máquina têm efeitos negativos sobre os deveres de cuidado e análise de riscos sistêmicos, outros deveres devem ser atribuídos às plataformas. Entre eles, o da responsabilidade de garantir uma revisão humana dos procedimentos realizados por IA. Mesmo que as máquinas sejam capazes de apreender, decodificar, analisar e discriminar dados, as empresas não podem se eximir de garantir a revisão humana dos processos.
É preciso que haja garantia de parâmetros de transparência no uso dessas automatizações e a produção de relatórios periódicos sobre os impactos da IA no tratamento dos dados, na garantia da integridade da informação e na curadoria dos conteúdos em rede. Ao que tudo indica, a queda do investimento em recursos humanos põe em risco o compromisso com a ética no uso de recursos de IA no ambiente digital, como ficou evidenciado nos cortes promovidos por Meta, Amazon, Microsoft (Elon Musk também demitiu boa parte da equipe de ética em IA da plataforma X). As demissões devem ser, portanto, questionadas na medida em que vão na contramão da efetivação dos deveres de responsabilidade e transparência que estão sendo impostos às Big Techs.
Ana Mielke é Jornalista, professora e mestre em Ciências da Comunicação pela ECA/USP; coordenadora executiva do Intervozes e secretária de formação do Fórum Nacional pela Democratização da Comunicação (FNDC).
Fonte: Outras Palavras
Data original da publicação: 26/02/2024
DMT: https://www.dmtemdebate.com.br/big-techs-o-humano-perde-mais-espaco/