A Meta está planejando adotar sistemas de inteligência artificial (IA) para substituir equipes especializadas na supervisão de conteúdos considerados de risco em suas redes sociais, incluindo o Facebook e o Instagram. De acordo com documentos internos obtidos pela NPR, a automação será utilizada em áreas sensíveis, como publicações relacionadas a discurso de ódio, desinformação e violência.
Segundo os planos, a Meta visa que a IA responsabilize por até 90% das revisões desses conteúdos, com o objetivo de acelerar o lançamento de atualizações e novas versões de aplicativos. Isso implica que processos que antes dependiam da análise de funcionários serão aprovados de forma automatizada, otimizando o tempo de resposta da empresa ao mercado.
No entanto, a iniciativa gerou apreensão entre parte dos funcionários, especialmente quanto à capacidade da automação de captar certos contextos, como regras de publicação e funcionamento dos algoritmos. Um ex-executivo da Meta, que pediu anonimato, declarou à NPR que a automação pode criar riscos maiores, pois reduziria o rigor na análise e a oposição, permitindo que alterações nos produtos cheguessem aos usuários sem uma revisão humana cuidadosa.
Com a mudança, a inteligência artificial faria revisão dos produtos com base em informações preenchidas por funcionários em formulários prévios, tornando a análise dos riscos e a aprovação ou não dos serviços instantâneas. A empresa não comentou oficialmente as informações divulgadas pela NPR. A utilização de sistemas de IA nessa escala reacende debates sobre o equilíbrio entre eficiência, segurança e o impacto dos meios digitais nas sociedades.