13 jan Meta, precisamos de mais formas de combater a desinformação (não menos) na era dos deepfakes e da IA
News and Events | jessicaribeiroTexto original em inglês A recente decisão da Meta de permitir mais discursos de ódio e conteúdos nocivos sob o pretexto de liberdade de expressão, assim como de eliminar a checagem de fatos no Facebook, Threads e Instagram, representa um retrocesso significativo. Esse posicionamento coloca em risco comunidades marginalizadas e vulneráveis, além de agravar os riscos emergentes da IA (inteligência artificial). “Embora a checagem de fatos não seja uma solução mágica para resolver disputas sobre o que é falso, ela é uma parte crucial na defesa da informação, na responsabilização dos poderosos e no combate à confusão entre verdade e mentiras. Embora decisões de moderação de conteúdo possam falhar, mais frequentemente elas são voltadas para prevenir danos e ódio, além de fornecer informações às pessoas para que possam julgar por si mesmas o conteúdo que consomem. Ainda precisamos que as plataformas se responsabilizem e que haja uma moderação de conteúdo fundamentada em realidades globais e direitos humanos. Na era emergente da IA, essa necessidade é maior do que nunca”, afirma Sam Gregory, diretor executivo da WITNESS. A decisão da Meta reflete um desprezo pelas vozes e necessidades das pessoas mais impactadas pelas ameaças que ela representa. Comunidades marginalizadas e vulneráveis costumam ser as primeiras e mais profundamente afetadas por informações enganosas e falsas, discursos de ódio e censuras reais e coercitivas por parte de seus governos. Pessoas e grupos parceiros da WITNESS em Mianmar conhecem bem essa realidade, assim como as comunidades imigrantes e LGBTQIA+ nos EUA e globalmente. Em vez de criar mecanismos para amplificar como essas comunidades vulneráveis,