Der Meta-Konzern nutzt künstliche Intelligenz unter anderem, um automatisch auf der Plattform verbotene Inhalte wie Hassrede oder Gewalt herauszufiltern. Meta sieht sich dabei auf gutem Weg: So würden inzwischen 98 Prozent der Hassrede-Beiträge entdeckt, bevor sie jemand zu sehen bekomme. Kritiker wie die Whistleblowerin Frances Haugen warnen hingegen, künstliche Intelligenz könne das Problem nicht ausreichend lösen.