Facebook macht weitere Fortschritte dabei, auf der Plattform untersagte Inhalte mit Hilfe künstlicher Intelligenz herauszufiltern.
So seien im vergangenen Quartal 97 Prozent der entfernten Hassreden von Software entdeckt worden, bevor Menschen sie gesehen hätten, teilte Facebook am Donnerstag mit. Im Vierteljahr davor habe der Anteil bei 94 Prozent gelegen und ein Jahr zuvor lediglich bei gut 80 Prozent.
Das Online-Netzwerk zeigt sich auch zuversichtlich, auf diese Weise nicht nur bei Text-Beiträgen vorgehen zu können. «Wir verstehen Audio und Video, wir verstehen die Inhalte», sagte Technikchef Mike Schroepfer. Unter anderem dadurch, wer was teile, könne die Software auch Äußerungen in einen breiteren Kontext einordnen.
In der Corona-Pandemie hatte Facebook zum Teil Probleme, die Teams, die Inhalte prüfen, von Zuhause aus genauso effizient wie aus den Büros arbeiten zu lasen.
Weitere Nachrichten
Irische Behörde brummt Meta Millionenstrafe auf
Mobilfunkförderung: Programm endet, Funklöcher bleiben
Google: Hotel-Suche «wie früher» schadet Hotels