Was machst du gerade? 

Facebook Upload-Filter

Zahlen und Fakten zum Unternehmen

Facebook ist ein amerikanisches Unternehmen, das verschiedene Online-Dienste für soziale Netzwerke anbietet. Ursprünglich für Studenten konzipiert, wurde Facebook 2004 von Mark Zuckerberg gegründet, als er an der Harvard University studierte. Heute ist Facebook das weltweit größte soziale Netzwerk mit mehr als einer Milliarde Nutzer*innen weltweit.¹ Ihr gesamtes Produktportfolio (WhatsApp, Instagram, etc.) wird von mehr als drei Milliarden Menschen auf der ganzen Welt genutzt. Diese erstellen mehr als eine Milliarde Stories pro Tag und verschicken über 100 Milliarden Nachrichten pro Tag. Der Hauptsitz des Unternehmens ist in der Stadt Melo Park in Kalifornien, USA. Zudem hat Facebook Niederlassungen in 80 Städten weltweit, sowie 17 Rechenzentren, die in Zukunft zu 100 Prozent durch erneuerbare Energien gespeist werden sollen. Facebook beschäftigt 52.534 Mitarbeiter*innen (Stand 30.Juni 2020) und erwirtschaftete 2020 einen Umsatz von 85,97 Milliarden US-Dollar. Seit dem 18. Mai 2012 ist das Unternehmen an der Börse notiert. Der Börsengang war mit einer Marktkapitalisierung von über 104 Milliarden US-Dollar einer der größten in der Internetgeschichte.²

Zahlen und Fakten zur Anwendung

Mit den weltweit über drei Milliarden Nutzern, die täglich in verschiedensten Sprachen posten, ist die Moderation von Inhalten zu einer wichtigen und komplexen Aufgabe von Facebook geworden. Der Konzern setzt dabei auf eine Kombination aus Künstlicher Intelligenz und menschlicher Arbeit. Insbesondere beim Erkennen und Entfernen von Inhalten, die Hassrede enthalten, wird der Einsatz von künstlicher Intelligenz immer effektiver. So teilte Facebook im Februar 2021 mit, dass im vorherigen Quartal 97 Prozent der entfernten Hassreden von Software entdeckt worden, bevor Menschen sie gesehen haben. Im Vierteljahr davor habe der Anteil bei 94 Prozent gelegen und ein Jahr zuvor lediglich bei gut 80 Prozent.³

Die Nutzerperspektive

Am 15. März 2019 schnallte ein Terrorist eine Kamera an seine Brust, begann einen Facebook Livestream, betrat mit einem Sturmgewehr bewaffnet die Al Noor Moschee in Christchurch, Neuseeland und ermordete dort mehr als 50 Menschen. Das Video wurde anfangs nur von ein paar hundert Facebook Nutzer*innen gesehen und schnell an Facebook gemeldet und entsprechend gelöscht. Vorher wurde das Video jedoch schon von anderen Nutzer*innen heruntergeladen, kopiert und erneut veröffentlicht. Innerhalb weniger Stunden existierten hunderttausende Versionen des Videos welche (teilweise leicht abgeändert, oder mit Wasserzeichen versehen) erneut auf Facebook hochgeladen wurden. Einige Tage nach dem Angriff gaben Vertreter von Facebook an, dass Facebook in den ersten 24 Stunden nach dem Angriff 1,5 Millionen Videos der Terrorattacke gelöscht hat, davon wurden rund 1,2 Millionen Videos automatisch durch den Einsatz von Algorithmen blockiert, bevor sie hochgeladen werden konnten.⁴
Dieser tragische Vorfall zeigt, dass Menschen auf Plattformen, wie Facebook oder Twitter jede Art von Inhalten hochladen und teilen, darunter auch terroristische Handlungen, Tod und nahezu alle Variationen von Gewalt, angefangen bei Hassrede. Dies verdeutlicht, warum eine Moderation der Inhalte auf diesen Plattformen notwendig ist und zu einer immer größeren Aufgabe wird, an der auch algorithmische Systeme, also künstliche Intelligenz, arbeitet.⁵

Die technologische Perspektive

Wie genau diese künstliche Intelligenz funktioniert und welche Algorithmen eingesetzt werden, ist ein wohl behütetes Geheimnis von Facebook und Co., für welches die Konzerne ihre Mitarbeiter*innen sogar Geheimhaltungsverträge unterschreiben lassen. Bekannt ist jedoch, dass sich die Unternehmen Facebook, Google, Twitter und Microsoft in der Organisation Global Internet Forum to Counter Terrorism (GIFCT) zusammengetan haben und ihre Best Practices für die Entwicklung ihrer automatisierten Systeme austauschen, um möglichst erfolgreich gegen Hass, Gewalt und Terrorismus auf ihren Plattformen vorzugehen.⁶ Die Konzerne setzen auf eine Kombination aus maschinellem Lernen und einer gemeinsamen Datenbank, in der „digitale Fingerabdrücke“ (Hashes) von illegalen Inhalten (Bilder, Video, Audio und Text) gespeichert werden. Wird ein rechtswidriger Inhalt festgestellt, dann wird ein digitaler Fingerabdruck von diesem in der Datenbank angelegt. Von nun an hochgeladene Beiträge werden von einem algorithmischen System mit den vorhandenen digitalen Fingerabdrücken abgeglichen und bei einer Übereinstimmung werden entsprechende Beiträge entfernt oder bereits vor dem Posten blockiert. „Sehr vereinfacht gesagt heißt das: Wenn Post X und Post Y gegen die Gemeinschaftsstandards verstoßen haben, dann tut es Post Z, der ähnliche Eigenschaften aufweist wie X und Y, mit hoher Wahrscheinlichkeit auch. Durch die schiere Menge zur Verfügung stehender Daten und die gestiegenen Rechenkapazitäten hat diese Form der Künstlichen Intelligenz in den vergangenen Jahren enorme Fortschritte gemacht.“⁷

Die wirtschaftliche Perspektive

Die Content Moderation ist für Facebook, Twitter, etc. eine sehr kostspielige Angelegenheit und bietet kein direktes Erlösmodell. Trotzdem ist es für die Social Media-Konzerne eine wichtige Aufgabe, für die sich die hohen Ausgaben lohnen. Zum einen gibt es Gesetze, welche die Konzerne dazu zwingen, rechtswidrige, gewalttätige und vor allem terroristische Inhalte zu löschen. Wenn dies nicht geschieht, dann können hohe Bußgelder im siebenstelligen Bereich gegen das Unternehmen verhängt werden.⁸ Neben der Vermeidung von Bußgeldern ist auch das eigene Interesse an moderierten Inhalten ein wichtiger Aspekt, warum die hohen Kosten wirtschaftlich gesehen sinnvoll sind. Stellt man sich vor, Facebook würde die Moderation seiner Website von einen auf den anderen Moment einstellen, dann könnte jeder alles posten, was er will. Die bisherigen Erfahrungen deuten darauf hin, dass es ziemlich schnell sehr unschön auf der Plattform werden kann. Ziemlich wahrscheinlich wäre die Social Media-Plattform in kürzester Zeit von Spam, Mobbing, Verbrechen, Enthauptungen von Terroristen, Texten von Neonazis und Bildern von sexuellem Kindesmissbrauch überschwemmt werden. In diesem Szenario würden sich wahrscheinlich große Teile der Nutzer*innen von der Plattform abwenden, gefolgt von den lukrativen Werbetreibenden.⁹

Die rechtliche Perspektive

Aus der rechtlichen Perspektive wird der Upload-Filter vor allem vom EU-Parlament begünstigt, denn durch diese Technologie wurde eine gute Lösung geschaffen, um der Terrorpropaganda auf den Social Media-Plattformen ein Ende zu setzen. Allerdings ist die EU-Verordnung noch nicht vollständig verhandelt worden, denn es gibt noch einige Aspekte in der Verordnung, die verändert werden müssen. Es ist jedoch sehr wahrscheinlich, dass die Abgeordneten in den im Herbst 2021 stattfindenden Trilog-Verhandlungen mit der Kommission und dem Rat einknicken und Upload-Filter für alle in Europa tätigen Anbieter zur Pflicht machen.¹⁰ ¹¹

Die gesellschaftliche Perspektive

Ein Nachteil ist, dass der Upload-Filter als eine negativ konnotierte Art von Zensur die Nutzer*innen im Kreieren ihres Contents einschränken würde. Viele Nutzer*innen verlieren das Interesse auf dieser Plattform aktiv zu sein.
Auf der anderen Seite wiederum kommt diese Technologie bei manchen Branchen gut an. Die Polizei in Nordrhein-Westfalen setzt auf Algorithmen und Microsoft beispielsweise, stellt seine Bilderkennungssoftware PhotoDNA vielen Organisationen kostenlos zur Verfügung. Die Software wird seit geraumer Zeit dazu genutzt, um Darstellungen von Kindesmissbrauch zu erkennen. Microsoft entwickelt in einer Kooperation mit Behörden in Nordrhein-Westfalen einen Algorithmus samt Cloud-Lösung weiter, mit welchem sich unter anderem Gesichter von Täter*innen und Opfern erkennen lassen. Dies würde also mehr Sicherheit in gewissen Gebieten gewähren, dessen Bewohner*innen erleichtert darüber sind.¹² In der Gesellschaft sind also die Meinungen über den Upload-Filter gespalten: Manche protestieren dagegen, da dessen Einsatz viele Inhalte zensieren würde, selbst wenn sie nicht gegen die vorgegebenen Richtlinien verstoßen. Die Befürworter*innen setzen jedoch auf den Upload-Filter und argumentieren mit der Tatsache, dass sehr viele Jugendliche (vor allem Minderjährige) auf den Social Media-Plattformen aktiv sind und dementsprechend unangebrachte Inhalte erst gar nicht von ihnen konsumiert werden.¹³

Fazit

Generell lässt sich festhalten, dass der Einsatz des Upload-Filters je nach Perspektive, aus der man ihn betrachtet, jeweils Vor- und Nachteile mit sich bringt. Die Technologie soll hauptsächlich als Schutz der Nutzer*innen dienen, allerdings droht die Gefahr einer viel zu strengen Zensur. Aus diesem Grund kann die EU-Kommission sich nicht auf eine klare Entscheidung einigen. Sicher ist allerdings, dass die Technologie in moderaten Maßen eingesetzt werden kann, wie beispielsweise, um Täter*innen und Opfer schneller zu erkennen.

Ajla Cavkic und Paul Lehmkühler

Rating

Coolnessfaktor 1/3
Innovationsfaktor 2/3
Mainstreamfaktor 5/5
Previous slide
Next slide

[1] Vgl. Facebook Unternehmensinformationen: https://about.facebook.com/company-info/
(Zuletzt abgerufen: 18.05.2021)

[2] Vgl. Facebook Investor Relation, Annual Report:
https://investor.fb.com/financials/default.aspx
(Zuletzt abgerufen: 18.05.2021)

[3] Vgl. Facebook Newsroom, Update on New Zealand by Chris Sonderby, VP and Deputy
General Counsel (2019)
https://about.fb.com/news/2019/03/update-on-new-zealand/
(Zuletzt abgerufen: 18.05.2021)

[4] Vgl. Handelsblatt- Der 16-Milliarden-Dollar-Börsengang (2012): https://www.handelsblatt.com/finanzen/maerkte/aktien/facebook-ipo-der-16-milliarden-dollar-boersengang/
6649352.html
(Zuletzt abgerufen: 18.05.2021)

[5] Vgl. MIT Technology Review – Charlotte Jee – Facebook needs 30,000 of its own content
moderators, says a new report (2021): https://www.technologyreview.com/
2020/06/08/1002894/facebook-needs-30000-of-its-own-content-moderators-says-a-new-report/
(Zuletzt abgerufen: 27.05.2021)

[6] Vgl. Gorwa, R., Binns, R., & Katzenbach, C. (2020). Algorithmic content moderation:
Technical and political challenges in the automation of platform governance.

[7] Vgl. Netzpolitik.org – Thomas Rudl, Maximilian Henning (2019) – Facebook veröffentlicht
Teile seiner Uploadfilter-Technik –
https://netzpolitik.org/2019/facebook-veroeffentlicht-teile-seiner-uploadfilter-technik/
(Zuletzt abgerufen: 29.05.2021)

[8] Vgl. Süddeutsche Zeitung – Simon Hurtz – Warum das neue Urheberrecht alle angeht (2021):https://www.google.com/amp/s/www.sueddeutsche.de/digital/urheberrecht-
upload-filter-deutschland-1.5195447!amp
(Zuletzt abgerufen: 29.05.2021)

[9] Vgl. Big Data & Society.
https://doi.org/10.1177/2053951719897945
Sharma, S. (2019). Data Privacy and GDPR Handbook. USA: Wiley.

[10] Vgl. Zdfheute – Klaus Brodbeck, Kristina Hofmann – Behörde verhängt Bußgeld – Zwei Millionen Euro Strafe für Facebook (2019): https://www.zdf.de/nachrichten/heute/facebook-soll-zwei-millionen-euro-strafe-zahlen-wegen-verstoss-gegen-netzdg-100.html
(Zuletzt abgerufen: 27.05.2021)

[11] Vgl. Zeit Online – Facebook: 97 Prozent der gelöschten Hassreden von KI erkannt (2021): https://www.zeit.de/news/2021-02/11/facebook-97-prozent-der-geloeschten-hassreden-von-ki-erkannt
(Zuletzt abgerufen: 26.05.2021)

[12] Vgl. Netzpolitik.org – Ingo Dachwitz, Markus Reuter: Warum Künstliche Intelligenz Facebooks Moderationsprobleme nicht lösen kann, ohne neue zu schaffen (2019): https://netzpolitik.org/2019/warum-kuenstliche-intelligenz-facebooks-moderationsprobleme-nicht-loesen-kann-ohne-neue-zu-schaffen/
(Zuletzt abgerufen: 26.05.2021)

[13] Vgl. Taz – Anett Selle – Proteste gegen Upload-Filter (2019): https://taz.de/Proteste-gegen-Uploadfilter/!5582613/
(Zuletzt abgerufen: 29.05.2021)