(Neu: Mehr Details)
MENLO PARK (dpa-AFX) - Facebook (ETR:FB) (NASDAQ:FB) informiert seine Nutzer künftig ausführlicher darüber, welche Inhalte im weltgrößten Online-Netzwerk verboten sind und entfernt werden. In der Nacht zum Montag wurde dafür eine neue Version der sogenannten "Gemeinschaftsstandards" veröffentlicht. "Wir ändern unsere Regeln nicht, sondern wollen den Nutzern nur mehr Klarheit darüber verschaffen, wo und warum wir Grenzen einziehen", sagte die zuständige Facebook-Managerin Monika Bickert der Deutschen Presse-Agentur.
Statt eines einzelnen Textes mit elf Kapiteln gibt es nun eine Website mit Links zu verschiedenen Themen und mehr Beispielen als bisher. Neu sind Abschnitte über sexuelle Ausbeutung und Inhalte terroristischer Organisationen - es seien aber in allen Fällen die selben Regeln, nach denen Facebook schon vorher gehandelt habe, betonte Bickert. Ihr Team mit "Hunderten" Mitarbeitern ist dafür zuständig, untersagte Inhalte bei Facebook zu entfernen.
Ausführlicher wird nun zum Beispiel der Umgang mit Nacktheit erklärt: "Wir entfernen Fotos von Personen, auf denen Genitalien oder vollständig entblößte Pobacken zu sehen sind. Außerdem beschränken wir Bilder mit weiblichen Brüsten, wenn darauf Brustwarzen zu sehen sind." Fotos von Frauen beim Stillen oder Vernarbungen nach Brustamputationen seien jedoch in jedem Fall erlaubt.
Facebook hat nahezu 1,4 Milliarden Nutzer. Die Regeln umzusetzen, sei nicht nur wegen der Dimension eine große Herausforderung, sagte Bickert, eine frühere US-Staatsanwältin. So müssten ihre Mitarbeiter mit wenig Kontext erkennen, ob ein Facebook-Eintrag zum Beispiel Mobbing oder Gewaltverherrlichung darstelle. "Selbst ein Foto aus der Schule, unter dem einfach nur "Nettes Kleid" steht, kann unter Umständen als Mobbing gemeint sein", gab sie zu bedenken.
"Ähnlich kann ein Bild, auf dem Gewalt zu sehen ist, geteilt werden, um sie zu verurteilen - oder um sie zu zelebrieren", sagte Bickert. Im ersten Fall würde Facebook das Foto grundsätzlich zulassen, aber unter Umständen als nur für Erwachsene empfohlen markieren. Bei terroristischen Vereinigungen gebe es hingegen keinen Spielraum: "Auch wenn sie scheinbar harmlose Informationen wie ihre Lieblingsrestaurants teilen wollen - wir tolerieren keine Terror-Gruppen bei Facebook."
Facebook verlasse sich weitgehend darauf, dass die Nutzer selbst problematische Inhalte melden, betonte Bickert. "Nur in einigen Bereichen, vor allem, wenn es um die Sicherheit von Kindern geht, haben wir eine Software im Einsatz, die aktiv nach Inhalten sucht", sagte sie. Sie nannte nicht, für welche weiteren Bereiche das noch gilt.
"Inhalte, die Nutzer bei Facebook melden, werden grundsätzlich von Menschen geprüft", sagte Bickert. Die Entscheidungen erforderten eine menschliche Abwägung. Die Prüfer seien über die Welt verteilt, es gebe Spezialisten für verschiedene Sprachen. Zugleich gebe es Grenzen dafür, was ihre Mitarbeiter sehen könnten. "Sie sollen genug Informationen haben, damit sie eine bewusste Entscheidung über Inhalte treffen können." Die Prüfer erhielten aber keinen ausufernden Zugang: "Wenn zum Beispiel ein Foto als Mobbing gemeldet wird, bekommen sie nur das Foto plus etwas Kontext dazu zu sehen."
Facebook war in der Vergangenheit immer wieder wegen Entscheidungen zu einzelnen Inhalten kritisiert worden, etwa wenn Bilder von Protesten oder Fotos von Kunstwerken mit Nacktheit entfernt wurden. Die Veröffentlichung der ausführlicheren Regeln solle das Verfahren dahinter verständlicher machen, sagte Bickert. "Es ist eine große Herausforderung, einheitliche Regeln für die ganze Welt aufzustellen.