Angesichts des Aufstiegs der künstlichen Intelligenz (KI) bei der Inhaltsgenerierung nimmt Meta erhebliche Änderungen an seinen Regeln vor und spielt dabei die Transparenzkarte aus. Eine Antwort auf die von seinem Aufsichtsrat formulierte Kritik, die zu einer Methode zur Nachvollziehbarkeit dieser Inhalte führen wird.
Der ehemalige Social-Media-Riese Facebook plant, die Kennzeichnung von KI-Inhalten zu erhöhen, darunter Deepfakes, ab nächsten Monat. Das Ziel ? Bieten Sie Benutzern einen klareren Überblick über die Inhalte, denen sie ausgesetzt sind, insbesondere wenn diese irreführend sein und ihre Meinung zu wichtigen Themen beeinflussen könnten. Dies ist besonders relevant im Jahr 2022, in dem weltweit mehrere große Wahlen stattfinden werden.
Bei Deepfakes verhängt Meta jedoch nur dann Kennzeichnungen, wenn der Inhalt branchenübliche „KI-Bildmarkierungen“ enthält oder wenn der Ersteller erklärt hat, dass es sich um KI-generierte Inhalte handelt. Außerhalb dieser Grenzen werden KI-generierte Inhalte wahrscheinlich von der Kennzeichnung ausgenommen sein.
Diese Änderungen an der Richtlinie von Meta sehen einen Ansatz vor, der mehr auf „Transparenz und zusätzlichen Kontext“ ausgerichtet ist, als auf die Entfernung manipulierter Medien. Kurz gesagt, mehr Labels und weniger Entfernungen werden wahrscheinlich die Zukunft der Verwaltung von KI-generierten Inhalten und manipulierten Medien auf den Plattformen von Meta, einschließlich Facebook und Instagram, sein.
Im kommenden Juli will Meta damit aufhören, Inhalte nur deshalb zu entfernen, weil sie manipuliert sind, um den Nutzern Zeit zu geben, den Tagging-Prozess zu verstehen.
Diese Neukonfiguration könnte Meta in die Lage versetzen, die zunehmenden gesetzlichen Anforderungen an die Moderation von Inhalten zu erfüllen, einschließlich derjenigen, die in der Digital Services Regulation (DSA) der Europäischen Union festgelegt sind. Dafür muss Meta ein Gleichgewicht zwischen der Entfernung illegaler Inhalte, der Reduzierung systemischer Risiken und dem Schutz der Meinungsfreiheit finden.
Metas Aufsichtsgremium, das vom Unternehmen finanziert wird, aber unabhängig agieren darf, validiert einen kleinen Prozentsatz der Entscheidungen zur Inhaltsmoderation und kann Richtlinienempfehlungen aussprechen. Obwohl Meta nicht gezwungen ist, diesen Rat anzunehmen, hat es sich dieses Mal entschieden, seine Herangehensweise an KI-generierte Inhalte und manipulierte Medien zu ändern.
Monika Bickert, Metas Vizepräsidentin für Inhaltspolitik, gab in einem kürzlich veröffentlichten Blogbeitrag zu, dass das Unternehmen einen zu engen Ansatz verfolgte, als es nur von KI erstellte oder bearbeitete Videos berücksichtigte, um den Eindruck zu erwecken, dass eine Person etwas sagte, was sie nie gesagt hatte . Tatsächlich hatte der Aufsichtsrat diese Haltung im vergangenen Februar kritisiert, nachdem es zu einem Vorfall mit einem gefälschten Video von Präsident Biden gekommen war.
Meta erwartet eine Zukunft voller synthetischer Inhalte und arbeitet mit anderen Akteuren der Branche zusammen, um gemeinsame technische Standards für die Identifizierung von KI-Inhalten zu schaffen. Dies geschieht durch die Verwendung von KI-förmigen Etiketten, die zu KI-generierten Videos, Audiodateien und Bildern hinzugefügt werden und auf der KI-Signalerkennung oder KI-Offenlegungen basieren, die Benutzer melden, dass sie KI-generierte Inhalte herunterladen.
Meta beabsichtigt außerdem, den Geltungsbereich seiner Richtlinie zu erweitern, indem eine viel größere Vielfalt an Inhalten gekennzeichnet wird. Wenn ein digital verändertes Bild, Video oder Audio ein hohes Risiko birgt, die Öffentlichkeit über eine wichtige Angelegenheit in die Irre zu führen, behält sich Meta das Recht vor, eine auffälligere Kennzeichnung hinzuzufügen.
Zu den Bemühungen von Meta, diese Probleme anzugehen, gehört auch die Zusammenarbeit mit fast 100 unabhängigen Faktenprüfern, um die mit manipulierten Inhalten verbundenen Risiken zu ermitteln. Diese externen Stellen werden weiterhin falsche und irreführende KI-generierte Inhalte überprüfen. Und wenn diese Faktenprüfer den Inhalt als „gefälscht oder verändert“ einstufen, reagiert Meta mit einer Einschränkung des Umfangs des betroffenen Inhalts – was bedeutet, dass er in den Feeds der Benutzer weniger sichtbar ist.
Es ist klar, dass mit der zunehmenden Verbreitung synthetischer Inhalte dank der Verbreitung generativer KI-Tools die Arbeitsbelastung für externe Faktenprüfer nur noch zunehmen wird.