Le nouveau playbook IA deepfake de Meta : plus d'étiquettes, moins de retraits

Nowy plan strategiczny Meta dotyczący sztucznej inteligencji typu deepfake: więcej zaznaczania, mniej usuwania

W obliczu rozwoju sztucznej inteligencji (AI) w generowaniu treści Meta wprowadza znaczące zmiany w swoich zasadach, grając kartą przejrzystości. Odpowiedź na krytykę sformułowaną przez jej radę nadzorczą, której efektem będzie metoda identyfikowalności tych treści.

Były gigant mediów społecznościowych Facebook planuje zwiększyć liczbę etykiet treści zawierających sztuczną inteligencję, w tym m.in głębokie podróbki, począwszy od przyszłego miesiąca. Cel ? Zapewnij użytkownikom jaśniejszy obraz treści, z którymi mają do czynienia, zwłaszcza gdy mogą one wprowadzać w błąd i wpływać na ich opinię w kluczowych kwestiach. Jest to szczególnie istotne w roku 2022, w którym na całym świecie odbędą się kilka ważnych wyborów.

Jednak w przypadku deepfakes Meta nałoży etykiety tylko wtedy, gdy treść zawiera standardowe w branży „flagi obrazów AI” lub jeśli twórca wyjaśnił, że jest to treść wygenerowana przez sztuczną inteligencję. Poza tymi limitami treści generowane przez sztuczną inteligencję będą prawdopodobnie wyłączone z etykietowania.

Te zmiany w polityce Meta uwzględniają podejście nastawione bardziej na „przejrzystość i dodatkowy kontekst”, a nie na usuwanie zmanipulowanych mediów. Krótko mówiąc, więcej etykiet i mniej usuwania będą prawdopodobnie przyszłością zarządzania treściami generowanymi przez sztuczną inteligencję i zmanipulowanymi mediami na platformach Meta, w tym na Facebooku i Instagramie.

W lipcu przyszłego roku Meta planuje zaprzestać usuwania treści wyłącznie dlatego, że są manipulowane, co da użytkownikom czas na zrozumienie procesu tagowania.

Ta rekonfiguracja mogłaby umożliwić Meta spełnienie rosnących wymagań prawnych dotyczących moderowania treści, w tym tych określonych w unijnym rozporządzeniu w sprawie usług cyfrowych (DSA). Wymaga to od Meta znalezienia równowagi pomiędzy usuwaniem nielegalnych treści, ograniczaniem ryzyka systemowego i ochroną wolności słowa.

Rada nadzorcza Meta, finansowana przez firmę, ale posiadająca zezwolenie na niezależne działanie, zatwierdza niewielki procent decyzji dotyczących moderowania treści i może wydawać zalecenia dotyczące polityki. Chociaż Meta nie jest zmuszona zaakceptować tej rady, tym razem zdecydowała się zmienić swoje podejście do treści generowanych przez sztuczną inteligencję i zmanipulowanych mediów.

A lire également  Rezygnacja Apple z projektu samochodu elektrycznego może przynieść korzyści robotyce domowej.

Monika Bickert, wiceprezes ds. polityki treści w Meta, w niedawno opublikowanym poście na blogu przyznała, że ​​firma przyjęła zbyt wąskie podejście, biorąc pod uwagę jedynie filmy utworzone lub edytowane przez sztuczną inteligencję, aby sprawiać wrażenie, że dana osoba mówi coś, czego nigdy nie powiedziała. Rada nadzorcza faktycznie skrytykowała to podejście w lutym ubiegłego roku po incydencie związanym ze sfałszowanym nagraniem wideo prezydenta Bidena.

Przewidując przyszłość wypełnioną treściami syntetycznymi, Meta współpracuje z innymi graczami z branży w celu stworzenia wspólnych standardów technicznych dotyczących identyfikacji treści AI. Czyni to poprzez etykiety w kształcie sztucznej inteligencji dodawane do wideo, audio i obrazów generowanych przez sztuczną inteligencję, które będą opierać się na wykrywaniu sygnału sztucznej inteligencji lub ujawnianiu informacji przez sztuczną inteligencję. Użytkownicy zgłaszają, że pobierają treści wygenerowane przez sztuczną inteligencję.

Meta zamierza także poszerzyć zakres swojej polityki poprzez oznaczanie znacznie szerszej gamy treści. Jeśli cyfrowo zmieniony obraz, wideo lub dźwięk stwarza duże ryzyko wprowadzenia opinii publicznej w błąd w ważnej sprawie, Meta zastrzega sobie prawo do dodania bardziej widocznej etykiety.

Wysiłki Meta mające na celu rozwiązanie tych problemów obejmują także współpracę z prawie 100 niezależnymi osobami weryfikującymi fakty, aby pomóc zidentyfikować ryzyko związane z zmanipulowanymi treściami. Te podmioty zewnętrzne będą w dalszym ciągu przeglądać fałszywe i wprowadzające w błąd treści generowane przez sztuczną inteligencję. A jeśli weryfikatorzy faktów ocenią treść jako „fałszywą lub zmienioną”, Meta zareaguje, ograniczając zakres dotkniętych treści, co oznacza, że ​​będą one mniej widoczne w kanałach użytkowników.

Oczywiste jest, że wraz ze wzrostem rozprzestrzeniania się treści syntetycznych, dzięki rozwojowi narzędzi generatywnych AI, obciążenie pracą zewnętrznych weryfikatorów faktów będzie tylko wzrastać.