Meta трябва да предприеме по-решителни действия срещу „разпространението“ на фалшиво съдържание, създадено с инструменти за изкуствен интелект, заяви нейният Надзорен съвет. Органът отправи критики към компанията, след като тя остави онлайн AI‑генерирано видео, което невярно показва мащабни разрушения в Хайфа, Израел, уж причинени от ирански сили – и то без никакъв етикет.
Съветът настоя Meta да преработи изцяло правилата си за AI съдържание, предупреждавайки, че нарастващият поток от фалшиви видеа, свързани с глобални военни конфликти, „затруднява обществото да различи измислицата от фактите… и създава риск от общо недоверие към информацията“.
От Meta заявиха, че ще поставят етикет на конкретното видео в рамките на седем дни.
Надзорният съвет е създаден през 2020 г. като полу-независим орган, който наблюдава решенията за модериране на съдържание във Facebook, Instagram и WhatsApp. Макар често да не е съгласен с решенията на Meta, компанията продължава да разхлабва контрола върху съдържанието – което поставя под въпрос реалната сила на съвета.
Според съвета случаят с видеото от Хайфа отново показва „неефективността на настоящия подход на Meta по време на въоръжени конфликти“.
В момента Meta разчита основно потребителите сами да „декларират“, че публикуваното от тях съдържание е генерирано от AI. В противен случай компанията чака сигнал от друг потребител, за да прецени дали да постави етикет.
Съветът настоява Meta да започне проактивно да маркира фалшивото AI съдържание „много по-често“.
Според него сегашните методи на компанията „не са достатъчно надеждни или изчерпателни, за да се справят с мащаба и скоростта на AI‑генерираното съдържание, особено по време на криза или конфликт“.
Прегледът на случая започва след видео, публикувано през юни от Facebook акаунт във Филипините, представящ се като новинарски източник. То е част от поредица фалшиви AI видеа, разпространени след началото на конфликта – както в подкрепа на Израел, така и на Иран – които са събрали поне 100 милиона гледания, според анализ на BBC.
Въпреки че видеото е изцяло генерирано от AI и показва несъществуващи събития, а Meta е получила множество сигнали, компанията нито го е премахнала, нито го е маркирала.
Едва след като потребител се обърнал директно към Надзорния съвет и той поел случая, Meta реагирала. Компанията твърди, че видеото – гледано почти 1 милион пъти – не изисква етикет и не трябва да бъде сваляно, защото не „допринася пряко за риск от непосредствена физическа вреда“.
Съветът определи този критерий като прекалено висок, особено когато става дума за въоръжени конфликти, и постанови, че видеото е трябвало да получи „етикет за високорисково AI съдържание“.
„Meta трябва да направи повече, за да ограничи разпространението на подвеждащо AI‑генерирано съдържание… така че потребителите да могат да различават истинското от фалшивото“, заяви съветът.
В отговор Meta посочи, че ще следва препоръките при следващи случаи, но само когато съдържанието е „идентично“ и „в същия контекст“ като разглежданото видео.
Все още няма коментари. Бъдете първи!