YouTube обяви разширяването на своята технология за откриване на визуално сходство, която идентифицира генерирани от AI „deepfake“ изображения. Новата функционалност вече е достъпна за пилотна група, включваща държавни служители, политически кандидати и журналисти. Инструментът позволява на участниците да откриват неоторизирано съдържание с техния образ и да изискват премахването му, ако нарушава правилата на платформата.
Технологията, която първоначално бе достъпна за около 4 милиона създатели в партньорската програма на YouTube, работи на принципа на системата Content ID. Вместо за авторски права върху музика или видео, тя следи за симулирани лица, създадени с инструменти за изкуствен интелект. Основната цел е превенция на манипулации, при които публични личности биват представяни да казват или правят неща, които не са се случили в действителност.
Лесли Милър, вицепрезидент по правителствените въпроси в YouTube, подчерта, че инициативата е ключова за интегритета на публичния диалог. Тя обаче уточни, че не всяко открито съвпадение ще бъде автоматично изтривано. Екипът ще оценява всяка заявка индивидуално, за да защити свободата на словото в случаи на пародия или политическа критика.
За да се възползват от защитата, потребителите в пилотната група трябва да:
-
Потвърдят самоличността си чрез селфи и официален документ.
-
Създадат личен профил за мониторинг на съвпаденията.
-
Прегледат генерираните отчети и при нужда да изпратят заявка за премахване.
От компанията поясниха, че AI съдържанието ще бъде маркирано със специални етикети, като при по-чувствителни теми предупреждението ще се появява директно върху видеото, а не само в описанието му. В бъдеще YouTube планира да разшири технологията и за разпознаване на генерирани гласове, както и за защита на интелектуална собственост върху популярни измислени герои.
Все още няма коментари. Бъдете първи!