TikTok и Bumble планируют использовать базу StopNCII, чтобы не давать размещать на своих сервисах картинки и видео с revenge porn. И я не знал, но оказывается, в Фейсбуке используется та же самая база, будем надеяться, что это станет общим местом для всего крупного интернета.
Если вам интересно, как такие базы работают, то вот как, по шагам:
1. Вы загружаете свою картинку, говоря: “Ребята, всё плохо, кто-то размещает в интернете порно со мной, на которое я не давал согласия”.
2. Живые люди изучают картинку, и если выносится вердикт “это действительно порно и на фото действительно вы”, то
3. к картинке применяется открытый алгортитм PDQ, разработанный фейсбуком, — по сути он создает уникальный набор хэшей, цифровой отпечаток изображения. Даже если картинку пережать или чуть обрезать — PDQ хэши останутся теми же.
4. База этих хэшей рассылается компаниям-партнерам, которые проверяют каждую загруженную картинку на совпадение. При этом, что важно, восстановить из хэша саму картинку они не могут.
Получается довольно открыто и прозрачно, единственный смущающий меня момент — что в StopNCII решение о внесении в базу принимают живые люди.
Open-Sourcing Photo- and Video-Matching Technology to Make the Internet Safer | Meta
We're sharing some of the tech we use to fight abuse on our platform with others.