Девочек и женщин унижают онлайн, общество пожимает плечами

В преддверии президентских выборов в США многих беспокоило то, как созданные с помощью искусственного интеллекта дипфейки могут использоваться для манипуляций избирателями. Например, в штате Нью-Гэмпшир людям звонил робот, который звучал как президент Байден, а в сети распространяли фальшивое видео с Тэйлор Свифт о том, что она поддерживает Дональда Трампа.

Однако существует гораздо более серьезная проблема с дипфейками, которой не уделяется достаточно внимания: дипфейки в виде обнаженных фотографий и видео, которые создаются для унижения знаменитостей и никому не известных детей. Одно недавнее исследование показало, что 98% всех размещенных онлайн видео-дипфейков являются порнографическими, из них 99% направлены на женщин и девочек.

В январе этого года обнаженные изображения Тэйлор Свифт наводнили интернет, и это привлекло внимание к проблеме, но речь идет не только о ней. Компании зарабатывают деньги на продаже рекламы и премиум-подписок на веб-сайтах, на которых размещаются фальшивые секс-видео со знаменитыми актрисами, певицами и инфлюенсерками, принцессами и политикессами. Google направляет траффик к этим откровенным видео, жертвы практически ничего не могут с этим поделать. Иногда жертвы — это несовершеннолетние девочки.

Франческе Мани было 14 лет, она училась в старшей школе в штате Нью-Джерси. Она рассказала мне, что в октябре прошлого года она была на уроке, когда ее вызвали в кабинет администрации через громкоговоритель. Заместитель директора и школьный психолог сообщили, что несколько ее одноклассников использовали программу «обнажения», чтобы создать фальшивое обнаженное фото на основе ее фотографии. Мальчики сделали такие же изображения других девочек.

Франческа с трудом сдерживала слезы, чувствовала, что над ней надругались и унизили. На дрожащих ногах она вернулась в класс. В коридоре она увидела несколько плачущих по той же причине девочек. И мальчиков, которые кричали насмешки в их адрес.

«Когда я увидела, как мальчики смеются, я так разозлилась, — рассказывает Франческа. — После школы я вернулась домой и сказала маме, что мы должны что-то с этим сделать».

Теперь Франческе 15 лет, и она создала веб-сайт о проблеме дипфейков —
aiheeelp.com. Она также встречалась с законодателями штата и членами Конгресса, пытаясь привлечь их внимание к этой проблеме.

Хотя в манипуляциях с изображениями нет ничего нового, искусственный интеллект сделал этот процесс очень простым. Достаточно одной хорошей фотографии лица и всего за полчаса или час можно сделать секс-видео на 60 секунд.

Очень часто эти видео затем публикуются на общих порнографических веб-сайтах, где их может увидеть кто угодно. Также их выкладывают на специализированных веб-сайтах дипфейков.

Эти видео предельно откровенны, часто на темы садизма. Например, женщин в них могут показывать связанными, их насилуют и на них мочатся. На одном таком специализированном сайте есть категории «изнасилование» (472 видео), «плач» (655 видео) и «унижение» (822 видео).

Кроме того, есть веб-сайты и приложения для «обнажения» или «раздевания», именно с помощью такого сайта подвергли насилию Франческу. «Раздень одним кликом!» — призывает один сайт. Подавляющее большинство таких сайтов и приложений направлены на женщин и девочек, на некоторых в принципе невозможно «раздеть» мужчину.

Британское исследование показало, что среди сексуализированных изображений детей, сгенерированных искусственным интеллектом, 99,6% — изображения девочек, чаще всего в возрасте от 7 до 13 лет.

Компания онлайн-аналитики Graphika выявила 34 веб-сайта для «обнажения», которые посетили 24 миллиона уникальных пользователей только за сентябрь прошлого года.

Когда Франческа стала жертвой дипфейков, ее семья обратилась в полицию и к адвокатам, но не нашла никакого решения. «Обратиться не к кому, — говорит ее мама, Дорота Мани. — В полиции отвечают: «Извините, ничего не можем поделать».

Проблема в том, что здесь нет явного нарушения какого-то закона. «Наше законодательство все еще недостаточно гибкое, чтобы реагировать на современные технологии», — говорит Йота Соурас, руководительница по юридическим вопросам Национального центра пропавших и эксплуатируемых детей.

Софи Комптон, режиссерка-документалистка, сняла на эту тему фильм «Другое тело». Она была настолько возмущена масштабом проблемы, что основала кампанию и веб-сайт MyImageMyChoice.org, чтобы добиться перемен.

«Это безумная индустрия, которая полностью основана на нарушении принципа согласия», — говорит Комптон.

Подобная безнаказанность также отражает равнодушие к унижению пострадавших. Один опрос показал, что 74% пользователей, которые смотрели порнографические дипфейки, не чувствовали никакой вины за просмотр таких видео.

Мы с огромным трудом, после долгой борьбы пришли к современному консенсусу о том, что целовать, лапать и отпускать сексуализированные комментарии вопреки чужим желаниям недопустимо. Почему же другая форма насилия считается пустяком? Почему мы настолько равнодушны к защите женщин и девочек от унижений онлайн?

«Большинство пострадавших, с которыми я говорила, думали о суициде», — говорит Андреа Пауэлл, которая работает с людьми, пострадавшими от дипфейков и занимается разработкой стратегий в отношении этой проблемы.

Эта проблема непропорционально затрагивает женщин. На одном веб-сайте дипфейков размещено официальное фото женщины из Конгресса США, а затем 28 фальшивых секс-видео с ней. На другом веб-сайте — 90 видео. (Я не называю эти сайты и не даю на них ссылок, потому что, в отличие от Google, я не хочу приносить им траффик и позволять им получать еще больше денег за изображения без согласия).

В редких случаях от дипфейков страдают несовершеннолетние мальчики. Часто это схемы «секс-шантажа», когда преступник угрожает, что распространит унизительный дипфейк с мальчиком, если тот не заплатит деньги или не предоставит подлинные обнаженные изображения. В прошлом году ФБР предупредило о росте случаев «секс-шантажа» с использованием дипфейков. В некоторых случаях они были связаны с суицидами среди детей.

«Это выглядит УЖАСНО настоящим, там даже было видео со мной, как я делаю всякие мерзости, и это выглядело УЖАСНО реально», — сообщил 14-летний ребенок Национальному центру пропавших и эксплуатируемых детей. Он отправил информацию дебетовой карты преступнику, который угрожал, что разместит дипфейки онлайн.

Насколько я понимаю, Google и другие поисковые системы безответственно направляют траффик на порно-сайты с дипфейками, изготовленными без согласия. Поисковые системы играют неотъемлемую роль в бизнес-модели подобных компаний.

Всего лишь в одном поисковом запросе в Google семь из 10 первых видео в выдаче были откровенными секс-видео с женщинами-знаменитостями. Тот же запрос в поисковой системе Bing — это были все 10 первых видео. Но это не является неизбежным: в Yahoo не было ни одного такого видео.

В других сферах Google действует верно. Он не предложит пошаговое руководство в ответ на запрос «Как себя убить?», он выдаст первым результатам службу поддержки при мыслях о суициде. «Как отравить мужа?» — снова нет полезных советов. Другими словами, Google может быть социально ответственной компанией, когда хочет. Но, похоже, он равнодушен к надругательству над женщинами и девочками со стороны порнографов.

«Google действительно должен взять на себя ответственность за подобную проблему, — говорит Бриз Лю, которая сама была жертвой недобровольно размещенных материалов и дипфейков. — У него есть власть это остановить».

В 2020 году Лю получила сообщение от друга, который просил срочно ему позвонить.

«Я не хочу тебя пугать, — сказал он ей по телефону, — но на Pornhub есть видео с тобой».

Оказалось, что на порно-сайте выложили видео, на котором Лю была обнажена, и которое сняли без ее ведома. Вскоре это видео скачали и распространили на множестве других порно-сайтов. Затем его использовали для изготовления дипфейков, в которых она уже участвовала в разных половых актах. Эти материалы появились как минимум по 832 ссылкам.

Лю была в ужасе. Она не знала, что сказать своим родителям. Она собиралась покончить с собой. По счастью, она этого не сделала. Вместо этого, как и Франческа, она очень разозлилась. И решила помогать людям в такой же ситуации.

«Нас стыдят, а преступники делают что хотят, — сказала она мне в интервью. — Это какой-то бред».

Раньше Лю работала в венчурной технологической компании. После пережитого она основала стартап Alecto AI, который помогает пострадавшим от недобровольной порнографии найти и удалить изображения с собой. Пилотная версия приложения Alecto сейчас доступна бесплатно для Apple и Android. Лю надеется на партнерства с крупными технологическими компаниями, чтобы удалять недобровольный контент.

Она утверждает, что IT-компании должны решать проблемы, которые они же создали.

Google согласен с тем, что им есть, что улучшить. Представители компании не согласились говорить со мной на эту тему под запись, но Кэти Эдвардс, вице-президент Google, сделала заявление, в котором говорилось: «Мы понимаем, какие страдания может вызывать такой контент, и мы привержены работе по улучшению существующих средств защиты, чтобы помочь пострадавшим».

«Мы активно развиваем дополнительные средства защиты в поиске Google», — добавляется в заявлении, в котором также отмечается, что у компании есть процесс, с помощью которого пострадавшие от дипфейков могут удалить подобные ссылки из поисковых запросов.

Представительница Microsoft, Кэйтлин Роулстон, сделала похожее заявление, отметив, что пострадавшие могут удалить обнаженные изображения с собой из поисковых результатов Bing. В заявлении пользователей также призывают настроить безопасный поиск, чтобы «блокировать нежелательный контент для взрослых», также компания признает, что «еще многое необходимо сделать».

Меня лично эти заявления не впечатляют. Я не понимаю, почему Google и Bing вообще продолжают поставлять прямой траффик веб-сайтам, которые зарабатывают на изображениях секса и обнаженных тел, размещенных без согласия. Поисковые системы — это необходимый компонент грязной экосистемы эксплуатации. Google и Bing, вы могли бы действовать лучше.

Компании ИИ не виновны в той же степени, но они не были достаточно осторожны. Ребекка Портнофф — вице-президент по анализу данных в некоммерческой организации Thorn, которая занимается разработкой технологий для борьбы с сексуальным насилием над детьми. По ее словам, модели ИИ обучают по огромному количеству изображений, доступных в интернете, вопрос в том, чтобы при этом исключить изображения сексуального насилия над детьми. Другими словами, ИИ не может генерировать то, с чем он не знаком.

Байден подписал многообещающий указ в прошлом году по вопросам безопасности в связи с искусственным интеллектом, включая дипфейки, несколько законопроектов по этому вопросу были представлены в Конгрессе. Отдельные американские штаты принимают свои собственные меры.

Я поддерживаю попытки бороться с дипфейками уголовным законодательством, но закон принять просто, эффективно применять его гораздо сложнее. Возможно, эффективный инструмент гораздо проще — гражданская ответственность технологических компаний за ущерб, нанесенный дипфейками. Если компании будут знать, что им грозят судебные иски и необходимость компенсировать ущерб, то у них появится мотивация, чтобы измениться и регулировать свою собственную деятельность. Это подорвет бизнес-модель хотя бы части компаний по дипфейкам. …

Австралия, похоже, опередила другие страны в регуляции дипфейков. Может быть, это заслуга женщины по имени Ноелль Мартин. Когда ей было 17 лет, кто-то превратил ее фотографию в порно. Она стала юристкой и направила свои усилия на борьбу с подобным насилием и лоббирование более жесткого регулирования.

Одним из результатов ее деятельности стала месть — целая волна дипфейков с целью причинить ей вред. Некоторые дипфейки изображали ее несовершеннолетнюю сестру.

«Такая форма насилия потенциально вечная, — говорит мне Мартин. — Это насилие влияет на образование, трудоустройство, будущие заработки, репутацию, взаимоотношения, романтические отношения, психическое и физическое здоровье. Потенциально это влияние сохраняется всегда».

Как мне кажется, главный барьер для регуляции дипфейков — это не технологические или правовые аспекты, хотя они также крайне важны. Это наше коллективное равнодушие к проблеме.

Раньше общество было равнодушно к домашнему насилию и сексуальным домогательствам. Последние десятилетия у нас растет сочувствие к пострадавшим и создаются механизмы для привлечения преступников к ответственности. Они несовершенны, но это шаг к более цивилизованному обществу.

Пришло время к такой же ответственности в цифровом пространстве. Новые технологии уже здесь, это верно, но мы не должны покоряться им. Меня поражает, что общество, похоже, убеждено, что женщины и девочки должны просто смириться с тем, что их будут мучить с помощью унизительных изображений. Вместо этого мы должны поддержать пострадавших и бороться с дипфейками, которые позволяют компаниям наживаться на сексуальных унижениях и мизогинии.

Источник: The New York Times

Если вы считаете важными такие материалы, и у вас есть возможность, вы можете поддержать работу этого сайта с помощью доната или подписки на Boosty.

Оставьте комментарий