Статьи

Раздевание с помощью искусственного интеллекта: популярность сервисов Deepfake Nude стремительно растёт

Создание вредоносных дипфейков распространилось далеко за пределы круга знаменитостей и общественных деятелей, и в новом отчете об интимных изображениях без консенсуса (NCII) говорится, что эта практика только растет по мере развития и распространения генераторов изображений.

В пятницу говорится, что «раздевание с помощью искусственного интеллекта» находится на подъеме. отчет компания Graphika, занимающаяся аналитикой социальных сетей, которая описывает практику ее использования. генеративные инструменты искусственного интеллектанастроен на удаление одежды из изображений, загружаемых пользователями.

В начале этого года игровое и стриминговое сообщество Twitch столкнулось с проблемой, когда известный телеведущий Брэндон «Атриок» Юинг случайно рассказал, что смотрел созданное искусственным интеллектом дипфейковое порно с женщинами-стримерами, которых он называл своими подругами. отчет Котаку.

Юинг вернулся на платформу в марте, раскаявшись и отчитавшись о неделях работы, которую он предпринял для уменьшения ущерба. Но инцидент открыл шлюзы для всего интернет-сообщества.

Как следует из отчета Graphika, инцидент был лишь каплей в море.

«Используя данные, предоставленные Meltwater, мы измерили количество комментариев и постов на Reddit и X, содержащих реферальные ссылки на 34 веб-сайта и 52 канала Telegram, предоставляющих синтетические услуги NCII», — написал аналитик разведки Graphika Сантьяго Лакатос. «Общее число составило 1280 в 2022 году по сравнению с более чем 32 100 в этом году, что представляет собой увеличение объема на 2408% в годовом исчислении».

Нью-йоркская компания Graphika утверждает, что взрыв NCII показывает, что инструменты переместились из нишевых форумов в кустарное производство.



«Эти модели позволяют большему количеству поставщиков легко и дешево создавать фотореалистичные NCII в больших масштабах», — заявили в Graphics. «Без таких поставщиков их клиентам пришлось бы размещать, поддерживать и запускать свои собственные модели распространения изображений — трудоемкий, а иногда и дорогостоящий процесс».

Graphika предупреждает, что рост популярности инструментов для снятия искусственного интеллекта может привести к большему, чем просто подделке порнографический материалов, но и целенаправленному преследованию, сексуальному вымогательству и созданию материалов, содержащих сексуальное насилие над детьми (CSAM).

В соответствии с отчет Graphika, разработчики инструментов для удаления искусственного интеллекта, размещают рекламу в социальных сетях, чтобы привлечь потенциальных пользователей на свои веб-сайты, в частный чат Telegram или на серверы Discord, где можно найти инструменты.

«Некоторые провайдеры открыто рассказывают о своей деятельности, заявляя, что предоставляют услуги по раздеванию, и публикуя в качестве доказательств фотографии людей, которых, по их утверждениям, раздевали», — пишет Graphika. «Другие менее откровенны и представляют себя как службы искусственного интеллекта или фотогалереи Web3, включая ключевые термины, связанные с синтетическим NCII, в своих профилях и сообщениях».

Хотя ИИ обычно фокусируется на фотографиях, искусственный интеллект также используется для создания глубоких фейков. видео использование изображений знаменитостей, в том числе личностей YouTube Мистер Зверь и культовый голливудский актер Том Хэнкс.

Некоторым актерам нравится Скарлетт Йоханссон и индийский актер Анил Капуробращаются к правовой системе для борьбы с постоянной угрозой дипфейков с использованием искусственного интеллекта. Однако, хотя лучшие артисты могут получать больше внимания средств массовой информации, аниматоры для взрослых они говорят, что их голоса редко слышны.

В отдельном отчете, опубликованном в октябре, британская организация по надзору за Интернетом Internet Watch Foundation (IWF) отметила, что всего за один месяц на одном форуме даркнета было обнаружено более 20 254 изображений жестокого обращения с детьми. IWF предупредила, что детская порнография, созданная ИИ, может «переполнять«Интернет.

IWF предупреждает, что в связи с достижениями в области визуализации искусственного интеллекта фальшивый Порнография продвинулась настолько далеко, что становится все труднее отличить изображения, созданные искусственным интеллектом, от подлинных изображений, что заставляет правоохранительные органы преследовать онлайн-фантомов, а не реальных жертв насилия.

«Поэтому вы все еще не можете доверять, реальны ли вещи или нет», — сказал РасшифроватьТехнический директор Internet Watch Foundation Дэн Секстон. «Вещи, которые скажут нам, реальны вещи или нет, не являются на 100% точными, и поэтому им тоже нельзя доверять».

Что касается Юинга, Kotaku сообщил, что стример вернулся, заявив, что он работал с журналистами, технологами, исследователями и женщинами, пострадавшими от инцидента, с момента его неправомерного поведения в январь. Юинг также сообщил, что отправил средства в юридическую фирму Райана Моррисона в Лос-Анджелесе. Моррисон Куперпредоставлять юридические услуги любой женщине на Twitch, которая нуждалась в их помощи, рассылая уведомления об удалении на сайты, размещающие их изображения.

Юинг добавил, что он получил исследование глубины проблемы дипфейков от загадочного исследователя дипфейков Женевьев О.

«Я пытался найти светлые моменты в борьбе с этим типом контента», — сказал Юинг.


Подборка статей по криптовалютам и технологии блокчейн. Подпишитесь на нас в социальных сетях.

Информация для Вас была полезна?
0
0
0
1
0
0
0

Похожие статьи

Кнопка «Наверх»