Нюд-нейроночка: искусственный интеллект научился раздевать женщин
Сервисы, которые «раздевают» женщин на фотографиях при помощи искусственного интеллекта, активно рекламируют в соцсетях. А вот закона, который бы обезопасил взрослых людей от дипфейков, до сих пор не приняли.
Популярность приложений и сайтов, где при помощи искусственного интеллекта можно «раздевать» женщин на фото, стремительно растет: по данным аналитической фирмы Graphika, только в сентябре ими воспользовались 24 млн человек, передает Bloomberg.
Как сообщают аналитики, многие подобные сервисы используют для своей рекламы популярные социальные сети, в том числе X и Reddit, где с начала года число ссылок на приложения для «раздевания» возросло на 2400%.
Кстати, большинство сервисов работают только с изображениями женщин. Для воссоздания изображения обнаженного человека сервисы применяют искусственный интеллект. Чаще всего фотографии берут из социальных сетей, а затем обрабатывают и распространяют их без согласия владельца. С развитием ИИ пользователи могут создавать все более реалистичные изображения, отмечает аналитик Graphika Сантьяго Лакатос.
В рекламе одного из приложений, размещенной в X, говорилось, что пользователь может создать фотографию обнаженного тела, а затем прислать ее человеку, который там изображен, — тем самым авторы объявления подстрекают к преследованию и домогательствам, отмечают аналитики. Некоторые приложения отображаются как спонсируемый контент на YouTube и выпадают первыми при поиске по слову nudify, - пишет РБК.
Представитель Alphabet (владеет YouTube) заявил агентству, что компания не разрешает размещать рекламу, «содержащую откровенно сексуальный контент». В X и Reddit не ответили на запросы Bloomberg.
В дополнение к росту трафика, сервисы, некоторые из которых взимают 9,99 долларов в месяц, утверждают на своих веб-сайтах, что они привлекают много клиентов.
“Они делают большой бизнес”
, - сказал Лакатос. Описывая одно из приложений для раздевания, он доавил: “Если поверить им на слово, то на их веб-сайте бывает более тысячи пользователей в день”.
Директор по кибербезопасности Electronic Frontier Foundation Ева Гальперина отмечает, что подобными программами все чаще пользуются «обычные люди с обычными целями». По ее словам, многие так и не узнают, что их фотографии могли использовать для создания дипфейков. Но даже если это произойдет, инициировать расследование или судебное разбирательство сложно, отмечает специалист.
Источник:
85 комментариев
Год назад
Удалить комментарий?
Удалить ОтменаГод назад
Удалить комментарий?
Удалить ОтменаГод назад
Удалить комментарий?
Удалить ОтменаГод назад
Удалить комментарий?
Удалить ОтменаГод назад
Удалить комментарий?
Удалить ОтменаГод назад
Удалить комментарий?
Удалить Отмена