Нюд-нейроночка: искусственный интеллект научился раздевать женщин
Сервисы, которые «раздевают» женщин на фотографиях при помощи искусственного интеллекта, активно рекламируют в соцсетях. А вот закона, который бы обезопасил взрослых людей от дипфейков, до сих пор не приняли.
Популярность приложений и сайтов, где при помощи искусственного интеллекта можно «раздевать» женщин на фото, стремительно растет: по данным аналитической фирмы Graphika, только в сентябре ими воспользовались 24 млн человек, передает Bloomberg.
Как сообщают аналитики, многие подобные сервисы используют для своей рекламы популярные социальные сети, в том числе X и Reddit, где с начала года число ссылок на приложения для «раздевания» возросло на 2400%.
Кстати, большинство сервисов работают только с изображениями женщин. Для воссоздания изображения обнаженного человека сервисы применяют искусственный интеллект. Чаще всего фотографии берут из социальных сетей, а затем обрабатывают и распространяют их без согласия владельца. С развитием ИИ пользователи могут создавать все более реалистичные изображения, отмечает аналитик Graphika Сантьяго Лакатос.
В рекламе одного из приложений, размещенной в X, говорилось, что пользователь может создать фотографию обнаженного тела, а затем прислать ее человеку, который там изображен, — тем самым авторы объявления подстрекают к преследованию и домогательствам, отмечают аналитики. Некоторые приложения отображаются как спонсируемый контент на YouTube и выпадают первыми при поиске по слову nudify, - пишет РБК.
Представитель Alphabet (владеет YouTube) заявил агентству, что компания не разрешает размещать рекламу, «содержащую откровенно сексуальный контент». В X и Reddit не ответили на запросы Bloomberg.
В дополнение к росту трафика, сервисы, некоторые из которых взимают 9,99 долларов в месяц, утверждают на своих веб-сайтах, что они привлекают много клиентов.
“Они делают большой бизнес”
, - сказал Лакатос. Описывая одно из приложений для раздевания, он доавил: “Если поверить им на слово, то на их веб-сайте бывает более тысячи пользователей в день”.
Директор по кибербезопасности Electronic Frontier Foundation Ева Гальперина отмечает, что подобными программами все чаще пользуются «обычные люди с обычными целями». По ее словам, многие так и не узнают, что их фотографии могли использовать для создания дипфейков. Но даже если это произойдет, инициировать расследование или судебное разбирательство сложно, отмечает специалист.
Источник:
85 комментариев
Год назад
Это террорист какой-то, а не интеллект
Удалить комментарий?
Удалить ОтменаГод назад
Удалить комментарий?
Удалить ОтменаГод назад
Удалить комментарий?
Удалить Отмена