BigPikcha.ru (b_picture) wrote,
BigPikcha.ru
b_picture

Category:

Все там будем: нейросеть научили подставлять лица знаменитостей порноактерам

Пользователь Reddit под ником Deepfakes обучил нейросеть созданию фейковых порнороликов со знаменитостями. Теперь стать порноактером, сам того не желая, может кто угодно.

123


В сети появилось порно с участием Галь Гадот. Но на самом деле это не знаменитая актриса, а только ее лицо. Фейковое видео было создано с помощью алгоритма машинного обучения и библиотек TensorFlow и Keras. Deepfakes уже опубликовал видеоролики с «участием» Скарлетт Йоханссон, Мэйси Уильямс, Тейлор Свифт и Обри Плазы.

Deepfakes сообщил, что для создания видео он использовал поиск изображений Google и видео из YouTube. Так что «жертвой» может стать не только знаменитость, но и коллега или просто случайный человек. Искусственный интеллект сопоставляет исходные фотографии с видеозаписью, чтобы картинка выглядела максимально правдоподобно. Исследователь искусственного интеллекта Алекс Шампандар рассказал, что хорошая дорогая видеокарта может справиться с этой задачей за несколько часов, обычный компьютер сделает это за несколько дней.

Тревожный факт заключается в том, что в этом деле не только практически нет никаких технических препятствий, но и недостатка в исходном материале не наблюдается. Так, с 2015 по 2016 год пользователи сети опубликовали больше 24 миллиардов селфи. Так что практически каждого человека можно будет скомпрометировать таким образом.



Порноактриса Грейс Эванджелин (Grace Evangeline) в комментарии порталу Motherboard сказала, что видит такое впервые. Она и раньше встречала фейковые ролики со знаменитостями, но не такие правдоподобные. Эванджелин считает, что делать такие видео без разрешения актрис неправильно.

Бывшая порноактриса Алия Джанин (Alia Janine) тоже осталась недовольна фейковыми видеороликами: «Это показывает, что некоторые люди видят в женщинах только объекты, которыми можно манипулировать. Это полное отсутствие уважения к порноактерам и знаменитым актрисам».

Алекс Шампандар считает, что если «жертвой» фейкового порно может стать любой, то нужно предать это огласке.

«Каждый человек должен знать, насколько легко подделать видео до такой степени, что мы долго не сможем определить, что это подделка. Конечно, это возможно было сделать и раньше, но для этого нужно было много ресурсов и навыков. А теперь такие ролики может сделать любой программист с новейшим компьютерным оборудованием».


«Каждая технология может использоваться с плохими намерениями. Суть в том, насколько она доступна и проста в обращении. Я не думаю, что рост интереса к машинному обучению среди обычных людей — это плохо», — прокомментировал ситуацию Deepfakes.



Смотрите также: Что происходит с актрисами порнофильмов, когда они уходят на пенсию

источник



Понравилось? Жми лайк!
Tags: знаменитости, нейросети, порно, порнофильм, программисты, технологии
Subscribe

Recent Posts from This Journal

Buy for 90 tokens
Buy promo for minimal price.
  • Post a new comment

    Error

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 3 comments