Рост поддельные порно и как оно может быть использовано для шантажа
Опубликованно 02.01.2019 16:40
Только, это не совсем вы, но шокирующе подделку, которая выглядит и звучит так же, как вы.
Ваши варианты, чтобы заплатить и надеюсь, что шантажист держит свои слова, или прорываться убедить всех — в том числе и чужих, кто найти его в интернете — что вы невиновны.
Это тревожная реальность, которая не только возможно, благодаря быстро развивающейся и широко применяемой технологии, но уже в новом тренде под названием ‘вредоносных deepfakes’.
Жертвой в США заявил "Вашингтон Пост" , что она обнаружила видео ее лицо цифровой сшитые на тело порнографией актриса, циркулирующих в интернете.
“Я чувствую себя оскорбленным — эта бяка рода нарушения,” женщина, которая находится в ее 40-х годах, рассказал газете. “Это такое странное чувство, как будто вы хотите оторвать все с интернета. Но вы знаете, вы не можете”.
Убедительных подделок невинных людей в откровенных видео будут появляться онлайн и власти пытаются бороться с тревожной новой тенденции.
В докладе говорится, что подобные фейки, сделанные с использованием открытых источников технологии машинного обучения, разработанная Google, использовались для того, чтобы угрожать, запугивать и вымогать женщин.
Голливудская звезда Скарлетт Йоханссон стала жертвой тошнотворный тренд, с десятками трудно заметить поддельные секс видео циркулирующих в интернете.
В одном случае, в видео описано, как просочилось секс-видео было просмотрено почти два миллиона раз.
“Ничто не может остановить кого-то от вырезания и вставки мои изображения или кого-либо другого на другое тело и делает его выглядеть, как до жути реалистично, как хотелось”, - сказал Йоханссон.
Другие звезды, у певицы Тейлор Свифт, чтобы Чудо-женщина актриса Галь Гадот, были вставлены в аналогично мерзкое видео.
Но технология дала те зловещие и коварные мотивы возможность быстро испортить кому-то жизнь по щелчку мыши.
Технология, разработанная компанией Google с открытым исходным кодом, это означает, что это доступно любому.
ПРОВЕЛ НА ВЫКУП
В 2016 году, человек в Калифорнии был обвинен в пристреливать его экс-жена, а в начале этого года
Индийский журналист Ранау Айюб оказалась жертвой видео deepfake.
Она быстро распространилась через социальные медиа в отместку на листе она написала разоблачение коррупции в правительстве.
“То, что ты шлюха и ненависти чувствовала, как наказывают толпой для моей работы в качестве журналиста, пытаясь заставить меня замолчать,” МС Айюб написал в колонке для Нью-Йорк Таймс.
“Она была направлена на то, чтобы унизить меня, сломать меня, пытаясь определить меня как ‘беспорядочный’, ‘развратная женщина’”.
Технология позволяет сделать подделку видео практически любого человека, как этот Барака Обамы.
Есть форумы в интернете, посвященные deepfakes, где пользователи могут делать запросы для женщин, они хотят вставить в нелестных и, как правило, порнографического сценария.
И создатели тоже платно — как правило, около 20 $за штуку для тех, кто хочет готовых видео бывших, коллег, друзей, врагов и одноклассников.
Исследователи тестируют технологию создания видео Барак Обама в ходе своего выступления, сопоставление его мимику с тысячами доступных образов и кадров.
С использованием искусственного интеллекта, конечный продукт выглядел и звучал, как бывший президент США, кроме того, что он никогда не произносил этих слов.
И хотя исход был невиновен, весело и чисто для примера, он показал, как легко кто-то мог использовать эту технологию во зло.
Для жертвы дал интервью газете "Вашингтон Пост", выяснилось, что создателю нужны только 450 ее изображения, все получены из поисковых систем и социальных медиа.
Четырехмерное Лю, адъюнкт-профессор компьютерных наук в Университете Олбани, сказал, что были некоторые тонкие намеки, что видео может быть подделкой.
“Когда алгоритм deepfake обучается на изображения лица человека, это зависит от фотографий, которые доступны в интернете, которые могут быть использованы в качестве тренировочных данных”, - сказал он.
“Даже для людей, которые часто фотографируют, несколько изображений, которые доступны в интернете, показывая закрытыми глазами.
“Без подготовки изображения людей моргая, алгоритмы deepfake, менее вероятно, чтобы создать грани, которые обычно мигают.”
Команда кибер экспертов выступать в качестве цифрового детективы, поиск и искоренение актов мести порно в Австралии, в рамках усилий комиссар безопасное. Фото: Бриан Макин
Однако, г-н Лю признает, что программное обеспечение, предназначенное для сканирования для фальшивок изо всех сил пытается идти в ногу с достижениями в технологии, которая создает их.
“Люди, которые хотят, чтобы запутать общественность будут лучше на ложные видео — и мы, и другие в технологическое сообщество должны продолжать искать пути, чтобы обнаружить их.”
ОГРОМНЫЕ РИСКИ
В исследовательском документе, опубликованном в этом году, Роберт Чесни из Техасского университета и Даниэль Ситрон из Университета Мэриленда сказал, что ущерб может быть “глубоким”.
“Жертв может чувствовать себя униженным и напуганным,” они написали.
“Когда потерпевшие обнаруживают, что они были использованы в поддельные секс видео, психологическая травма может быть глубоким — Будь или не это было целью создателя видео.”
Технологии стремительно развиваются, делая фейки все более трудно обнаружить.
Они могут быть использованы, чтобы вымогать и угрожать потерпевшим, чтобы распространять дезинформацию в более тревожная эпоха фейковая новость, или на подкуп выборных должностных лиц, доклад предупреждает.
Или эти псевдо-клипы, которые трудно обнаружить, могут быть использованы для устрашения публики — такие как “объявляет ЧП ‘’ надвигающегося ракетный удар по Лос-Анджелесу или возникающей пандемии в Нью-Йорке, провоцируя панику и хуже”.
В феврале, новые жесткие законы против ‘порноместь, в том числе производство deepfakes — прошел в федеральный парламент, вводя шестизначный финансовых санкций.
Но полицейских в интернете является крайне трудной задачей.
“Физические лица и предприятия столкнутся с новыми формами эксплуатации, запугивания и личные саботаж,” профессор чесные и цитрон писал. “Риски для нашей демократии и национальной безопасности являются глубокими, а также.
“Методы машинного обучения идет наращивание сложности технологии, делая глубокие подделок еще более реалистичным и более устойчивы к обнаружению.”
Продолжать разговор shannon.molloy@news.com.au
Австралийцев, пострадавших от имидж - и видео-злоупотребления могут сообщать о фактах уполномоченному безопасное
Категория: Интернет