24.10.2023 В последние несколько лет технологии генерации изображений и голоса стремительно развиваются. Синтез речи сейчас можно встретить в любом типе озвучки: от объявлений в госучреждениях до полноценных видео. С каждым годом сгенерированная речь всё меньше отличается от настоящей, однако пользуются этим не только деятели искусства, но и мошенники.
Если раньше, мошенники рассылали смс с текстом: «Мама, я в беде! Некогда объяснять! Перечисли такую-то сумму на такую-то карту!», то теперь они могут звонить и запускать жалобные послания, сгенерированные голосами их близких. Другой вариант преступного использования голоса и внешности человека при помощи нейросетей — создание порочащих его честь и достоинство аудио или видео в целях дискредитации или шантажа.
В новом выпуске «Вечернего Санкт-Петербурга» Артём Швайка, генеральный директор ЮК «Эклекс», отметил, что специальной уголовной ответственности за использование злонамеренных дипфейков в российском законодательстве пока не существует. Случаи мошенничества с применением таких технологий караются по общим нормам о мошенничестве. Летом 2023 года правительство РФ не поддержало законопроект о введении специальной уголовной ответственности за злонамеренные дипфейки, посчитав, что подобные деяния пока не обладают достаточной степенью общественной опасности и что для регулирования ответственности в этой сфере уже существует ст. 137 УК РФ «Нарушение неприкосновенности частной жизни».
«Одним словом, ответственность за мошенничество и шантаж, в том числе и с применением чужого изображения и голоса, устанавливает Уголовный кодекс. Но иногда изображение или сгенерированный голос человека используют не в преступных, а в коммерческих целях — может ли человек, которому они принадлежат, запретить их использование или потребовать вознаграждение?», — заключил Артём Николаевич.
Источник: «Вечерний Санкт-Петербург»