Это новое явление вызывает серьезную озабоченность среди специалистов по кибербезопасности.
"Сегодня существует огромное количество инструментов, которые позволяют создавать поддельные видео и аудиосообщения, и преступники могут использовать их даже без специальных технических навыков", - отметил Евгений Егоров, ведущий аналитик компании F6 по защите от цифровых рисков. Это подчеркивает необходимость более строгого контроля за распространением поддельных записей.Дмитрий Аникин, руководитель направления исследования данных в "Лаборатории Касперского", указал на то, что для повторения голоса человека достаточно даже короткой записи, однако качество такого аудио может оставлять желать лучшего. Это означает, что необходимо развивать новые методы аутентификации и защиты от подделок в цифровом пространстве.В современном мире технологии развиваются с невероятной скоростью, и одной из самых обсуждаемых тем является создание дипфейков. Как отмечает Максим Бузинов, руководитель R&D-лаборатории Центра технологий кибербезопасности ГК "Солар", для точного воссоздания тембра голоса достаточно всего лишь трех секунд записи. Однако для передачи эмоций и характерных черт голоса требуется значительно более продолжительная запись. Это подчеркивает сложность и многообразие задач, стоящих перед специалистами в области кибербезопасности.Фиксация источников дипфейков представляет собой серьезную проблему, поскольку эксперты чаще всего сталкиваются с уже готовыми имитациями голосов, что затрудняет установление их происхождения. В этом контексте Никита Новиков, эксперт по кибербезопасности из Angara Security, подчеркивает, что автоответчики стали одним из наиболее распространенных способов получения реального голоса человека. Это открывает новые возможности для мошенников, которые, используя такие технологии, могут получить не только телефонный номер, но и образец голоса, не прибегая к сложным методам взлома или другим манипуляциям.После получения этих данных преступники записывают голос жертвы и загружают аудиофайл в нейросеть, которая затем воспроизводит голос с необходимыми характеристиками. Это создает серьезные риски для безопасности, поскольку такие технологии могут быть использованы для обмана и манипуляций, что ставит под угрозу личные данные и финансовую безопасность граждан. Важно, чтобы общество осознавало эти угрозы и принимало меры для защиты от возможных злоупотреблений, связанных с использованием дипфейков.Современные технологии, особенно в области искусственного интеллекта, открывают новые горизонты, но вместе с тем создают серьезные угрозы в сфере безопасности. Аудиозаписи, созданные с помощью ИИ, становятся инструментом для множества преступных схем. Они могут использоваться для мошеннических просьб о займе денег, которые рассылаются как коллегам жертвы, так и её родственникам. Эксперты подчеркивают, что с каждым днем искусственный интеллект совершенствуется, и его способность создавать поддельные аудиозаписи становится все более впечатляющей. Интонации и манера речи становятся настолько естественными, что отличить подделку от оригинала становится крайне сложно. "Создание высококачественного аудиофейка с разнообразным контентом требует не только значительных затрат, но и высокой квалификации специалистов. Поэтому такие сложные и качественные подделки, которые могут включать в себя разнообразные элементы, относятся к категории таргетированного фишинга", – отметил Бузинов.Таким образом, важно осознавать, что с развитием технологий мошенники получают все более эффективные инструменты для обмана. Применение таких аудиозаписей может привести к серьезным финансовым потерям и утрате доверия в личных и профессиональных отношениях. Необходимо повышать осведомленность общества о таких угрозах и развивать навыки критического мышления, чтобы противостоять подобным атакам.Подделка голосов становится все более распространенной проблемой, и, несмотря на то, что некоторые алгоритмы могут обнаружить артефакты искусственного голосового контента, существующие средства анализа не всегда обладают достаточной эффективностью. Эксперты отмечают, что проверка подлинности голосовых сообщений остается сложной задачей из-за недостатка специализированных инструментов.Для защиты от возможного мошенничества рекомендуется не использовать автоответчики, а обращаться к услугам операторов связи, которые могут предложить более надежные инструменты. Например, вместо обычного автоответчика можно установить систему, где на звонки отвечает искусственный интеллект или робот.Один из специалистов, Новиков, подчеркнул важность использования роботизированных аналогов для предотвращения возможности подделки голоса злоумышленниками. Такой подход поможет уменьшить риски и защитить личные данные от несанкционированного доступа. В конечном итоге, внедрение современных технологий и методов обработки голосовых данных может сделать процесс аутентификации голосовых сообщений более надежным и безопасным.Для того чтобы избежать попадания в ловушку мошенников, эксперты настоятельно рекомендуют всегда проверять информацию, поступающую от отправителя звонка, сравнивая ее с номером, сохраненным в телефонной книге. Кроме того, важно придерживаться правил безопасного общения в мессенджерах и тщательно проверять всю получаемую информацию.Если вы получаете звонок от знакомого с просьбой о передаче или переводе денег, рекомендуется самостоятельно перезвонить им и задать два вопроса: один, ответ на который знают только они, и другой, который неправильный для них, но обычный для постороннего человека. Это советует Дмитрий Бурмашов, старший инженер по информационной безопасности в компании R-Vision.Безопасность в сети и защита от мошенничества становятся все более актуальными в нашем цифровом мире. Поэтому важно быть внимательным и бдительным, следить за своей личной информацией и применять рекомендации экспертов для предотвращения возможных угроз.Современные технологии, к сожалению, открывают новые возможности не только для бизнеса, но и для преступников. В последние годы стало очевидно, что телефонные и интернет-мошенники становятся все более активными и изощренными. По данным экспертов, ежедневно они похищают у россиян около одного миллиарда рублей. Это колоссальная сумма, которая в год достигает сотен миллиардов рублей и продолжает расти на 20–30% ежегодно. Каждый мошенник совершает от 300 до 400 звонков в день, что подчеркивает их настойчивость и организованность. Учитывая масштабы проблемы, важно осознавать, что жертвой может стать каждый из нас. Мошенники используют различные схемы, включая фишинг, подмену номеров и социальную инженерию, чтобы обмануть доверчивых граждан.Для борьбы с этой угрозой необходимо повышать осведомленность населения о методах мошенничества и способах защиты. Также важно, чтобы правоохранительные органы активно работали над пресечением таких преступлений. В конечном итоге, только совместными усилиями мы сможем снизить уровень мошенничества и защитить свои финансы.Мошенники стали использовать записи автоответчиков в РФ для создания дипфейков

Новые статьи
© 2014-2024 Информационный портал «mskst.ru». Настоящий ресурс может содержать материалы 18+. Использование материалов издания - как вам угодно, никаких претензий со стороны нашего СМИ не будет. Мнение редакции может не совпадать с мнением авторов публикаций. Контакты редакции: +7 (495) 765-41-64, info@rim.media