Согласно ряду специалистов, ежегодный прирост преступлений, совершаемых с применением ИИ, не отражается в официальной статистике, но определяется по количеству ботов и создаваемому ими контенту. Игорь Бедеров, руководитель департамента расследований компании по защите от утечек данных, предупреждает, что к 2025 году прирост таких преступлений может увеличиться в восемь или даже десять раз по сравнению с предыдущим годом.
Эксперты также отмечают, что с развитием технологий ИИ возрастает вероятность использования его для совершения преступлений различного масштаба. Подобные преступления могут охватывать области от кибермошенничества и хакерских атак до манипуляции информацией и создания фейковых новостей. Важно разработать эффективные меры контроля и защиты, чтобы минимизировать угрозу, которую несет с собой использование ИИ в преступных целях.Эксперт в области высоких технологий Виктория Береснева предупреждает о растущей угрозе преступности с использованием искусственного интеллекта. Она отмечает, что помимо автоматизации процессов, новые возможности для персональных атак также способствуют увеличению преступности. Например, нейросеть может создавать фишинговые письма, что может стать серьезной проблемой для безопасности данных.Важно отметить, что в нейросетях есть встроенная защита, но она не всегда эффективна. При помощи промпт-инжиниринга злоумышленники могут обойти эту защиту, предложив боту создать выдуманную ситуацию. Например, представив себя писателем, они могут попросить ИИ написать роман о террористах с инструкцией по созданию взрывного устройства.Алексей Горелкин, гендиректор фирмы, специализирующейся на обучении сотрудников компаний основам информационной безопасности, подчеркивает, что нейросеть не может самостоятельно атаковать пользователей без оператора. Однако с ростом технологий и возможностей искусственного интеллекта, важно быть бдительными и принимать меры по защите от потенциальных угроз.Эксперты предупреждают о том, что до 90% кибергруппировок могут воспользоваться технологиями нейросетей и чат-ботов для обогащения за счет социальной инженерии, как отметил Горелкин. Вместе с тем, возрастает вероятность увеличения роли искусственного интеллекта в создании убедительных дипфейков и автоматизации действий злоумышленников при поиске уязвимостей в системах и приложениях.Тем временем, россияне сталкиваются с проблемой невозможности использования зарубежных чат-ботов, таких как Grok или ChatGPT, из-за трудностей с оплатой с российской банковской карты и блокировки сервисов для российских IP-адресов, подчеркнул IT-эксперт Сергей Поморцев. Он рекомендует обращаться к отечественным аналогам, которые обеспечивают большую безопасность при передаче конфиденциальной информации.Эксперты в области уголовного права, такие как Анатолий Литвинов, подчеркивают, что уже сейчас необходимо внести изменения в законодательную базу РФ, чтобы запретить использование GPT-механизмов для создания запросов, связанных с производством кустарного оружия, а также рецептов, содержащих опасные химические вещества. Это крайне важно для обеспечения безопасности общества и предотвращения возможных преступлений.Помимо этого, эксперты отмечают, что российские сервисы уже используют стоп-слова как фильтры незаконного контента, что является одним из шагов к борьбе с негативными последствиями использования ИИ в противоправных целях. Однако, для более эффективного контроля и регулирования деятельности разработчиков, необходимо дополнительно прописать соответствующие нормы в законодательстве.В целом, деятельность всех отечественных разработчиков генеративного ИИ должна соответствовать декларации "Об ответственной разработке и использовании сервисов в сфере генеративного ИИ" и "Кодексу этики в сфере ИИ", что способствует созданию прозрачной и этичной среды в области искусственного интеллекта. Подписание данных документов крупными организациями является важным шагом к обеспечению безопасности и соблюдению законности в использовании технологий ИИ.Эксперты в области кибербезопасности предупреждали, что злоумышленники могут использовать различные технологии, включая искусственный интеллект, для совершения преступлений. Один из примеров - подрыв Tesla Cybertruck у отеля Trump International Hotel в Лас-Вегасе, организованный при помощи ИИ и ChatGPT Мэттью Ливелсбергером 1 января. Полицейские отмечали, что это первый официально зафиксированный случай преступления с применением искусственного интеллекта.Ранее было отмечено, что для создания дипфейка или "слепка" голоса отправителя злоумышленникам достаточно всего 15 секунд аудиозаписи. Это означает, что современные технологии позволяют создавать убедительные фейки, которые могут быть использованы для мошенничества и других преступных действий. Кроме того, использование изображений лиц людей может усилить эффект дезинформации и манипуляции.Следовательно, необходимо усилить меры безопасности и контроля за использованием технологий ИИ, чтобы предотвратить и пресечь возможные преступные действия, основанные на их злоупотреблении. Важно также обучать общественность различать поддельные материалы и быть бдительными в онлайн-коммуникациях, чтобы минимизировать риски киберпреступности.С целью защиты москвичей от мошенников был запущен проект "Перезвони сам". Этот инновационный проект предоставляет жителям города возможность проверить подлинность звонка и избежать попадания в ловушку аферистов.Благодаря проекту "Перезвони сам" жители Москвы могут быть уверены в том, что звонок, который они получили, действительно является легитимным. Это поможет избежать мошеннических схем, связанных с перехватом личных данных и финансовыми махинациями.Основная идея проекта заключается в том, чтобы дать людям возможность самостоятельно перезвонить по тому же номеру, с которого был получен сомнительный звонок. Таким образом, можно убедиться в том, что абонент на другом конце провода действительно тот, за кого себя выдает, и избежать попадания в ловушку мошенников.Эксперты предположили, что развитие ИИ повлечет кратный рост преступности в 2025 году
Новые статьи
© 2014-2024 Информационный портал «mskst.ru». Настоящий ресурс может содержать материалы 18+. Использование материалов издания - как вам угодно, никаких претензий со стороны нашего СМИ не будет. Мнение редакции может не совпадать с мнением авторов публикаций. Контакты редакции: +7 (495) 765-41-64, info@rim.media