Хакеры начали использовать искусственный интеллект, в том числе ChatGPT, для создания вредоносного кода. Об этом сообщил портал DigitalTrends со ссылкой на ФБР.
Иностранное ведомство объяснило, что чат-боты с искусственным интеллектом способствуют незаконной деятельности мошенников.
«Мы ожидаем, что со временем, по мере того, как внедрение и демократизация моделей ИИ продолжится, эти тенденции будут усиливаться», — заявил высокопоставленный чиновник.
Злоумышленники используют ИИ в дополнение к своей обычной преступной деятельности, в том числе используют генераторы голоса ИИ , чтобы выдавать себя за доверенных лиц.
Позиция ФБР сильно отличается от позиции некоторых киберэкспертов. В мае они заявили, что угроза со стороны чат-ботов с искусственным интеллектом в значительной степени преувеличена, и большинство хакеров находят более эффективные эксплойты кода из более традиционных утечек данных и открытого исходного кода.
Например, директор по техническим решениям в Bitdefender Мартин Зугек объяснил, что большинство начинающих авторов вредоносного ПО вряд ли обладают необходимыми навыками, чтобы обойти барьеры защиты от вредоносных программ чат-ботов. Также качество вредоносного кода, созданного чат-ботами, как правило, низкое.