Поиск по сайту:

5 технологий искусственного интеллекта, которые хакеры могут использовать по-новому


Технологии искусственного интеллекта могут изменить многие отрасли, но, по крайней мере, в большинстве случаев мы видим, что в долгосрочной перспективе они будут скорее полезными, чем вредными. Однако эти новые инструменты также открывают много новых возможностей для гнусных типов.

Искусственный интеллект на естественном языке для усиленных фишинговых атак

Способность понимать и воспроизводить естественный человеческий язык была одной из главных целей исследований ИИ с самых первых дней. Сегодня у нас есть синтетическое голосовое производство, сложные чат-боты, генераторы текста на естественном языке и многие другие технологии, основанные на искусственном интеллекте.

Эти приложения идеально подходят для фишинговых атак, когда хакеры выдают себя за законных лиц и их представителей, чтобы получить конфиденциальную информацию от людей. Благодаря этим новым технологиям вы можете заставить агентов ИИ массово выдавать себя за людей через электронную почту, телефонные звонки, обмен мгновенными сообщениями или где-либо еще, где люди общаются друг с другом через компьютерную систему.

В отличие от известного нам фишинга, это будет похоже на «целевой» фишинг с турбонаддувом, когда попытки направлены против конкретных лиц с информацией о них, в частности, чтобы сделать мошенничество более эффективным. Например, программное обеспечение ИИ может выдавать себя за чьего-то босса и просить перевести деньги на счет в варианте фишинга, известном как мошенничество с генеральным директором.

Глубокая подделка социальной инженерии

Социальная инженерия — это практика хакерства, нацеленная на слабости человеческой психологии и поведения, чтобы обойти жесткие технические меры безопасности. Например, хакер может позвонить секретарю важного лица, представившемуся санитарным работником, и спросить его, куда в настоящее время выбрасывается их мусор. Затем преступник направляется в это место, чтобы найти выброшенные документы или другие улики, которые можно собрать воедино для создания эксплойтов.

Системы глубокого обучения, которые могут воспроизводить лица и голоса (известные как дипфейки), продвинулись до такой степени, что их можно использовать в режиме реального времени. Существуют сервисы, где вы можете отправить образцы своего голоса, а затем получить преобразование текста в речь, которое звучит так же, как вы. В принципе, подобную технологию можно использовать для клонирования любого голоса. Тогда все, что вам нужно сделать, это позвонить или позвонить по видеосвязи кому-то, кто выдает себя за кого угодно, а общественные деятели являются самой легкой целью из всех.

Например, Podcastle Revoice — это одна из таких служб, которая обещает «создать цифровую копию вашего собственного голоса» на основе предоставленных вами голосовых образцов. Podcastle передал нам заявление о том, как он решает эти проблемы:

Потенциал для дипфейков и социальной инженерии с использованием клонирования голоса является серьезным, и поэтому важно, чтобы компании снижали вероятность злоупотреблений. Технология Revoice от Podcastle может использоваться для создания цифровой копии вашего голоса, и поэтому у нас есть четкие рекомендации о том, как можно создавать голоса, а также проверки для предотвращения неправильного использования. Чтобы сгенерировать цифровой голос на нашей платформе, пользователь должен отправить живую запись голоса из 70 различных (т. е. определенных Podcastle) предложений. Это означает, что пользователь не может просто использовать предварительная запись чужого голоса. Эти 70 записей затем вручную проверяются нашей командой, чтобы обеспечить точность одного голоса, а затем записи обрабатываются с помощью нашей модели искусственного интеллекта.

Умный взлом кода и автоматическое обнаружение уязвимостей

Людям требуются часы и часы, чтобы просмотреть строки кода в поисках уязвимостей, либо исправить их, либо использовать их. Теперь мы увидели, что модели машинного обучения, такие как ChatGPT, могут как писать код, так и распознавать уязвимости в отправленном коде, что открывает возможность того, что ИИ может написать вредоносное ПО раньше, чем позже.

Вредоносное ПО, которое обучается и адаптируется с помощью машинного обучения

Ключевая сила машинного обучения заключается в том, что оно может обрабатывать огромные объемы данных и извлекать из них полезные правила и идеи. Разумно ожидать, что будущие вредоносные программы могут воспользоваться этой общей концепцией для быстрой адаптации к мерам противодействия.

Это может привести к ситуации, когда и вредоносные, и антивредоносные системы эффективно превращаются в противоборствующие системы машинного обучения, которые быстро приводят друг друга к более высоким уровням сложности.

Генеративный ИИ для создания поддельных данных

Технологии искусственного интеллекта теперь могут генерировать изображения, видео, текст и аудио, казалось бы, из воздуха. Эти технологии достигли такой степени, что эксперты не могут отличить их от подделки (по крайней мере, с первого взгляда). Это означает, что в будущем вы можете ожидать поток поддельных данных в Интернете.

Например, поддельные профили в социальных сетях прямо сейчас довольно легко обнаружить, поэтому избежать мошенничества с ловлей рыбы или простых кампаний ботов для распространения дезинформации было не так уж сложно для информированной аудитории. Однако эти новые технологии искусственного интеллекта могут генерировать поддельные профили, неотличимые от настоящих.

«Люди» с уникальными лицами со сгенерированными фотографиями всей их фальшивой жизни, уникальной связанной информацией профиля и целыми сетями друзей и семьи, состоящими из других фальшивых людей. Все разговаривают друг с другом, как настоящие люди. С такими сетями поддельных онлайн-агентов злоумышленники могут проводить различные мошенничества и дезинформационные кампании.

Является ли ИИ и лекарством, и болезнью?

Неизбежно, что некоторые люди попытаются использовать любую новую технологию в злонамеренных целях. Что отличает это новое поколение технологии искусственного интеллекта, так это то, что она быстро выходит за пределы человеческих возможностей по ее обнаружению.

Это означает, как это ни парадоксально, что нашей лучшей защитой от этих усиленных искусственным интеллектом способов атаки будут другие технологии искусственного интеллекта, которые борются с огнем огнем. Казалось бы, у вас не остается другого выбора, кроме как смотреть, как они сражаются, и надеяться, что «хорошие парни» одержат верх. Тем не менее, есть несколько вещей, которые вы можете сделать, чтобы защитить себя в Интернете, избежать программ-вымогателей и обнаружить мошенничество на популярных платформах, таких как Facebook, Facebook Marketplace, PayPal и LinkedIn.