Исследователи разработали метод выявления вредоносных групп ботов в социальных сетях. Ученые научили ИИ определять в соцсетях ботов, которых используют для неэтичной деятельности – накрутки рейтингов, написания ложных положительных отзывов и распространения фейков.
«Для обучения нейросети мы создали специальные группы в социальных сетях, в которые ввели ботов, причем разного качества – и простых, и тех, которые могут хорошо маскироваться под реальных пользователей. После мы оценивали, насколько наши методы правильно определяют ботов и справляются с их маскировкой. Проведенные эксперименты показали, что наши подходы могут обнаруживать даже замаскированных ботов», – говорит один из разработчиков Андрей Чечулин.
Ученые признают, что обмануть систему всё еще можно, создав очень реалистичный аккаунт. Но со временем даже в нем накопится достаточно аномалий, на которые среагирует нейросеть. Точность распознавания в зависимости от качества ботов колеблется от 60 до 90%. Ложных срабатываний – 5–10%.
Метод поможет не только определять ботов, но и оценивать их качество, а также рассчитывать стоимость атаки. Это позволит упростить расследования инцидентов безопасности, причем разработка будет эффективна для ботов, которые пишут сообщения на разных языках.