СОЦІАЛЬНА ІНЖЕНЕРІЯ В СУЧАСНИХ МЕСЕНДЖЕРАХ: ЗАСТОСУНКИ ДЛЯ АКТИВНОЇ БЕЗПЕКИ

Автор(и)

DOI:

https://doi.org/10.32782/IT/2023-2-10

Ключові слова:

соціальна інженерія, месенджери, Telegram, бот, ChatGPT.

Анотація

У роботі розглянуто проблеми соціальної інженерії у сучасних месенджерах, запропоновано ознаки для класифікації популярних атак. Увагу акцентовано на месенджері Telegram, власники каналів якого та відвідувачі цих каналів можуть потерпати від втручання шахраїв, яких не завжди вдається вчасно ідентифікувати. Викриття та вилучення шахраїв або зловмисних ботів відбувається в результаті появи певних скарг користувачів, дуже часто, коли мета зловмисного втручання уже реалізована. Це вказує на необхідність розробки нових проактивних рішень. Метою даної роботи є збагачення механізмів активної безпеки для соціальних месенджерів шляхом використання ботів та штучного інтелекту із використанням спеціально створених сценаріїв. Новизна роботи. В роботі запропоновано розташовувати своєрідні аналоги honeypot в просторі спіл- кування. Роль жертви-приманки відводиться спеціально налаштованому, замаскованому під користувача боту, здатному виконувати бесіду згідно заданого сценарію. Розроблено алгоритм роботи бота та відповідний застосунок. Методологія. Соціальна інженерія розглядається як інструмент активної безпеки, спрямований на виявлення вразливостей, якими можуть скористатися зловмисники, а також як захист через зворотне звернення, шляхом одержання інформації від шахраїв, яка їх компрометує. Основні результати. В роботі успішно поєднано розроблені сценарії активної безпеки для реальних українських чатів на момент проведення дослідження, із можливостями ChatGPT, що дозволило реалізувати бот, зі здатностями провадити спілкування згідно заданого фахівцем безпеки сценарію. Виконано тестування боту та відповідного застосунку у каналі Telegram, зі згоди реальних користувачів, що засвідчило працездатність рішення. Висновки. Сучасний рівень засобів штучного інтелекту дозволяє одержувати цінну інформацію про зловмисників в інформаційному просторі, провадити автоматизоване тестування безпеки та реалізовувати інші сценарії активної безпеки. Адміністратори каналів можуть використовувати рішення в якості засобу фільтрації контингенту каналу.

Посилання

Jory MacKay. The 11 Latest Telegram App Scams To Watch Out For. 2023. URL: https://www.aura.com/ learn/telegram-app-scams.

Telegram/bots. 2023. URL: https://core.telegram.org/bots.

Cofense Intelligence™ Strategic Analysis. Abuse of Telegram Bots. 2023. URL: https://cofense.com/ blog/cofense-intelligence-strategic-analysis/.

Abel Toro. Tapping Telegram Bots. 2019. URL: https://www.forcepoint.com/blog/x-labs/tapping-telegrambots

Fabrizio Rendina. A Social Engineering attack using Telegram. 2019. URL: https://www.linkedin.com/ pulse/social-engineering-attack-using-telegram-fabrizio-rendina/.

David Edwards. Social Engineering Taxonomy. 2019. URL: https://www.linkedin.com/pulse/socialengineering- taxonomy-david-edwards/

Huang, Ling, et al. Adversarial machine learning. 2011. Proceedings of the 4th ACM workshop on Security and artificial intelligence.

Zeadally S., Adi E., Baig Z., Khan I. A. 2020. Harnessing artificial intelligence capabilities to improve cybersecurity, IEEE Access, vol. 8, pp. 23817–23837, doi: 10.1109/ACCESS.2020.2968045.

Adi E., Baig Z., Zeadally Sh. 2022. Artificial Intelligence for Cybersecurity: Offensive Tactics, Mitigation Techniques and Future Directions, doi: 10.5604/01.3001.0016.0800.

Hobbs J. 2018. AI Enters the Cyber Attack Realm [Online]. Available: https://www.afcea.org/content/ aienters-cyber-attack-realm.

##submission.downloads##

Опубліковано

2023-09-12