Напад/Захист: ШІ в кібербезпеці
«LastPass Labs — це центр контенту для команди аналізу загроз, пом’якшення та ескалації (TIME) у LastPass. Ми зосереджені на глибокому аналізі останніх розробок безпеки, пильному погляді на передові технології та унікальних перспективах загроз.» – LastPass
Завдяки прогресу, досягнутому ChatGPT та іншими моделями мов (LLM), нова ера штучного інтелекту наближається, вона надзвичайно швидко входить у повсякденне життя.
Завдяки своїй здатності до швидкої обробки та навчання ШІ став вирішальним у різних секторах, включаючи кібербезпеку. Однак штучний інтелект також може бути інструментом для зловмисної кіберактивності, створюючи складний ландшафт безпеки, що постійно розвивається.
Потенційне використання ШІ в захисті кібербезпеки
Існує три потенційних застосування ШІ та машинного навчання (ML) у кіберзахисті.
Перший — це виявлення аномалій, де алгоритми штучного інтелекту просівають величезні обсяги даних, щоб точно визначити потенційні незвичайні шаблони, які можуть вказувати на кіберзагрозу. Таке використання штучного інтелекту може допомогти компаніям виявити загрози, які вони могли б не виявити інакше. Якщо говорити простою мовою, то це: «Ось великий стіг сіна, покажи мені голки». Це може бути надзвичайно потужна здатність.
Друге використання – Predictive Analytics. Тут алгоритми машинного навчання аналізують минулі дані, щоб передбачити майбутні порушення безпеки. Ця стратегія може дозволити організаціям виправляти вразливості до того, як вони стануть проблемою.
З огляду на недавній бум LLMs, третє, особливо корисне застосування в Threat Intelligence – це підсумовування. Це може дозволити кібер-фахівцям швидко витягти чіткі деталі атаки або дослідити звіт чи статтю новин у масштабі, лише запитом простою мовою, адаптованим до точних потреб організації.
Використання ШІ зловмисниками
ШІ також може бути потужним інструментом у руках зловмисників. Історично фішинг було відносно легко виявити на основі використання мови, форматування та аналізу посилань. Фішингові атаки на основі штучного інтелекту, які використовують LLM для створення оманливих електронних листів, неймовірно персоналізовані, і одержувачу важче визначити їх як шкідливі. Технологія Deepfake, ще одна інновація ШІ, використовується кіберзлочинцями для створення дуже реалістичних аудіовізуальних імітацій людей. Цю технологію можна використовувати для різних зловмисних цілей, наприклад для поширення дезінформації або шахрайства. Останнім часом у загрозливому середовищі з’явилися фотографії знаменитостей, створені штучним інтелектом, які майже неможливо відрізнити від справжніх (наприклад, Папа Римський у білому піджаку), аудіотехнологія deepfake, яка використовується для видавання себе за керівників для переказу грошей,
Нові сценарії атак ШІ
Оскільки технологія ШІ продовжує розвиватися, ми можемо очікувати появи нових типів атак. Наприклад, змагальні атаки мають на меті ввести в оману системи кібербезпеки шляхом непомітної зміни вхідних даних, що може спричинити неправильні прогнози системи. Крім того, оскільки суспільство стає все більш залежним від ШІ та машинного навчання, наша інфраструктура (наприклад, автономні транспортні засоби чи розумні міста) може стати ціллю для кібератак. Зловмисники потенційно можуть маніпулювати алгоритмами керування дорожнім рухом або порушувати роботу автономного транспортного засобу, що призведе до хаосу та потенційної шкоди. Особливе занепокоєння викликає здатність нинішніх LLM аналізувати та створювати код,
Майбутній стан ШІ в кібербезпеці
Удосконалення штучного інтелекту продовжуватимуть формувати ландшафт кібербезпеки. Дивлячись у майбутнє, штучний інтелект може змінити «гонку озброєнь» у сфері кібербезпеки, коли зловмисники та захисники намагаються протистояти один одному за допомогою нових і більш складних технологій. Розвиток квантових обчислень може запропонувати спосіб значно покращити безпечний зв’язок, створивши шифрування, яке набагато важче зламати. Крім того, оскільки наш світ стає все більш взаємопов’язаним, фізичні та цифрові системи все більше переплітаються, ШІ може стати корисним компонентом у розробці комплексних і стійких систем безпеки, здатних протистояти складним загрозам.
Компанії та організації повинні усвідомлювати, як штучний інтелект змінює кібербезпеку, і випереджати потенційні загрози, пом’якшуючи їх, перш ніж вони зможуть завдати реальної шкоди.
Команда LastPass Threat Intelligence, Mitigation, and Escalation (TIME) зосереджена на захисті нашої спільноти шляхом моніторингу, аналізу та пом’якшення загроз, спрямованих на наших клієнтів, нашу компанію та нашу галузь. Команда має майже 50 років досвіду роботи в розвідці та кібернетичному середовищі та твердо вірить у те, що обмін інформацією та побудова стосунків є ключем до успішної програми розвідки.
Мета LastPass — надавати зацікавленим сторонам своєчасну та дієву інформацію, що дозволяє нашим командам безпеки захищати наших клієнтів, їхні дані та компанію. Окрім проведення аналізу та інформування наших команд із безпеки про події в ширшому середовищі кіберзагроз, LastPass також працює над автоматизацією введення розвідувальних даних у процеси партнерів і мінімізує часовий проміжок від усвідомлення загрози до пом’якшення.
Бажаєте дізнатися більше? Звертайтесь до представника LastPass – компанії Ідеалсофт.