Примітка редактора: Фінське агентство транспорту та зв'язку Traficom відповідає за забезпечення доступності безпечних, безпечних та недорогих транспортних та комунікаційних з'єднань та послуг у Фінляндії. Окрім цих обов'язків, Traficom також є повноваження для людей та підприємств у питаннях, пов'язаних з ліцензіями, реєстрацією та наглядом.
Нещодавно Traficom опублікував звіт Національного центру кібербезпеки Фінляндії (NCSC-FI) та Національного агентства з надзвичайних ситуацій (NESA) під назвою «Загроза безпеці кібератак з підтримкою AI». У цьому звіті розглядається загроза кібератак з підтримкою AI шляхом узагальнення поточних знань з цієї теми. Звіт може бути корисним для фахівців з кібербезпеки, управління інформацією та розкриття електронної інформації, які розглядають вплив генеративного ШІ на посилення кібератак.
Інформація про кібербезпеку
Штучний інтелект сформує майбутнє кібератак
Прес-анонс, анотація та звіт
Інновації в галузі безпеки AI повинні йти в ногу з кібератаками
З захищеною прес-анонсом
Хоча використання штучного інтелекту (AI) у сьогоднішніх кібератаках обмежене, новий звіт попереджає, що це може змінитися найближчим часом.
У звіті, спільно створеному WithSecure™ (раніше відомим як F-Secure Business), Фінським агентством транспорту та зв'язку (Traficom) та Національним агентством постачання надзвичайних ситуацій Фінляндії (NESA), аналізуються сучасні тенденції та події в галузі штучного інтелекту, кібератак та областей, де ці два перекриваються. Він зазначає, що кібератаки, які використовують AI, в даний час дуже рідкісні та обмежені додатками соціальної інженерії (наприклад, видаючи себе за особу) або використовуються способами, які не можуть безпосередньо спостерігати дослідники та аналітики (наприклад, аналіз даних у серверних системах).
Однак у звіті підкреслюється, що кількість та якість досягнень в галузі штучного інтелекту зробили більш досконалі кібератаки ймовірними в осяжному майбутньому.
Згідно з доповіддю, ідентифікація цілей, соціальна інженерія та уособлення є сьогодні найбільш неминучими загрозами, що підтримують ШІ, і, як очікується, будуть розвиватися далі протягом наступних двох років як за кількістю, так і за складністю.
Протягом наступних п'яти років зловмисники, ймовірно, розроблять AI, здатний автономно знаходити вразливості, планувати та виконувати кампанії атак, використовувати стелс для ухилення від захисту, а також збирати/видобувати інформацію з скомпрометованих систем або розвідки з відкритим вихідним кодом.
«Хоча вміст, створений штучним інтелектом, використовувався для цілей соціальної інженерії, методи ШІ, призначені для направлення кампаній, виконання кроків атак або контролю логіки зловмисного програмного забезпечення, все ще не спостерігалися в дикій природі. Ці методи будуть спочатку розроблені добре забезпеченими ресурсами, висококваліфікованими противниками, такими як національно-державні групи», - сказав дослідник Secure Intelligence Енді Пател. «Після того, як нові методи ШІ будуть розроблені досвідченими супротивниками, деякі, швидше за все, просочаться до менш кваліфікованих супротивників і стануть більш поширеними в ландшафті загроз».
Хоча нинішня оборона може вирішити деякі проблеми, пов'язані з використанням атакуючих ШІ, у звіті зазначається, що інші вимагають захисників адаптуватися та розвиватися. Потрібні нові методи протидії фішингу на основі штучного інтелекту, який використовує синтезований вміст, підробку біометричних систем аутентифікації та інші можливості на горизонті.
У звіті також йдеться про роль нетехнічних рішень, таких як обмін розвідками, забезпечення ресурсами та навчання з обізнаності щодо безпеки, у управлінні загрозою атак, керованих штучним інтелектом.
«Безпека не бачить такого ж рівня інвестицій або досягнень, як і багато інших додатків AI, що в кінцевому підсумку може призвести до того, що зловмисники завойовують верх», - сказав старший науковий співробітник із захисту даних Secure Семюель Маршал. «Ви повинні пам'ятати, що, хоча законні організації, розробники та дослідники дотримуються правил конфіденційності та місцевих законів, зловмисники цього не роблять., Якщо політики очікують розвитку безпечних, надійних та етичних технологій на основі штучного інтелекту, їм потрібно буде розглянути, як забезпечити це бачення стосовно загроз з підтримкою штучного інтелекту».
Про програму з Secure™
WithSecure™, раніше F-Secure Business, є надійним партнером кібербезпеки. Постачальники ІТ-послуг, MSSP та підприємства — разом з найбільшими фінансовими установами, виробниками та тисячами найсучасніших світових провайдерів зв'язку та технологій — довіряють нам у забезпеченні кібербезпеки, орієнтованої на результат, яка захищає та забезпечує їх діяльність.
Наш захист на основі штучного інтелекту захищає кінцеві точки та хмарну співпрацю, а наше інтелектуальне виявлення та реагування підтримуються експертами, які визначають бізнес-ризики шляхом активного пошуку загроз та протидії живим атакам. Наші консультанти співпрацюють з підприємствами та технічними претендентами для підвищення стійкості за допомогою консультацій з питань безпеки на основі доказів. Маючи більш ніж 30-річний досвід у створенні технологій, що відповідають бізнес-цілям, ми створили наше портфоліо для зростання разом з нашими партнерами за допомогою гнучких комерційних моделей.
Корпорація WithSecure™ була заснована в 1988 році і зареєстрована на NASDAQ OMX Гельсінкі Ltd.
Читайте оригінальне оголошення.
Штучний інтелект сформує майбутнє кібератак
Traficom (Фінське агентство транспорту та зв'язку) Анотація звіту
Тема кібератак з підтримкою штучного інтелекту з'явилася близько п'яти років тому з прикладами генеративних моделей штучного інтелекту, здатних автоматизувати як фішингові атаки, так і виявлення вразливостей. З тих пір відбулися атаки соціальної інженерії та уособлення, підтримувані ШІ, що спричинило фінансові втрати у мільйони доларів. Поточний швидкий прогрес у дослідженнях штучного інтелекту в поєднанні з численними новими програмами, які він дозволяє, змушує нас вважати, що методи ШІ незабаром будуть використані для підтримки більшої кількості кроків, які зазвичай використовуються під час кібератак. Це є причиною того, що ідея кібератак з підтримкою штучного інтелекту останнім часом отримала підвищену увагу як з боку наукових кіл, так і з боку промисловості, і чому ми починаємо бачити більше досліджень, присвячених вивченню того, як ШІ може бути використаний для посилення кібератак.
Дослідження кінця 2019 року показало, що понад 80% осіб, які приймають рішення, були стурбовані кібератаками з підтримкою AI і прогнозували, що ці типи атак можуть стати основними в найближчому майбутньому. Сучасні технології штучного інтелекту вже підтримують багато ранніх етапів типового ланцюга атак. Такими прикладами є передові методи соціальної інженерії та збору інформації. Кібератаки з підтримкою AI вже є загрозою, з якою організації не в змозі впоратися. Ця загроза безпеці зростатиме лише тоді, коли ми станемо свідками нових досягнень у методології штучного інтелекту, а також коли експертиза штучного інтелекту стає доступнішою.
Цей звіт спрямований на дослідження загрози безпеці кібератак з підтримкою AI шляхом узагальнення поточних знань з цієї теми. Технологія AI в даний час здатна покращити лише кілька тактик нападників, і, ймовірно, вона використовується лише передовими суб'єктами загрози, такими як нападники національної держави. Найближчим часом швидкі досягнення AI покращать та створять більший спектр методів атаки за допомогою автоматизації, прихованості, соціальної інженерії або збору інформації. Тому ми прогнозуємо, що атаки з підтримкою ШІ стануть більш поширеними серед менш кваліфікованих зловмисників у найближчі п'ять років. Оскільки звичайні кібератаки застаріють, технології, навички та інструменти AI стануть більш доступними та доступними, стимулюючи зловмисників використовувати кібератаки з підтримкою штучного інтелекту.
Індустрії кібербезпеки доведеться адаптуватися, щоб впоратися з появою кібератак з підтримкою AI. Наприклад, біометричні методи автентифікації можуть застаріти через вдосконалені методи уособлення, що активовані AI. Також необхідно буде розробити нові механізми запобігання та виявлення для протидії кібератакам з підтримкою AI. Більше автоматизації та технології ШІ також потрібно буде використовувати в оборонних рішеннях, щоб відповідати швидкості, масштабу та витонченості кібератак з підтримкою штучного інтелекту. Це може призвести до асиметричної боротьби між зловмисниками, які мають необмежене використання технологій AI, і захисниками, обмеженими майбутнім регулюванням щодо додатків AI.
Читайте оригінальне оголошення.
Прочитайте оригінальний абстрактний виписку.
Повний звіт: Загроза безпеки кібератак з підтримкою AI (PDF) - Наведення миші для прокрутки
Матті Аксела, Семюель Маршал, Ендрю Патель, Ліна Розенштедт та WithSecure
ТРАФІКОМ Загроза безпеці кібератак з підтримкою AI 2022-12-12
Оригінальний документ
Додаткове читання
Слідкуючи за штучним інтелектом? Європейські національні стратегії штучного інтелекту
Визначення кібер-відкриття? A Визначення та рамки
Джерело: Комплексне відкриття