Figure
04.08.2023

ШІ підкорює світ. Чи варто посилювати кібербезпеку?

Головною темою 2022 року був ландшафт кіберзагроз від застосування ШІ, що розширюється: від крадіжки даних до експлуатації вразливостей інфраструктури. При цьому початок року не приніс нових сюрпризів від технологій. У класичній безпеці все більшу увагу приділяють напрямам DevSecOps. Розумні технології теж не відстають, і зараз починає серйозно розвиватися напрямок MLDevSecOps. Якщо в попередні роки ми бачили лише концепти, то сьогодні багато з них перетворилися на повноцінні фреймворки, готові до впровадження в життя. Влітку аналітичне агентство Gartner випустило дослідження про рівень впровадження ШІ та супутні ризики безпеки. За результатами опитування виявилося, що 41% компаній зіткнулися з порушеннями конфіденційності ШІ або інцидентами безпеки. З цих інцидентів 60% були компрометацією даних внутрішніми зловмисниками, а 27% – зловмисними атаками на інфраструктуру ШІ. При цьому аналітики Gartner підкреслюють, що наразі є значна розбіжність між тим, що директори з інформаційної безпеки та розробники рішень ШІ вважають істотним ризиком. Наприклад, CISO впевнені, що ризик ШІ матеріалізується лише в 26% випадків, тоді як фахівці, які розробляють ШІ, заявляють про ймовірність у 54%. Gartner рекомендує керівникам компаній підготуватися до такого розвитку подій, запровадивши модель управління довірчими ризиками та безпекою ШІ (AI TRiSM). Вона дасть змогу забезпечити надійність, достовірність, безпеку і конфіденційність моделей ШІ.

Шкідливий ШІ та інші інциденти

Без гучних інцидентів у 2022 році теж не обійшлося. Наприклад, на основі доступних у мережі відео, шахраї створили діпфейк Патріка Гіллмана, директора з комунікацій криптовалютної біржі Binance, і використовували його в серії відеодзвінків із представниками різних криптопроєктів. Несподівано Патрік став отримувати повідомлення з подякою за проведені зустрічі, на яких він навіть не був присутній.

У частині застосування ШІ для атак багато досліджень було присвячено тому, що самі моделі машинного навчання можуть бути шкідливим ПЗ. Зокрема, було організовано кілька відкритих конкурсів, один з яких пройшов на великій конференції з машинного навчання – NeurIPS 2022. На ній учасникам пропонували навчитися ховати шкідливий код у вагах моделей і виявляти подібні випадки.

Як скоро ШІ замінить художників і письменників?

У розвитку технологій машинного навчання 2022 року можна виокремити два яскраві напрямки: генерацію зображень за описом і написання текстів чат-ботом ChatGPT компанії OpenAI. Технологія генерації картин розвивається вже досить давно. Наприклад, ще минулого року OpenAI поділилася своїм дослідженням нейромережі DALL-E. На той момент технологія була закритою (у доступі була лише демо-версія). Технічні ентузіасти на відкритих датасетах навчили моделі та виклали в опенсорс нейромережі Stable Diffusion і MidJourney. На їхній основі інші ентузіасти стали створювати невеликі сервіси, тим самим популяризуючи цю технологію.

Питання безпеки в цьому разі стосуються переважно застосунків, у які вбудовуються ці технології, оскільки сам факт генерації зображень (навіть на основі реальних фотографій користувачів) не несе особливої загрози. Однак не варто забувати про додаткове програмне забезпечення, яке, можливо, буде потрібно встановити, – воно може бути небезпечним.

У 2022 році ніхто в ІТ та ІБ не очікував такого радикального прориву від ChatGPT, текстового чат-бота, заснованого на GPT-3 – великій мовній моделі. Уже з 2020 року модель GPT-3 вміла генерувати тексти, відповідати на запитання і бути чат-ботом. Компанія OpenAI серйозно донавчила її, зробивши акцент саме на діалогах, і в листопаді 2022 року представила ChatGPT. Наразі вона вміє писати код і перевіряти його на помилки, шукати баги та вразливості, а також створювати до них експлойти. Однак варто зазначити, що ChatGPT не завжди справляється ідеально, і навіть її творці закликають користуватися технологією з обережністю і не вірити беззастережно тому, що вона видає. Все ж таки модель навчена на даних з інтернету, де можна знайти підтвердження будь-якої точки зору, а отже, коректність тексту, створюваного ChatGPT, залишається під великим питанням.

Найближчі прогнози: створення комерційних рішень ШІ на базі опенсорсних моделей

Можна очікувати, що на основі ChatGPT і технології, що створює зображення за описом, у 2023 році створять цікаві додатки, які змінять цілі індустрії. Однак люди побоюються, що ШІ може замінити працю деяких фахівців і автоматизувати багато процесів у різних галузях економіки. Так, у 2022-му, в мережі поширювалися онлайн-протести NoAIArt (#noaiart), де художники закликали заборонити використання технології, що генерує зображення за текстовим описом.

Доступ до моделей машинного навчання таких компаній, як OpenAI, зазвичай платний, і отримати його може не кожен охочий. Випадки зі Stable Diffusion і MidJourney показали, що є техно ентузіасти, готові за свої гроші навчати великі моделі та викладати їх в опенсорс. Ми припускаємо, що у 2023-му цей тренд посилиться і фахівці зі ШІ розроблятимуть комерційні рішення на базі опенсорсних моделей.

То ж поки що – ШІ це велика сфера, яка тільки на початку свого шляху. Але колись і вона потребуватиме регулювання у сфері алгоритмів машинного навчання, оскільки витік такої інформації або помилка самої моделі можуть призвести до серйозних наслідків.