`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Олександр Савушкін

«Чи можуть ChatGPT використати для кібератак?»

+22
голоса
Якщо питання, винесене у заголовок задати саме у ChatGPT, то ви отримаєте таку відповідь від системи: «Як мовна модель АІ, я не маю власної волі чи намірів. Однак, як і будь-яка інша технологія, я потенційно можу бути використана зловмисниками зі зловмисними намірами. Зрештою, відповідальність за використання та потенційне зловживання системами штучного інтелекту лежить на користувачах. Важливо, щоб приватні особи та організації використовували технологію штучного інтелекту етично та відповідально, дотримуючись правових та етичних норм і вживаючи заходів обережності для запобігання будь-якій шкоді або зловживанням».
 
І слід зазначити, що ChatGPT не помиляється…
 
Генеративні інструменти штучного інтелекту, такі як ChatGPT і Google Bard, набувають все більшої популярності в усьому світі. Ці інструменти дозволяють користувачам підвищити ефективність і продуктивність у виконанні повсякденних завдань і обов’язків.
 
Однак цими великими можливостями можна зловживати. Невдовзі після появи інструменти генеративного AI почали використовувати для створення шкідливих програм, багато з яких з’явилися в офіційних магазинах додатків. Генеративний AI використовувався для створення електронних листів і повідомлень для фішингових кампаній з використанням AI, а також для створення відео на YouTube, яке було визнано шкідливим.
 
На жаль, компанії, що розробляють генеративний AI, не займаються цими питаннями. У нещодавньому звіті команда Check Point Research виявила, що Google Bard майже не накладає обмежень на створення фішингових листів і що за мінімальних маніпуляцій його можна використовувати для розробки шкідливих кейлоггерів, що становить загрозу безпеці.
 
З цих причин деякі компанії вирішили заборонити використання інструментів штучного інтелекту на корпоративних пристроях або в мережах, а інші компанії, які надають працівникам доступ до генеративних інструментів штучного інтелекту, стали жертвами витоку конфіденційних даних.
 
Тому, поки не буде вжито належних заходів для захисту конфіденційних даних від витоку та внутрішньої інформації від крадіжки, компаніям слід приділяти особливу увагу своїй політиці безпеки.
 
Мобільні пристрої не є винятком. Насправді користувачі мобільних пристроїв частіше завантажують шкідливі програми або стають жертвами фішингових атак. Маленькі екрани мобільних пристроїв, велика кількість додатків і сповіщень можуть відволікати користувачів, що ускладнює уникнення переходу за шкідливими посиланнями або завантаження шкідливих файлів. Для багатьох з нас соціальні мережі є найбільш часто використовуваними додатками на мобільних пристроях, а це означає, що мобільні користувачі є більш вразливими до соціальної інженерії та фішингу.
 
Мало того, розмиті межі між особистим і професійним використанням мобільних пристроїв і це робить їх основною точкою входу в організацію, тому захист від загроз штучного інтелекту повинен бути головним пріоритетом.
 
Що потрібно зробити, щоб захистити свій мобільний парк від загроз AI?
 
Найважливіше, що необхідно усвідомити, - це те, що користувачам мобільних пристроїв не можна довіряти. Кількість і витонченість атак постійно зростає, і зараз вони занадто просунуті та складні для того, щоб їх могла виявити людина. Класичним прикладом є фішингові сайти, які еволюціонували настільки, що виглядають так само як і оригінальні сайти. Для того, щоб мати справу з таким рівнем складності, вам потрібні передові технології, щоб захистити пристрій і запобігти проникненню загроз у вашу організацію.
 
Мобільні пристрої - це точка входу в вашу організацію. Оскільки AI розвивається так швидко, виявлення та усунення загроз недостатньо. Ваше рішення для захисту мобільних пристроїв повинно включати превентивні можливості, щоб зупинити загрозу на рівні пристрою ще до того, як вона отримає доступ до ваших корпоративних активів.
 
Можливості генеративного навчання AI вражають. Щоб йому протистояти, потрібно використовувати AI. Переконайтеся, що ваше рішення безпеки використовує АІ та технологію машинного навчання, щоб зберегти перевагу.
 
Як, наприклад Check Point Harmony Mobile. Поведінкові механізми у ньому реалізовані запускають кожну програму через різні емулятори, щоб зрозуміти та виявити будь-яку ненормальну, підозрілу, ризиковану або зловмисну поведінку. Шкідливі програми, створені людиною або генеративним АІ, будуть розпізнані та заблоковані ще до того, як вони потраплять на пристрій.
 
У разі якщо шкідливий агент потрапив на пристрій, функція мережевого захисту Check Point Harmony Mobile, заснована на механізмах AI ThreatCloud і найсучасніших алгоритмах, забезпечить блокування зв’язку між шкідливим додатком і його CnC-сервером, про що буде повідомлено кінцевим користувачам і адміністраторам системи безпеки.
 
Якщо ваша організація потребує більш суворого підходу, механізми перевірки Check Point Harmony Mobile можуть тегувати мобільні додатки за допомогою служб Generative-AI і внутрішньої інфраструктури. Це означає, що організація може обмежити доступ пристроїв до корпоративних ресурсів, якщо вони містять додатки Generative-AI.
 
І у завершення, ще раз нагадаю найбільш діючий підхід - організації повинні прагнути запровадити проактивні стратегії, які можуть захистити персонал і корпоративні дані від потенційних кібератак.
Дополнительную информацию о компании и ее решениях вы можете найти на специальной странице http://ko.com.ua/check_point

Ready, set, buy! Посібник для початківців - як придбати Copilot для Microsoft 365

+22
голоса

Напечатать Отправить другу

Читайте также

 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT