У Британії стурбовані кіберризиками від чатботів зі штучним інтелектом

Середа, 30 серпня 2023, 12:14

Британська влада попереджає про ризики використання чатботів, керованих штучним інтелектом, стверджуючи, що їх можна обманом змусити виконувати шкідливі завдання.

Про це, як пише "Європейська правда", заявив Національний центр кібербезпеки Великої Британії (NCSC), повідомляє Reuters.

У двох своїх публікаціях відомство зазначає, що експерти ще не розібралися з потенційними проблемами безпеки, пов'язаними з алгоритмами, які можуть генерувати взаємодію, схожу на людську – так званими великими мовними моделями (LLM).

NCSC зазначає, що використання інструментів на основі штучного інтелекту, зокрема в роботі з обслуговування клієнтів та дзвінками з продажу, може нести ризики, особливо якщо такі моделі будуть підключені до інших елементів бізнес-процесів.

В Британії хочуть провести перевірку після масштабного збою в авіасполученні

Науковці та дослідники неодноразово знаходили способи маніпулювати чатботами, даючи їм несанкціоновані команди або обманюючи їх, щоб вони обходили вбудовані в них захисні механізми.

Наприклад, чатбот на базі штучного інтелекту, який використовує банк, можна обманом змусити здійснити несанкціоновану транзакцію, якщо хакер правильно структурує свій запит.

Вплив штучного інтелекту на безпеку все ще перебуває в центрі уваги урядів країн по всьому світу. Зокрема, у США та Канаді вже фіксували використання технології LLM хакерами.

Раніше заступник глави британського уряду Олівер Дауден заявив, що штучний інтелект може мати значніший вплив на країну, ніж мала промислова революція.

Глава секретної розвідувальної служби Британії МІ6 Річард Мур перед цим висловив переконання, що штучний інтелект не замінить шпигунів-людей.

Нагадаємо, Європейська комісія розширила використання штучного інтелекту під час перекладу, вперше дозволивши автоматичний переклад своїх пресрелізів без людської участі.

Якщо ви помітили помилку, виділіть необхідний текст і натисніть Ctrl + Enter, щоб повідомити про це редакцію.
Реклама: