Чат-боты на базе ИИ могут собирать о пользователях огромное количество личных данных, включая сведения о психоэмоциональном состоянии, а затем использовать их в рекламных, манипулятивных или даже разведывательных целях. Об этом заявил эксперт по кибербезопасности Матеуш Хробок в интервью Польскому агентству печати (PAP).
Среди угроз он назвал передачу данных третьим лицам, утечку информации, целевую рекламу, основанную на уязвимом психическом состоянии, и вмешательство иностранных спецслужб. Примером служит китайский разработчик DeepSeek, обязанный по законодательству КНР передавать пользовательские данные властям.
Особое внимание Хробок уделил «гигиене ИИ»: пользователи, по его словам, должны осознавать, какие данные они вводят, как они могут быть использованы, и что даже локальные сбои — как в случае ChatGPT в 2023 году — способны раскрыть чужую историю переписки.
Он также отметил, что ИИ не следует рассматривать как психолога: в Бельгии зафиксирован случай суицида после общения с чат-ботом. По его мнению, ИИ всё чаще воспринимается как авторитет, несмотря на то, что его ответы основаны на статистике, а не здравом смысле или этике.
В корпоративной сфере, по словам Хробока, необходима цифровая грамотность и внедрение систем защиты от утечек данных (Data Leak Prevention). Он призвал компании не отказываться от ИИ, а использовать его с умом.
«Мы не можем игнорировать технологии, которые меняют рынок. Но и слепо доверять ИИ — опасно», — подытожил эксперт.
