1 декабря 2025
Frame 13 (1)

### Подростки используют ИИ для розыгрышей с «бездомными»: как распознать дипфейки

В США набирает популярность новый формат розыгрышей среди подростков. С помощью нейросетей они создают реалистичные изображения неопрятного мужчины, якобы находящегося у них дома, после чего сообщают родителям, что впустили бездомного «попить воды» или «отдохнуть». Реакцию испуганных взрослых снимают на видео и выкладывают в соцсети.

Полиция США уже призвала пользователей прекратить подобные пранки. В ряде случаев из-за высокой достоверности изображений люди вызывали экстренные службы, принимая фейк за реальную угрозу.

**Почему это опасно**
Сегодня создание дипфейков стало доступным. Современные ИИ-инструменты легко подбирают выражения лиц, синхронизируют движения губ и звук. Такая реалистичность порождает риски: под видом шуток могут распространяться фейковые новости, поддельные заявления публичных лиц или мошеннические схемы.

**Как защититься**

1. **Источник видео** — проверяйте аккаунты, сайты или официальные каналы, прежде чем верить контенту.

2. **Артефакты** — неестественные тени, дрожание контуров лица, рассинхрон звука и изображения могут выдать подделку.

3. **Контекст** — если человек в ролике ведет себя непривычно, стоит уточнить информацию из других источников.

4. **Обратный поиск** — загрузите кадр в Google Images или Яндекс, чтобы проверить, не взят ли он из другого видео.

5. **Специализированные сервисы** — Sensity AI, Reality Defender и Deepware помогают выявлять дипфейки. В России разрабатывают аналогичные технологии для анализа видеозвонков и изображений.

**Важно:** ни один сервис не дает 100%-ной гарантии. Окончательное решение всегда остается за человеком.

Подробнее о кибербезопасности можно узнать в официальных каналах Киберполиции России.