От новостей к фактам. Как проверять информацию в эпоху генеративки
На прошлой неделе в одном из родительских чатов разгорелся скандал. Пользователи пересылали новость о том, что в московских школах с января якобы вводят обязательные уроки китайского языка. Скриншот выглядел как настоящая публикация с сайта мэрии с логотипом, официальным оформлением и даже печатью.
Некоторые родители начали писать жалобы, однако позже выяснилось, что такой информации на официальных ресурсах нет. «Новость» оказалась сгенерированной фейковой страницей. С развитием нейросетей такие случаи происходят всё чаще.
Как распознавать и проверять информацию, рассказывает Натэла Зубченко, продюсер-стратег, эксперт по монетизации через нейросети и предприниматель в сфере edtech.
Проверяйте детали, которые ИИ путает
ИИ способен создавать убедительный контент, но нередко допускает ошибки, которые сразу выдают фейк. Чаще всего это:
- даты и хронологии событий;
- названия улиц, особенности региона;
- специфические детали, известные только участникам событий;
- цитаты и прямая речь реальных людей.
Если в «новости» про Москву написано про «перекрёсток Тверской и Невского проспекта» — это стопроцентный фейк. ИИ часто путает географию городов.
Метод «ИИ против ИИ»
Самое ироничное в эпоху генеративных технологий — инструменты, которые создают фейки, помогают их разоблачать.
Шаг 1: Базовая проверка
Начните с простого. Скопируйте подозрительный текст, вставьте его в ChatGPT или YandexGPT и спросите у ИИ:
«Проанализируй эту новость на достоверность. Проверь:
1. Логичность и последовательность изложения.
2. Есть ли фактические ошибки или противоречия.
3. Соответствует ли стиль официальным заявлениям [название организации].
4. Найди несоответствия в датах, именах, названиях».
Например, в «новости» о новых правилах парковки в Москве ChatGPT сразу указал, что упомянутый в тексте «Департамент парковочного пространства» не существует — есть только ГКУ «Администратор Московского парковочного пространства».
Шаг 2: Проверка фактов через разные ИИ
Один ИИ может ошибиться, поэтому лучше использовать несколько инструментов — ChatGPT, Claude, YandexGPT, Perplexity. Если ответы существенно различаются или никто из них не находит подтверждений, это тревожный сигнал.
Шаг 3: Детальный факт-чекинг
Когда остаются сомнения, уточните у ИИ конкретные факты, например:
«Проверь следующие факты из статьи:
- действительно ли [имя человека] занимает должность [название]?
- существует ли закон/постановление № [номер] от [дата]?
- корректна ли статистика: [приведённые цифры]?
- были ли подобные заявления от [организация] ранее?»
Чтобы сделать проверку системной, используйте универсальные вопросы. Для текстовых новостей:
- «Найди первоисточник этой информации в интернете»
- «Есть ли подтверждение этой новости на официальных сайтах?»
- «Какие СМИ ещё писали об этом событии?»
- «Проверь, существуют ли упомянутые в тексте люди и организации»
Для видео (описываем содержание):
- «Логично ли движение губ с произносимыми словами?»
- «Естественны ли жесты и мимика?»
- «Есть ли странности в освещении лица?»
- «Меняется ли качество видео в районе лица?»
Проверка изображений через ИИ
Возможность генерировать изображения с помощью нейросетей ещё больше усложнила задачу.
Если раньше фейки легко выдавали странные детали — размытые лица, лишние пальцы, нереалистичные пропорции, то сегодня алгоритмы становятся умнее.
Загрузите картинку в ChatGPT или Claude и спросите:
«Проанализируй это изображение на признаки генерации ИИ:
- проверь анатомию людей (особенно руки, глаза, зубы);
- найди несоответствия в освещении и тенях;
- обрати внимание на текст на изображении;
- проверь логичность перспективы и пропорций;
- есть ли повторяющиеся паттерны или артефакты?».
Кейс из практики: эксперт получил фотографию с протестов в Москве.
При анализе с помощью Claude было выявлено, что у половины людей в толпе одинаковые лица — типичный признак копирования в Midjourney.
Кроме того, на вывеске магазина в кадре отображался бессмысленный набор букв вместо текста
Лайфхак: создайте «проверочного бота»
В ChatGPT можно создать специализированного бота для проверки фактов. Вот пример промпта:
«Ты — эксперт по факт-чекингу. Твоя задача:
1. Анализировать новости на достоверность.
2. Искать логические несоответствия.
3. Проверять существование упомянутых организаций и людей.
4. Выявлять признаки генеративного контента.
5. Оценивать достоверность по шкале от 1 до 10.
6. Всегда указывать, что требует дополнительной проверки.
При анализе обязательно проверяй:
- даты и хронологию;
- названия организаций;
- должности и имена;
- цитаты и их атрибуцию;
- статистические данные».
ИИ способен находить логические несоответствия, проверять общеизвестные факты, выявлять признаки генерации и указывать на подозрительные элементы.
Однако он не может гарантировать 100% точность анализа, получить доступ к закрытым источникам или безошибочно отличить глубокий фейк экспертного уровня.
Пошаговый алгоритм проверки информации
Эти шаги помогут вам проверить правдивость публикуемых новостей:
1. Найдите именно оригинальный источник. Если пишут «По данным Минздрава» — идите на сайт Минздрава. «Сообщает РИА Новости» — ищите на сайте РИА. У официальных сайтов есть защищённые домены. Минздрав — это minzdrav.gov.ru, а не minzdrav-news.ru или что-то подобное.
2. Проверьте информацию минимум в трех источниках. Если она есть только в телеграм-каналах или на одном сайте — скорее всего, это фейк.
3. Загрузите картинку в Google Images или Яндекс.Картинки. Часто «фото с места событий» оказывается кадром пятилетней давности из другой страны.
4. Для видео используйте InVID или TinEye. Эти сервисы показывают, когда видео появилось в сети впервые и не изменяли ли его.
Можно использовать эти факт-чекинг сервисы:
- Проверено.Медиа — российский проект проверки фактов;
- Snopes.com — международная база фейков;
- FactCheck.org — для политических новостей.
Браузерные расширения:
- NewsGuard — показывает рейтинг достоверности сайтов;
- Fake News Debunker — проверяет новости в реальном времени;
- Media Bias/Fact Check — оценивает предвзятость источника.
Мобильные приложения:
- Новостной детектор — российское приложение для проверки новостей;
- Dubawa — быстрая проверка вирусных сообщений;
- FactChecker — автоматическая проверка фактов.
Как научить этому детей
Научите ребёнка задавать вопросы к любой информации:
1. Кто это сказал? (конкретное имя, должность).
2. Где это опубликовано? (официальный источник).
3. Когда это произошло? (точная дата).
4. Есть ли доказательства? (фото, видео, документы).
5. Зачем это опубликовано? (кому выгодно).
Попросите подростка найти три новости на одну тему из разных источников и сравнить. Где факты совпадают — скорее всего, правда. Где расходятся — требует дополнительной проверки.
Реальные кейсы из московской практики
Кейс 1: «Закрытие станций метро»
В ноябре по WhatsApp разошлось сообщение о закрытии трёх станций Сокольнической линии «из-за технической аварии». Паника, люди меняют маршруты.
Проверка: официальный сайт метро, телеграм Дептранса, Яндекс.Метро — никаких сообщений. Фейк был создан, чтобы разрекламировать службу такси.
Кейс 2: «Новые выплаты на детей»
Красивая картинка «от мэрии Москвы» о выплатах 50 тысяч на подготовку к школе. Даже QR-код для подачи заявления.
Проверка через mos.ru показала — никаких новых выплат не вводили, а QR-код вёл на фишинговый сайт для кражи данных.
Психология фейков: почему мы им верим
Фейки специально создаются так, чтобы вызвать сильные эмоции — страх, гнев, возмущение. Когда мы эмоционально вовлечены, критическое мышление отключается.
Правило 24 часов: Увидели шокирующую новость? Не спешите репостить. Подождите сутки. Если это правда — она никуда не денется, а если фейк — за это время появятся опровержения.
Но если вы уже распространили фейк, главное — сразу исправить ситуацию:
1. Удалите или отредактируйте исходное сообщение.
2. Напишите опровержение там же, где распространили фейк.
3. Предупредите тех, кому переслали информацию.
4. Проанализируйте, почему поверили фейковой новости — это поможет не повторить ошибку.
Что нас ждёт дальше
Эксперты прогнозируют, что к 2026 году появятся:
- ИИ-верификаторы — системы автоматической проверки подлинности контента;
- блокчейн-сертификация — новости будут подписываться цифровой подписью источника;
- обязательная маркировка — контент, созданный ИИ, будет помечаться по закону.
Но пока эти технологии не внедрены повсеместно, нам придётся полагаться на собственную бдительность.
Помните главные правила информационной гигиены:
1. Сомневайтесь по умолчанию — особенно если новость вызывает сильные эмоции.
2. Проверяйте перед репостом — вы отвечаете за то, что распространяете.
3. Используйте ИИ как помощника — пусть нейросети помогают выявлять фейки.
4. Учите детей — для них это навык выживания в цифровом мире.
5. Не стесняйтесь признавать ошибки — все мы можем попасться на фейк.
6. Подписывайтесь на официальные источники — мэрия, министерства, проверенные СМИ.