ИИ ошибается почти в каждом втором ответе на новостные запросы
- Семиднeвная Панорама
Международное исследование показало: почти в половине случаев ответы искусственного интеллекта (ИИ) на новостные запросы содержат ошибки. Худший результат продемонстрировал Gemini от Google — неточности обнаружены в 76% ответов, пишет Наука.
Искусственный интеллект всё чаще заменяет поисковые системы, однако его надёжность вызывает серьёзные сомнения. Международное исследование, проведённое Европейским вещательным союзом (EBU) совместно с BBC и 22 общественными медиакомпаниями из 18 стран, показало: почти в половине случаев ответы ИИ на новостные запросы содержат ошибки.
Исследование и результаты
Журналисты и редакторы проверили более 3000 ответов четырёх популярных чат-ботов — ChatGPT, Copilot, Gemini и Perplexity. Оценка проводилась по четырём критериям:
- достоверность информации;
- корректность ссылок на источники;
- разграничение фактов и мнений;
- наличие контекста.
Результаты оказались тревожными:
- в 45% случаев эксперты нашли хотя бы одну серьёзную проблему;
- в 31% ответов источники либо отсутствовали, либо были указаны неверно;
- в 20% сообщений обнаружены фактические ошибки — от устаревших данных до вымышленных деталей.
Gemini показал худший результат
Наименее точным оказался Gemini от Google — ошибки зафиксированы в 76% ответов, что более чем в два раза превышает уровень других моделей. Эксперты связывают это с недостаточной способностью системы находить и корректно указывать источники информации. Несмотря на небольшой прогресс по сравнению с предыдущими тестами BBC, уровень неточностей остаётся «критически высоким».
Почему это важно
ИИ-помощники постепенно становятся альтернативой поисковикам. По данным Reuters Institute за 2025 год, 7% пользователей интернета уже получают новости через ИИ, а среди людей младше 25 лет этот показатель достигает 15–20%.
Медиа-директор и заместитель генерального директора EBU Жан-Филип де Тендер подчеркнул: «Эти недостатки носят системный и многоязычный характер. Когда люди перестают понимать, чему можно верить, они в итоге не доверяют ничему — а это прямая угроза достоверной информации».
Директор программы BBC «Генеративный ИИ» Питер Арчер добавил: «Мы вдохновлены возможностями ИИ, но доверие аудитории — ключевое. Несмотря на улучшения, проблемы остаются серьезными. Мы открыты к сотрудничеству с разработчиками, чтобы эти инструменты действительно приносили пользу обществу».
Что планируют дальше
EBU и BBC уже разработали инструменты для проверки точности новостных ответов ИИ. Эти методики помогают разработчикам повышать качество работы систем и учат пользователей критически относиться к информации, которую генерирует искусственный интеллект.
Исследователи направили в Евросоюз предложение о создании механизма независимого мониторинга ИИ-систем и соблюдении законов о достоверности информации и цифровых услугах, чтобы контролировать стремительно развивающиеся технологии.
Оксана Андрущак
Читайте также:
