Галлюцинации остаются ключевой проблемой искусственного интеллекта
Несмотря на значительный прогресс в развитии искусственного интеллекта, проблема «галлюцинаций» — случаев, когда ИИ уверенно предоставляет ложную или несоответствующую действительности информацию — остается актуальной. Такие ошибки могут иметь серьезные последствия в различных сферах, включая юриспруденцию, экологию и журналистику.
Причины возникновения галлюцинаций
Галлюцинации возникают из-за особенностей функционирования языковых моделей. ИИ предсказывает следующее слово на основе предыдущих, не обладая пониманием истины. Это может приводить к созданию правдоподобных, но неверных утверждений.
Примеры последствий
- В мае 2025 года юридическая фирма Butler Snow предоставила в суд документы с вымышленными цитатами, сгенерированными ChatGPT.
- Чат-бот Grok от компании Илона Маска затронул тему «геноцида белых» в Южной Африке без соответствующего запроса, что вызвало общественное недовольство.
- Британское Министерство окружающей среды опубликовало карту торфяников, созданную с помощью ИИ, которая ошибочно классифицировала каменистые участки и леса как торфяники.
- Газеты Chicago Sun-Times и Philadelphia Inquirer включили в летний список для чтения вымышленные названия книг и цитаты несуществующих экспертов, сгенерированные ИИ.
- В марте 2025 года ChatGPT сгенерировал ложную информацию о норвежском пользователе, утверждая, что он убил своих детей, что привело к жалобе в соответствии с GDPR.
Мнения экспертов
Генеральный директор Anthropic Дарио Амодеи считает, что галлюцинации ИИ не являются серьезным препятствием на пути к созданию общего искусственного интеллекта (AGI). Он отметил, что ИИ-модели, вероятно, галлюцинируют меньше людей, хотя и более удивительными способами.
Проблема галлюцинаций в ИИ подчеркивает необходимость разработки механизмов верификации информации и повышения прозрачности работы моделей. Это особенно важно в контексте растущего использования ИИ в критически важных областях.