Галлюцинации остаются ключевой проблемой искусственного интеллекта
Несмотря на значительный прогресс в развитии искусственного интеллекта, проблема «галлюцинаций» — случаев, когда ИИ уверенно предоставляет ложную или несоответствующую действительности информацию — остается актуальной. Такие ошибки могут иметь серьезные последствия в различных сферах, включая юриспруденцию, экологию и журналистику.
Причины возникновения галлюцинаций
Галлюцинации возникают из-за особенностей функционирования языковых моделей. ИИ предсказывает следующее слово на основе предыдущих, не обладая пониманием истины. Это может приводить к созданию правдоподобных, но неверных утверждений.
Примеры последствий
Мнения экспертов
Генеральный директор Anthropic Дарио Амодеи считает, что галлюцинации ИИ не являются серьезным препятствием на пути к созданию общего искусственного интеллекта (AGI). Он отметил, что ИИ-модели, вероятно, галлюцинируют меньше людей, хотя и более удивительными способами.
Проблема галлюцинаций в ИИ подчеркивает необходимость разработки механизмов верификации информации и повышения прозрачности работы моделей. Это особенно важно в контексте растущего использования ИИ в критически важных областях.
Trump Media & Technology Group (TMTG), владеющая соцсетью Truth Social экс-президента США Дональда Трампа, приобрела…
Компания Tether, выпускающая стейблкоин USDT, вела переговоры о вложениях в сектор добычи золота. Как сообщает…
Управление по финансовым услугам Астаны (AFSA) запустило новый проект, позволяющий компаниям, зарегистрированным в Международном финансовом…
Коротко о главном Braiins OS — это кастомная прошивка для ASIC-майнеров (Antminer и другие), которая…
Крипторынок в фазе затишья: что ждёт биткоин и альткоины? На фоне относительного спокойствия рынок цифровых…
28 июля платёжный сервис PayPal объявил о запуске новой функции Pay with Crypto, которая позволит…