< img src = "https://www.rb.ua/static/img/2/2/4/245360_706a62ca7a6363636666666666bc4a63b9da_650x410. Почему Chatgpt изобретает информацию и ложь (фото: Freepik) Автор: Анна Шиканова < P >< Стронг > Новое исследование Openai объясняет, почему модели Catgpt и другие языковые искусственные интеллекты иногда «изобретают» факты – явление, известное как галлюцинации. Статья демонстрирует, что это не просто ошибки, но и математически неизбежный эффект генерации текста. Даже с идеальными данными модели ошибаются через путь прогнозирования слов и накопления ошибок.

< p >Почему Айс изобретает факты и обманывает пользователей, говорит РБК-Украин со ссылкой на разговор.

< H2 > Математическая природа галлюцинаций

< p > Исследование демонстрирует, что проблема галлюцинаций является не просто побочным эффектом современных алгоритмов обучения, но математически неизбежным явлением. Даже идеальные данные обучения не полностью устраняют его.

< P > Основная причина – то, как языковые модели генерируют текст. Они предоставляют одно слово на основе вероятности.

< p > Это означает, что ошибки накапливаются во время предложения, и коэффициент ошибок при создании длинных ответов может быть как минимум вдвое выше, чем простые вопросы «да/нет».

~ ~ ~ ~ > < H2 > Влияние данных обучения < p > Чем меньше информации, которую модель видит во время обучения, тем больше вероятность ошибок.

< p >Например, если один раз в образовательных данных появится только 20% дни рождения известных личностей, то модель будет принята как минимум в 20% дни рождения.

< P > Реальный пример: Deeseek-V3 При нескольких попытках он ответил на три разные неверные даты рождения одного из авторов статьи.

< h2 > Оценка ловушка

< P > Исследователи показывают, что современные критерии искусственного интеллекта, включая Google и Openai, поощряют модели угадать вместо честной неопределенности.

~ < p > Когда модель отвечает «Я не знаю», она получает тот же счет, что и при ошибке. Из -за этого оптимальная стратегия – всегда догадываться, что способствует галлюцинациям.

< H2 > Решение равно

< p >OpenAI предполагает, что модели учитывают их собственную уверенность, прежде чем публиковать ответ. Например, ответьте только тогда, когда доверие превышает 75%, потому что ошибки оштрафованы больше, чем правильные ответы.

< P > Математический анализ показывает, что это позволит моделям продемонстрировать неопределенность, а не догадываться, уменьшая галлюцинации.

< P > Однако для пользователей, привыкших к уверенным ответам, это поведение может показаться неудобным: если CHATGPT начнет говорить «я не знаю» даже в 30% случаев, это может разочаровать аудиторию.

~ ~ < H2 > Компьютерная экономика

< P > Введение подходов к неопределенности требует гораздо большего количества расчетов. Для миллионов запросов каждый день это означает значительно более высокие эксплуатационные расходы.

< P > Активное обучение, где модель ставит уточняющие вопросы, может уменьшить ошибки, но еще больше загрузки вычислительных ресурсов.

< P > В критических областях – финансовые системы, цепочки поставок, медицина – Дополнительные затраты на расчет оправданы, потому что галлюцинации стоят дорого.

~ < P > В потребительских приложениях, где пользователи ожидают мгновенных ответов, экономические стимулы делают модели слишком наверняка сохранить проблему.

< H2 > Неприятная истина < P > Статья Openai подчеркивает фундаментальное противоречие – деловые мотивы стимулируют быстрые и уверенные ответы, а не точность. До тех пор, пока эти стимулы не изменят, галлюцинации в языковых моделях останутся неизбежными.

< p >< Strong > Вы можете быть заинтересованы в: 0 ~/p > < ul > < l > Какие профессии находятся под угрозой исчезновения через ш < li > Как правильно сделать запрос на Si, чтобы изображение было идеальным

< li > 8 способов, таких как CHATGPT обходит Google в поиске и советах

www.rbc.ua

Categorized in:

Технологии,

Last Update: 24 сентября 2025