< p > Исследователи Google улучшают тряпку, внедряя достаточный контекстуальный сигнал для содержания галлюцинаций и повысить точность отклика

0 > Img width = “1600” Высота = “840” “SRC =” “840” “840” “840” “https://www.searchenginejournal.com/wp-content/uploads/2025/03/03/google-content-coficit-512.jpg” class = “updement-full size” Upludll upling-full wp-post-image “alw =” “ https://www.searchenginejournal.com/wp-content/uploads/2025/03/google-content-sficy-512-480×252.jpg 480w, https://www.searchenginejournal.com/wp-content/uploads/2025/03/google-content-sficy-512-680×357.jpg 680w, https://www.searchenginejournal.com/wp-content/uploads/2025/03/google-content-sficy-512-384×202.jpg 384w, https://www.searchenginejournal.com/wp-content/uploads/2025/03/google-content-sufficity-512-768×403.jpg 768w, https://www.searchenginejournal.com/wp-content/uploads/2025/03/google-content-coficit-512-1024×538.jpg 1024w »~ ~ ~ ~ ~ < P > Исследователи Google представили метод улучшения поисковых и помощников по искусственному интеллекту, улучшая способность к распространению моделей (RAG) распознавать, когда полученная информация не имеет достаточного контекста для ответа на запрос. Если это будет реализовано, эти выводы могут помочь AI -генерируемым ответам, избежать неполной информации и повысить надежность ответов. Этот сдвиг также может побудить издателей создавать контент с достаточным контекстом, что делает их страницы более полезными для ответов на ИИ.

~< p >Их исследования показывают, что такие модели, как Близнецы и GTP, часто пытаются отвечать на вопросы, когда полученные данные содержат недостаточный контекст, что приводит к галлюцинациям вместо удержания. Чтобы решить это, они разработали систему, чтобы уменьшить галлюцинации, помогая LLMS определить, когда полученный контент содержит достаточную информацию для поддержки ответа.

< P > Системы поколений (RAG) расширяют LLMS с внешним контекстом, чтобы повысить точность ответов, но галлюцинации все еще происходят. Не было ясно, связаны ли эти галлюцинации из неправильной интерпретации LLM или недостаточно полученного контекста. Исследовательская работа представляет концепцию достаточного контекста и описывает метод определения, когда доступно достаточная информация, чтобы ответить на вопросы.

~ < p >Их анализ показал, что их собственные модели, такие как Близнецы, GPT и Claude, обычно дают правильные ответы, когда дают достаточный контекст. Однако, когда контекста недостаточен, они иногда галлюкус вместо удержания, но они также соответствуют правильному 35 & ndash; 65% времени. Это последнее открытие добавляет еще одну задачу: зная, когда мешать, чтобы заставить вас остаться (не ответить) и когда доверять модели должным образом.

< ~ iframe class = "sej-iframe-afframe-hight" id = "in-content-iframe" scrollling = "no" нет "src =" "https://www.searchenginejournal.com/wp-json/sscats/v2/tk/midle_post_tex < H2 > Определение достаточного контекста

< p >Исследователи определяют достаточный контекст, так как это полученная информация (от RAG) содержит все необходимые детали, чтобы получить правильный ответ ​. Классификация, которая содержит достаточный контекст, не делает «T», не требует, чтобы она была доказана. Это & Rsquo; S – это просто оценка, может ли ответ быть получен из предоставленного контента.

< p > Это означает, что классификация не проверяет правильность. Это & rsquo;

< H2 > Достаточный контекст автора

< P > Контекст авторитета-это система на основе LLM, которая классифицирует пары как достаточный или недостаточный контекст. Лучшей исполнительной моделью автора была Gemini 1.5 Pro (1 выстрел), достигая 93% точности, превышающих другие модели и методы ​.

~ < H2 > Снижение галлюцинаций с селективной генерацией < p >Исследователи обнаружили, что ответы LLM на основе RAG могут ответить на 35 & Ndash; 62% времени, когда полученные данные имели недостаточный контекст. Это означало, что достаточный контекст не был необходим для повышения точности, поскольку модели смогли вернуть правильный ответ без него в 35-62% случаев.

< p > Они использовали свое открытие для такого поведения, чтобы создать метод выборочной генерации, который использует индикаторы доверия (вероятность самооценки, что ответ может быть правильным) и достаточных контекстов, чтобы решить, когда генерировать ответ и когда сохранить (чтобы избежать неправильных утверждений и галлюцинаций). Это достигает баланса между тем, что позволяет LLM отвечать на вопрос, когда есть твердое уверенность, а также позволяет вам оставаться, когда существует достаточный или недостаточный контекст, чтобы ответить на вопрос.

~ ~ ~ ~ ~ ~ ~ ~ ~ 0 ~ p > 0 ~ em >Исследователи описывают, как это работает:

< Blockquote >< P > & ldquo; & Хеллип; Мы используем эти сигналы для подготовки простой линейной модели для прогнозирования галлюцинаций, а затем используем ее для установления точного порога компромиссов. < Br > Этот механизм отличается от других стратегий для улучшения удержания двумя ключевыми способами. Во -первых, поскольку он работает независимо от поколения, это Pom ' Хеллип; Во -вторых, он предлагает управляемый механизм удержания, который позволяет вам выполнять различные операционные настройки в различных приложениях, таких как строгое соблюдение в медицинских областях или максимальное покрытие задач творческого поколения. < H2 > Снятие < p >Прежде чем кто -то начнет утверждать, что достаточность контекста является фактором оценки, это & ​​amp; Rsquo; Контекстуальная достаточность является одним из факторов, но с помощью этого конкретного метода индикаторы доверия также влияют на ответы, которые возникают, вмешиваясь в решение об удержании. Пороговые значения отряда динамически скорректируются на основе этих сигналов, что означает, что модель не может быть разрешена, если уверенность и достаточность являются низкими.

< p > Хотя страницы с полной и хорошо структурированной информацией, вероятно, будут содержать достаточный контекст, другие факторы, такие как, как и AI, выбирает и занимает соответствующую информацию, систему, которая определяет, какие источники получают и как изучен LLM. Вы можете & Rsquo; T изолируйте один фактор, не принимая во внимание более широкую систему, которая определяет, как ИИ получает и генерирует ответы.

< p >Если эти методы реализованы в ИИ или ассистенте в чате, это может привести к сгенерированным AI ответам, которые все чаще полагаются на веб-страницы, которые предоставляют полную, хорошо структурированную информацию, поскольку они, вероятно, будут содержать достаточный контекст для ответа на запрос. Ключ состоит в том, чтобы предоставить достаточную информацию в одном источнике, чтобы ответ был бессмысленным, не требуя дополнительных исследований.

< p >< Strong > Что такое страницы с недостаточным контекстом ? 0 ~/strong > 0 ~/p > ~ > 62 ~ 62 < ul > < li > Недостаточно подробно, чтобы ответить на запрос

< li > вводя в заблуждение

< li > неполное

< li > противоречиво ​

< li > неполная информация

< li > Содержание требует предварительных знаний

< P > Необходимая информация для завершения ответа разбросана в разных разделах, не представленной ни в одном ответе.

< p > Google & Rsquo; S Правила рейтинга качества (QRG) имеют концепции, аналогичные контекстуальной достаточности. Например, QRG определяет страницы низкого качества как те, которые не достигают их целей, потому что они не предоставляют необходимый опыт, детали или соответствующую информацию для этой темы.

~ < H3 > Проходит из руководств по рейтингу:

< p >< em > & ldquo; Низкое качество страницы не достигает их цели, поскольку они отсутствуют в важном измерении или являются проблемным аспектом & Rdquo; ~/p > ~ ~ ~ ~ ~ ~ ~ ~ ~ ~ ~ ~ < p >< em > & ldquo; Страница под названием & lsquo; Сколько сантиметров в метре ? & Rsquo; С большим количеством того, что он не поддерживает и не использует контент, так что очень низкая полезная информация трудно найти. & Rdquo;

< p >< em > & ldquo; На странице учебника с инструкциями о том, как сделать основное ремесло, и многие неполные & lsquo; Наполнитель, такие, как и известные факты о необходимых материалах или другой информации о не -продукции. < p >< em > & ldquo; & Хеллип; много & lsquo; наполнитель & Rsquo; или бессмысленный контент & Хеллип; & Rdquo;

< p > Даже если Google & Rsquo; Обзоры S Gemini или AI не вводят изобретения в этой исследовательской работе, многие понятия, описанные в интернализации.