Гари Иллис из Google предостерег от ответов ИИ и призвал использовать личные знания и авторитетные ресурсы

Гэри Иллис из Google&rsquo предупреждал об использовании больших языковых моделей (LLM), подтвердив важность проверки авторитетных источников, прежде чем принимать любые ответы от LLM. Его ответ был предоставлен в контексте вопроса, но, что интересно, он’не опубликовал, что это было за вопрос.

LLM Answer Engines

Исходя из того, что сказал Гэри Иллис, становится понятно, что контекст его рекомендации заключается в использовании ИИ для ответов на запросы. Это заявление поступило после объявления OpenAI&rsquo о SearchGPT о том, что они тестируют прототип поисковой системы AI. Возможно, его заявление не связано с тем объявлением и является просто стечением обстоятельств.

Гэри впервые объяснил, как магистры дают ответы на вопросы, и вспомнил, как техника под названием “заземление” может повысить точность ответов, созданных искусственным интеллектом, но это не на 100% идеально, ошибки все равно проскакивают. Заземление – это способ подключения базы данных фактов, знаний и веб-страниц к LLM. Цель состоит в том, чтобы обосновать сгенерированные ИИ ответы на авторитетные факты.

Вот что написал Гэри:

“Основываясь на своих обучающих данных, LLM находят наиболее подходящие слова, фразы и предложения, соответствующие контексту и значению подсказки.< /p>

Это позволяет им генерировать соответствующие и последовательные ответы. Но не обязательно правдивы. ВАМ, пользователю этих магистров права, все еще нужно подтвердить ответы на основе того, что вы знаете о теме, о которой вы спрашивали у магистра, или на основе дополнительного чтения ресурсов, авторитетных для вашего запроса.

Безусловно, заземление может помочь создать более правдивые ответы, но это не идеально; это не заменит ваш мозг. Интернет полон умышленной и непреднамеренной дезинформации, и вы не поверите всему, что читаете в Интернете, поэтому зачем вам ответы LLM?

К сожалению. Эта публикация также онлайн, и я могу стать магистром права. Эх, ты так.”

Содержимое и ответы, созданные ШИ

Публикация Гэри на LinkedIn напоминает, что LLM генерируют ответы, контекстуально релевантные поставленным вопросам, но контекстуальная релевантность не обязательно фактически точно.

Авторитетность и надежность являются важным качеством содержимого, которое Google пытается ранжировать. Поэтому в интересах издателей постоянно проверять содержимое, особенно созданное искусственным интеллектом, чтобы случайно не стать менее авторитетным. Необходимость проверять факты также актуальна для тех, кто использует генеративный ИИ для ответов.