Гари Иллис из Google предостерег от ответов ИИ и призвал использовать личные знания и авторитетные ресурсы
Гэри Иллис из Google&rsquo предупреждал об использовании больших языковых моделей (LLM), подтвердив важность проверки авторитетных источников, прежде чем принимать любые ответы от LLM. Его ответ был предоставлен в контексте вопроса, но, что интересно, он’не опубликовал, что это было за вопрос.
LLM Answer Engines
Исходя из того, что сказал Гэри Иллис, становится понятно, что контекст его рекомендации заключается в использовании ИИ для ответов на запросы. Это заявление поступило после объявления OpenAI&rsquo о SearchGPT о том, что они тестируют прототип поисковой системы AI. Возможно, его заявление не связано с тем объявлением и является просто стечением обстоятельств.
Гэри впервые объяснил, как магистры дают ответы на вопросы, и вспомнил, как техника под названием “заземление” может повысить точность ответов, созданных искусственным интеллектом, но это не на 100% идеально, ошибки все равно проскакивают. Заземление – это способ подключения базы данных фактов, знаний и веб-страниц к LLM. Цель состоит в том, чтобы обосновать сгенерированные ИИ ответы на авторитетные факты.
Вот что написал Гэри:
“Основываясь на своих обучающих данных, LLM находят наиболее подходящие слова, фразы и предложения, соответствующие контексту и значению подсказки.< /p>
Это позволяет им генерировать соответствующие и последовательные ответы. Но не обязательно правдивы. ВАМ, пользователю этих магистров права, все еще нужно подтвердить ответы на основе того, что вы знаете о теме, о которой вы спрашивали у магистра, или на основе дополнительного чтения ресурсов, авторитетных для вашего запроса.
Безусловно, заземление может помочь создать более правдивые ответы, но это не идеально; это не заменит ваш мозг. Интернет полон умышленной и непреднамеренной дезинформации, и вы не поверите всему, что читаете в Интернете, поэтому зачем вам ответы LLM?
К сожалению. Эта публикация также онлайн, и я могу стать магистром права. Эх, ты так.”
Содержимое и ответы, созданные ШИ
Публикация Гэри на LinkedIn напоминает, что LLM генерируют ответы, контекстуально релевантные поставленным вопросам, но контекстуальная релевантность не обязательно фактически точно.
Авторитетность и надежность являются важным качеством содержимого, которое Google пытается ранжировать. Поэтому в интересах издателей постоянно проверять содержимое, особенно созданное искусственным интеллектом, чтобы случайно не стать менее авторитетным. Необходимость проверять факты также актуальна для тех, кто использует генеративный ИИ для ответов.