Что такое поисковые системы с искусственным интеллектом и как они работают?
Поисковые системы прошли долгий путь от простого подбора ключевых слов к веб-страницам. У Google уже есть мощнейший алгоритм, который постоянно совершенствуется, но следующий шаг в поиске может быть уже здесь.
Поисковые системы с искусственным интеллектом идут дальше, используя продвинутые модели машинного обучения для понимания намерений, анализа контекста и получения более точных результатов. В отличие от традиционных поисковых систем, которые полагаются на алгоритмы ранжирования и проиндексированные страницы веб-сайтов, эти инструменты, управляемые искусственным интеллектом, обрабатывают запросы скорее как человек. Их ответы часто не указывают на веб-сайт и предназначены для простого обобщения информации.
Эти системы используют большие языковые модели, чтобы просеивать огромные объемы данных, обобщать контент, а иногда даже предсказывать, какая информация нужна пользователям, прежде чем они ее попросят. Некоторые поисковые системы с искусственным интеллектом также интегрируют функцию просмотра веб-страниц в режиме реального времени, что позволяет им получать свежую информацию, а не полагаться только на предварительно проиндексированные результаты. В быстро меняющемся мире новостей и технологий это может иметь решающее значение.
Что такое Perplexity AI?
Perplexity - это разговорная поисковая система, созданная для того, чтобы давать естественные ответы на запросы людей. Люди описывают его как нечто среднее между ChatGPT и Google по способу предоставления результатов. Это своего рода цифровой помощник, который просеивает множество информации, относящейся к запросу, и дает простой ответ, используя естественный язык.
В его основе лежит технология LLM от некоторых гигантов индустрии, включая GPT-4, Claude 3.5, Grok-2, Llama 3 и собственные LLM Perplexity, разработанные в компании.
Что такое Google SGE (Search Generative Experience)?
Возможно, вы уже столкнулись с ЕГЭ от Google, даже не подозревая об этом. Его начали внедрять в мае 2024 года, и сейчас он используется для многих поисковых запросов на платформе Google. Это улучшенная с помощью искусственного интеллекта версия стандартной поисковой системы.
Вместо того чтобы просто возвращать ссылки, SGE использует машинное обучение для создания резюме, предоставляя пользователям мгновенную информацию без необходимости переходить по нескольким результатам и читать веб-сайты, чтобы найти эту информацию.
Эта система интегрирует ответы, сгенерированные искусственным интеллектом, в верхнюю часть результатов поиска, предлагая мгновенный снимок релевантной информации, но при этом позволяя пользователям просматривать традиционные ссылки по своему усмотрению. Информация также может быть снабжена ссылкой на первоисточник, чтобы люди могли проверить ее или прочитать дальше.
Как работает поиск Microsoft Copilot?
Microsoft Copilot по своей концепции похож на SGE от Google. Поиск работает в рамках Bing, расширяя традиционный поиск с помощью обобщения на основе искусственного интеллекта и поиска данных в реальном времени. Благодаря интеграции технологии OpenAI (компании, создавшей ChatGPT) Copilot предоставляет подробные ответы, сохраняя при этом доступ к обычным веб-ссылкам для тех, кому они нужны. Microsoft также утверждает, что программа понимает контекст, что может значительно помочь в выдаче пользователям нужных результатов.
Что такое поиск ChatGPT и как он работает?
Функция поиска ChatGPTсочетает в себе генеративные ответы на основе искусственного интеллекта и просмотр веб-страниц в режиме реального времени. Она может брать цитаты и информацию непосредственно с живых сайтов, но также полагается на огромные знания самого LLM.
В отличие от традиционных поисковых систем, для которых приоритетом является рейтинг и авторитетность страницы, ChatGPT обеспечивает более интерактивный опыт, позволяя пользователям изменять свои запросы в рамках разговорного подхода.
Что такое галлюцинации искусственного интеллекта и как они возникают?
Когда система искусственного интеллекта генерирует информацию, которая является неточной, вводящей в заблуждение или может быть классифицирована как "фальшивые новости", ее обычно называют галлюцинацией ИИ. Это может произойти по нескольким причинам. Проще говоря, это связано с тем, как модели ИИ обрабатывают и прогнозируют текст.
Поисковые системы с искусственным интеллектом думают не так, как люди, - они предсказывают ответы, основываясь на закономерностях данных, которым их обучили. Иногда этот процесс идет неправильно, особенно в тех темах, где существует множество противоположных мнений. Некоторые исследования даже предполагают, что модели ИИ были обучены с использованием человеческих предубеждений, что может вызвать галлюцинации.
Галлюцинации также могут возникать, когда ИИ пытается заполнить пробелы в своих знаниях, придумывая факты, чтобы создать видимость полного и уверенного ответа. ИИ создается с целью ответить на вопросы и иногда будет делать это, используя неточную информацию. важно разрабатывать надежные средства защиты и механизмы обнаружения для смягчения потенциальных угроз.
Примеры галлюцинаций ИИ в поисковых системах
Многие из нас уже убедились в этом на собственном опыте, если они используют ИИ. Существует множество примеров того, как поисковые системы с искусственным интеллектом уверенно выдают неверные утверждения.
Чатбот Bard компании Google во время демонстрации в 2023 году [неверно объяснил](https://mashable.com/article/google-bard-james-webb-telescope-false-fact), что космический телескоп Джеймса Уэбба сделал первые в мире снимки планеты за пределами нашей Солнечной системы. Это была выдумка ИИ, из-за которой холдинговая компания Google даже потеряла миллиарды на стоимости своих акций.
Некоторые из ответов были юмористическими. Один из пользователей поделился скриншотом обзора ИИ на запрос "фрукты, которые заканчиваются на um", утверждая, что в качестве примеров были использованы "яблоко, банан, клубника, томат и кокос".
Можно ли манипулировать поисковыми системами AI?
Возможность манипуляций существует, и в последние месяцы это даже было доказано. Помимо генерации неправильных ответов, на поисковые системы с искусственным интеллектом могут влиять данные, на которых они обучаются.
ИИ опирается на данные, которые ему "скармливают" (говоря простым языком), и в первую очередь нуждается в надежных источниках. Это означает, что технология может быть предвзятой в зависимости от исходного материала. Например, некоторые исследования показали, что инструменты ИИ оценивают женские фотографии как более привлекательные по сравнению с мужскими, возможно, потому, что многие создатели технологии сами являются мужчинами с субъективным взглядом на вещи.
Исследования также показали, что текст, который просматривает ChatGPT и подобные ему системы искусственного интеллекта, может быть использован для манипуляций, с помощью скрытого текста, который может быть возвращен конечному пользователю. Также возможно, что различные веб-сайты могут работать вместе, чтобы попытаться обмануть или манипулировать ИИ - если достаточно много ненадежных источников говорят одно и то же, модель ИИ может принять это за факт и включить в свои результаты.
Предоставляют ли поисковые системы с искусственным интеллектом актуальную информацию в режиме реального времени?
Мы все привыкли к тому, что можно набрать в Google новости или что-то модное и увидеть результаты, которые были опубликованы совсем недавно. ИИ работает по-другому, поэтому насколько актуальна информация?
Имеет ли ИИ-поиск доступ к живым данным?
Модели ИИ обычно обучаются на моментальных снимках Интернета, а не постоянно обновляют свои знания. Это означает, что им не свойственно "видеть" новые веб-страницы так, как это делает традиционная поисковая система, например Google. Однако некоторые поисковые инструменты с искусственным интеллектом пытаются преодолеть этот пробел, интегрируя поиск в Интернете в режиме реального времени.
Copilot от Microsoft (бывший Bing AI) и Search Generative Experience (SGE) от Google пытаются использовать актуальные данные, связывая ответы ИИ с результатами поиска в реальном времени. Во многих поисковых системах с искусственным интеллектом может возникнуть задержка между публикацией новой информации и ее распознаванием поисковыми инструментами ИИ.
Насколько свежи данные в результатах поиска ИИ?
Свежесть данных зависит от модели ИИ. Некоторые модели ИИ знают только то, на чем они обучались, а значит, их данные могут быть устаревшими на несколько месяцев или даже лет. Например, данные модели предварительного обучения ChatGPT относятся только к октябрю 2023 года. Это существенный недостаток при поиске таких вещей, как текущие события или новые научные открытия. Например, если вы спросите у некоторых поисковых систем с искусственным интеллектом о последних лауреатах какой-либо премии, они могут не знать самой свежей информации.
Объективно ли ИИ-поиск ранжирует информацию?
В современную эпоху интернета объективность может быть в дефиците, и ИИ не обязательно исправляет ситуацию. Вместо того чтобы просто ранжировать существующие результаты, ИИ активно генерирует ответы, основываясь на закономерностях обучающих данных и поисковых алгоритмов. Это создает потенциал для предвзятости.
То, как ИИ отбирает и обобщает информацию, не всегда нейтрально. Если ИИ был обучен на данных, которые склоняются в определенную сторону, его резюме может отражать эту предвзятость, даже если это происходит непреднамеренно.
Разработчики постоянно работают над этим. Новая модель ChatGPT рекламирует тот факт, что частота предвзятости и галлюцинаций значительно снизилась, но мы находимся на ранней стадии развития этой технологии.
Являются ли поисковые системы с искусственным интеллектом риском для конфиденциальности?
Поисковые инструменты с искусственным интеллектом активно обрабатывают и генерируют ответы на основе запросов пользователей. Этот дополнительный уровень обработки вызывает вопросы о том, как обрабатываются и защищаются данные.
Отслеживают ли поисковые системы ИИ ваши данные?
Многие поисковые системы с искусственным интеллектом собирают данные. Их объем зависит от платформы. Некоторые из них хранят запросы для улучшения своих моделей ИИ, в то время как другие утверждают, что они не требуют долгосрочного отслеживания. Инструменты, работающие на основе ИИ, часто собирают данные для уточнения ответов и персонализации результатов. Люди интересуются, безопасно ли использовать Copilot и собирает ли SGE данные. Это сложные темы.
По словам представителей Microsoft, "Copilot построен на базе Microsoft Azure OpenAI Service и полностью работает в облаке Azure. Azure OpenAI обеспечивает региональную доступность и ответственную фильтрацию контента ИИ". Copilot действительно собирает данные, но может похвастаться тем, что в облаке они безопасны.
Не исключено, что платформы интегрируют поисковое поведение ИИ с существующими профилями пользователей. Это означает, что поисковая активность может быть связана с другими онлайн-привычками, что вызывает опасения по поводу безопасности данных и целевой рекламы.
Что происходит с вашими поисковыми запросами на платформах с искусственным интеллектом?
Данные поиска не исчезают автоматически. Хотя в правилах и условиях может быть подробно описан тот факт, что эти данные не передаются напрямую, они могут храниться в течение длительного времени, чтобы помочь усовершенствовать модели машинного обучения. Некоторые поисковые системы с искусственным интеллектом даже используют прошлые запросы для формирования будущих ответов.
Если инструмент поиска с искусственным интеллектом сохраняет пользовательский ввод, эти данные могут быть проанализированы для повышения точности или обучения будущих версий модели. Хотя компании утверждают, что личная информация удаляется, пользователи, заботящиеся о конфиденциальности, все равно могут чувствовать себя неловко из-за того, что их история поиска записывается в журнал.
Влияют ли на результаты поиска ИИ партнерские ссылки и реклама?
Большинство компаний руководствуются соображениями прибыли. Как поисковые системы, так и те, кто предоставляет им данные (издатели), могут использовать партнерские ссылки или рекламу в виде рекламного контента.
Например, SGE от Google уже интегрирует результаты, полученные с помощью искусственного интеллекта, в свою рекламную экосистему. Microsoft Copilot делает нечто подобное, смешивая ответы ИИ с продвигаемыми ссылками. Риск заключается в том, что резюме, созданные ИИ, могут тонко подталкивать пользователей к платному контенту, не делая это различие очевидным.
Чем никогда не следует делиться с поисковыми системами AI
Как и при размещении любой информации в Интернете, воздержитесь от публикации слишком большого количества своих личных данных. Хорошее правило - не делиться своей персональной информацией. Как пишет Аманда Касвелл в Tom's Guide , я сказала ChatGPT то, о чем до сих пор жалею - вот 7 вещей, которыми никогда не следует делиться. При взаимодействии с инструментами поиска ИИ (независимо от инструмента!) вы никогда не должны делиться следующим:
1: Личная идентифицируемая информация (PII) - все это запрещено: ваше настоящее имя, дата рождения, номер социального страхования (SSN), реальный адрес и т.д. Все, что вы не хотите отправлять на неизвестный адрес электронной почты, вы не должны использовать в разговоре с ChatGPT. Вы хотите ограничить это воздействие, поэтому используйте "фиктивное" имя и дату рождения, если это необходимо. Я был Helly R. больше раз, чем мне хотелось бы признать.
2: Финансовая информация - номера кредитных карт, банковских счетов, налоговая информация.
3: Пароли - хотя может показаться, что попросить ChatGPT создать для вас надежный пароль - хорошая идея, но это не так. Если вы должны использовать автоматический инструмент для создания пароля, по крайней мере, убедитесь, что он получен из надежного источника - подсказка, используйте наш генератор паролей . Также прочитайте о ключах доступа и многофакторной аутентификации как о более безопасных вариантах входа в систему.
4: Медицинская информация - может быть заманчиво пообщаться с полезным цифровым помощником о своем диагнозе. Мы писали о том, что поставщик чатботов AI раскрыл 346 000 файлов клиентов, включая документы, удостоверяющие личность, резюме и медицинские карты. Если вам придется общаться с ChatGPT о своем заболевании, постарайтесь воздержаться от упоминания того, что это ваш собственный диагноз. Делайте вид, что проводите исследование, а не раскрывайте свои конфиденциальные данные в сети.
Безопасны ли поисковые системы с искусственным интеллектом для детей?
Поскольку все больше молодых людей используют инструменты искусственного интеллекта для выполнения домашних заданий и общего просмотра сайтов, а также для развлечения, родители задаются важным вопросом: Безопасны ли поисковые системы с искусственным интеллектом для детей? Традиционные поисковые системы оснащены родительским контролем и фильтрами, которые помогают блокировать откровенный контент (не то чтобы они всегда были идеальными), но ответы, генерируемые искусственным интеллектом, добавляют новый уровень сложности.
Безопасен ли Perplexity AI для детей?
Неконтролируемое использование - это сложная тема, решение о которой должны принимать сами родители. Недоумевая, что ИИ генерирует ответы на основе закономерностей в обучающих данных, он иногда может выдавать вводящий в заблуждение или неуместный контент.
Хотя платформа утверждает, что использует методы фильтрации, текст, созданный искусственным интеллектом, не всегда предсказуем. В отличие от традиционных поисковых систем, которые просто блокируют определенные страницы, инструмент ИИ может синтезировать неподходящий контент на основе запросов пользователей.
Фильтрует ли ИИ-поиск неприемлемый контент?
Большинство поисковых систем с искусственным интеллектом пытаются фильтровать откровенные материалы. Однако ни одна система не является надежной, и ошибки могут случаться. Google SGE и Microsoft Copilot имеют инструменты модерации контента, но ИИ иногда может генерировать ответы, которые проскальзывают сквозь трещины.
Основная проблема заключается в том, что ИИ не "думает" так, как люди. Если его спросить о деликатной теме, он может непреднамеренно выдать контент, не подходящий для детей, даже если его не обучали этому напрямую. Это один из рисков, связанных с его использованием.
Какая поисковая система с искусственным интеллектом является лучшей (и самой безопасной)?
Пользователи Интернета должны принять решение. Какой поисковой системе с искусственным интеллектом они доверяют? Некоторые люди очень трепетно относятся к своим данным и к тому, как они используются, и в этом случае проверка условий и положений просто необходима.
Какая поисковая система с искусственным интеллектом обеспечивает наилучшую конфиденциальность?
Есть и компромиссы, но Perplexity AI позволяет анонимно просматривать веб-страницы и собирает только некоторые данные об использовании для улучшения результатов. Это, пожалуй, лучший вариант для обеспечения конфиденциальности.
С другой стороны, SGE от Google и Microsoft Copilot интегрируют искусственный поиск с существующими профилями пользователей. Не исключено, что поиск может быть связан с рекламными данными или личными аккаунтами. Поисковая система Brave была разработана с целью повышения уровня конфиденциальности, поскольку она генерирует ответы в браузере, а не на сервере.
Веб-поиск ChatGPT также может регистрировать взаимодействия пользователей с бесплатными учетными записями. Самые безопасные варианты ИИ - это те, которые не требуют регистрации и не собирают историю поиска.
Стоит ли доверять поисковым системам с искусственным интеллектом, а не Google?
Поисковые системы с искусственным интеллектом склонны к ошибкам, иногда выдавая дезинформацию или "галлюцинированные" факты за правду. Кроме того, они довольно новые и все еще развиваются, и будущее поиска может выглядеть совершенно иначе по мере добавления новых функций.
Хотя результаты поиска Google также могут быть необъективными (или сопровождаться рекламой), пользователи могут, по крайней мере, перепроверить несколько источников, прежде чем делать выводы. Для важных тем, требующих научных или медицинских знаний, использование поисковых систем и ссылок на несколько источников безопасно.
Для тех, кто не против сбора данных и хочет получить простой обзор темы, ИИ часто является отличным выбором.
Окончательный вердикт: стоит ли использовать поисковые системы с искусственным интеллектом?
Пользователи всегда должны быть осторожны и читать условия поисковой системы, которую они используют, независимо от того, работает ли она на основе искусственного интеллекта или нет. Аккаунты Google и Microsoft могут быть привязаны к данным, а это значит, что компании могут составить общую картину привычек пользователя.
Предвзятость может прокрасться как в традиционные поисковые системы, так и в системы искусственного интеллекта, и пользователям необходимо быть бдительными и готовыми к этому. Когда Google начал внедрять искусственный интеллект для широкой аудитории, он получил много критики по поводу качества результатов поиска. На Reddit часто можно увидеть дискуссии, подобные этой: AI Has Made Google Search So Bad People Are Moving to TikTok and Reddit.
Традиционный поиск зачастую лучше всего подходит для медицинских или научных целей, но в таких критических вопросах всегда следует проверять источник информации. Для быстрого просмотра информации и более разговорного подхода идеальной альтернативой могут стать системы искусственного интеллекта.
В конце концов, поиск с помощью искусственного интеллекта уже стал или станет частью вашей жизни. При его использовании не забывайте о конфиденциальности и уделяйте первостепенное внимание безопасности своих устройств.
Часто задаваемые вопросы
Смогут ли поисковые системы с искусственным интеллектом заменить Google?
Поисковые системы с искусственным интеллектом могут дополнять Google, но в разговорной форме они иногда выдают неверные ответы и не обладают обширной индексированной базой данных, которую предоставляет Google. Скорее всего, Google останется, поскольку он предлагает нечто отличное от систем искусственного интеллекта, предоставляя результаты в виде сниппетов и ссылок на веб-сайты.