Вопросы по теме 'google-crawlers'

Отображение рейтинга статьи в результатах поиска Google
Я пишу обзорный сайт, где сообщество оценивает посты. Я заметил, что Google может улавливать эти рейтинги и отображать их в результатах поиска. Кто-нибудь знает, как это достигается? Примером может служить сайт обзоров, такой как IGN, где на...
5848 просмотров
schedule 11.05.2023

Индексирует ли сканер Google асинхронно загруженные элементы?
Я создал виджет для веб-сайтов, который асинхронно загружается после загрузки страницы: <html>     <head>...</head>     <body>         <div>...</div>         <script type="text/javascript">...
2126 просмотров

Как я могу запретить поисковым системам Google ссылаться на разделы, посвященные ссылкам и предварительным просмотрам, на моем веб-сайте
На моем веб-сайте HTML5 мой «сторонний» контент часто содержит навигационные ссылки, чтобы побудить посетителя посетить другие страницы. Такие навигационные ссылки включают заголовок страницы, а иногда и предварительный просмотр содержимого. Эти...
476 просмотров
schedule 26.07.2022

Сканеры не берут файл Robots.txt из корня сайта, НО берут из корневого каталога.
Я заблокировал поисковые роботы для сканирования моего корневого веб-сайта (/ var / www / в моем случае) с помощью robots.txt. У меня есть файл robots.txt в / var / www /, и в нем есть строка ниже: Disallow / Теперь мне нужен один из моих...
730 просмотров
schedule 30.03.2023

Будет ли поисковый робот Google использовать формат _escaped_fragment_ ajax, когда ссылка перенаправляется на ссылку ajax?
Я знаю, что могу сделать обратное и сделать так, чтобы server.com/#!/mystuff можно было сканировать с помощью ajax, но я хочу знать, возможно ли обратное. Если у меня есть server.com/mystuff и это отправляет перенаправление на...
233 просмотров

Ошибка 404 появляется в пустых результатах внутреннего поиска. Что делать?
Согласно статье: https://support.google.com/webmasters/answer/181708?hl=en Soft 404 появляется, потому что некоторые критерии поиска на моем веб-сайте пусты, но мне нужно, чтобы эти страницы все равно индексировались Google, чтобы предотвратить...
1296 просмотров

Страница Google Crawler Ajax/Php
Что у меня есть Прежде всего, как я настроил свой сайт, так это то, что пользователь попадает на главный экран, есть выпадающее меню со ссылками, при нажатии на ссылку он отправляет целочисленное значение в функцию, которая отправляет 2 вызова...
228 просмотров

Как получить большие картинки в Google Image
Я хочу собирать картинки из поиска картинок Google. Однако меня постоянно уведомляют об ошибке. Например, URL https://www.google.com/search?q=banana&amp;hl=en&gws_rd=ssl&tbm=isch подходит для моего браузера, но в веб-сборе он...
391 просмотров

Доступ к robots.txt с локального хоста, а также с внешних IP-адресов
Я использовал облако Amazon для хостинга своего сайта. За последние три месяца я получил письма от команды Amazon о высоком сетевом трафике. После получения почты мы делаем наши экземпляры более безопасными и очищаем коды. Пока я проверяю это, я...
430 просмотров
schedule 01.03.2023

MEAN-SEO не работает должным образом
У меня есть проект в mejs. У него отключен режим html5, поэтому мои URL-адреса такие: http://localhost:3000/#!/products Я пытаюсь реализовать снимки AJAX, чтобы Google Crawlers мог видеть контент, сгенерированный javascript на стороне...
145 просмотров
schedule 10.06.2023

Перенаправить все поисковые роботы на определенное действие через route.rb Ruby on Rails
Мне нужно перенаправить все web crawlers , например facebook / google / twitter , на определенное действие в моем routes.rb API Rails. Я узнал, что это может сделать constraints в Ruby On Rails . Но я не знаю, как это сделать. Любая...
64 просмотров

Может ли поисковая система читать robots.txt, если доступ для чтения ограничен?
Я добавил файл robots.txt и добавил несколько строк для ограничения доступа к некоторым папкам. Также я добавил ограничение для всех на доступ к этому файлу robots.txt с помощью файла .htaccess. Могут ли поисковые системы читать содержимое этого файла?
64 просмотров
schedule 07.12.2022

Как правильно написать файл robots.txt для субдоменов?
Может кто-нибудь объяснить мне, как мне написать файл robots.txt, если я хочу, чтобы все поисковые роботы индексировали корень и некоторые определенные поддомены User-agent: * Allow: / Allow: /subdomain1/ Allow: /subdomain2/ Это правильно? И...
505 просмотров
schedule 08.04.2023

как получить полный HTML-контент со страницы результатов поиска Google
Я новичок в веб-сканировании, спасибо за помощь. Задача, которую мне нужно выполнить, — получить полный возвращаемый HTTP-ответ от поиска Google. При поиске в Google по поисковому ключевому слову в браузере на возвращаемой странице есть раздел:...
2750 просмотров

Fetch, поскольку Google не может вызвать API
У меня есть приложение для реагирования. Для SEO я просматриваю, как Google видит наше приложение для реагирования. В нашем приложении при сбое API мы показываем сообщение об ошибке на странице. Поэтому, когда мы делаем Просмотреть как Google , мы...
221 просмотров
schedule 03.08.2022

Uncaught SyntaxError: использование const в строгом режиме в chrome 40
Наше приложение ReactJS , созданное с помощью create-react-app , не индексируется в Google. В ходе расследования выяснилось, что поисковый робот Google использует движок Chrome v40 для анализа клиентских приложений. Итак, я получил Chrome 40 и...
1036 просмотров

Как я могу парсить сайты социальных сетей так же, как это делает Google? Использует ли Google API для каждого конкретного сайта или сканирование, не зависящее от конкретного сайта?
Как я могу парсить сайты социальных сетей так же, как это делает Google? Использует ли Google каждый специфичный для сайта API для извлечения содержимого сайта или сканирования, не зависящего от сайта?
30 просмотров
schedule 25.05.2023