здесь программист-новичок и скрывается, надеясь на какой-нибудь дельный совет. :)
Используя комбинацию Python, BeautifulSoup и Bing API, я смог найти то, что хотел, с помощью следующего кода:
import urllib2
from BeautifulSoup import BeautifulStoneSoup
Appid = #My Appid
query = #My query
soup = BeautifulStoneSoup(urllib2.urlopen("http://api.search.live.net/xml.aspx?Appid=" + Appid + "&query=" + query + "&sources=web"))
totalResults = soup.find('web:total').text
Поэтому я хотел бы сделать это по нескольким тысячам поисковых запросов, и мне было интересно,
- выполнение этого запроса тысячу раз будет истолковано как удар по серверу,
- какие шаги я должен предпринять, чтобы не забивать указанные серверы (каковы лучшие практики?), и
- есть ли более дешевый (по данным) способ сделать это с помощью любого из основных API поисковых систем?
Просто кажется излишне дорогим собирать все эти данные только для того, чтобы получить одно число для каждого ключевого слова, и мне было интересно, пропустил ли я что-нибудь.
FWIW, я проделал некоторую домашнюю работу и попробовал Google Search API (устаревший) и Yahoo BOSS API (скоро будет объявлен устаревшим и заменен платным сервисом), прежде чем остановиться на Bing API. Я понимаю, что прямая очистка страницы считается плохой формой, поэтому я перейду на очистку поисковых систем напрямую.