Мой код Python успешно очищает текст с https://www.groupeactual.eu/offre-emploi и сохраняет их в файл csv.
Тем не менее, на указанном выше сайте есть несколько страниц, на которых я хотел бы иметь возможность парсить.
Например, с приведенным выше URL-адресом, когда я нажимаю ссылку на страницу 2, общий URL-адрес изменяется, но когда я использую этот URL-адрес в своем коде, я получаю результаты со страницы 1.
Как можно изменить мой код, чтобы собирать данные со всех доступных перечисленных страниц?
Мой код:
from bs4 import BeautifulSoup
import requests
import pandas as pd
response = requests.get('https://www.groupeactual.eu/offre-emploi').text
soup = BeautifulSoup(response, "html.parser")
[Rest of the code goes here .... ]