Olá tudo bem? Me matriculei no Curso de Web Scrapping, sei alguma coisa rvest:: e httr:: mas estou iniciando na área.
Estou tentando baixar essa tabela com as moções de aplauso da Câmara Municipal da minha cidade, disponível no url abaixo. Quero tentar baixar toda tabela de 8000 moções, que só exibe 15 linhas em uma página.
para baixar o a primeira página, é só fazer um GET (url= url ).
O site inteiro é uma table, e no final dela, tem o link para a próxima página, como está na imagem abaixo:
meu problema é: para ter o link da segunda página eu tenho que baixar a primeira página, parsear o html todo e buscar o link da segunda página. Com esse link, vou fazer um novo get, pegar o link da terceira e assim sucessivamente.
O link do proximo html a ser baixado está sempre no html que eu acabei de baixar.
imagino que haja uma forma menos manual de fazer isso, porque assim é impossível.
qual a melhor forma de automatizar esse processo de baixar várias páginas ao mesmo tempo? Loops? Ou Existe uma função pra isso?