Web Scraping Qualquer Coisa

Olha, vamos aqui com um pouco de jurimetrics.

Eu to pesquisando autorregulação da B3, feita pela BSM, e até comecei a fazer um scrapper dos processos administrativos da BSM.

A listagem com todos os processos está aqui: https://www.bsmsupervisao.com.br/atividades-disciplinares-e-processos/acompanhe-os-processos

Dos dados de cada processo, esse link “exportar para o excel” gera todas as informações que estão presentes no link acima e no https://www.bsmsupervisao.com.br/atividades-disciplinares-e-processos/acompanhe-os-processos/detalhes/PAD-001/2008 , que são detalhes/PAD-001/2008. Até aqui não há necessidade de web scrapping.

Eu queria scrappar a página que vem com “Ementas e Documentos do Processo” que alguns têm a ementa da decisão e até o inteiro teor, além links para outros documentos em pdfs.

https://www.bsmsupervisao.com.br/atividades-disciplinares-e-processos/acompanhe-os-processos/parecer/2010-001-pad

Parsear, de modo uniforme algumas páginas que as vezes tem ementas, as vezes não tem, as vezes só links, tem sido uma certa dificuldade pra mim. Eu tentei usando aquele método que vcs usaram na outra live, olhando o padrão do site e dando paste(“https://www.bsmsupervisao.com.br/atividades-disciplinares-e-processos/acompanhe-os-processos/parecer/”, str_extract("\d*\-\d*),"-pad") .

o httr rolou, mas o parse parou aí! kk

Os dados são públicos e não tem captcha!

1 curtida

Dados de vacinação do governo federal

https://qsprod.saude.gov.br/extensions/DEMAS_C19Vacina/DEMAS_C19Vacina.html

2 curtidas

Opa, aproveitar a deixa!

No site da Epagri tem os preços diários praticados pelo mercado agrícola no estado de Santa Catarina. Preciso baixar os arquivos e fazer análises semanais.

No seguinte site eu entro escolho o mês:
https://cepa.epagri.sc.gov.br/index.php/produtos/mercado-agricola/precos-agricolas-diario-indice/
image

Depois disso abre a seguinte página (mês de março):
https://cepa.epagri.sc.gov.br/index.php/produtos/mercado-agricola/Precos-agricolas-diario-Mar-2021/

Cada dia é um link para uma base de dados, gostaria de poder baixar automaticamente todas essas bases, e não uma a uma haha (manual). A faxina e organização das mesmas é algo que com um pouco de prática consigo resolver, o problema é o download automático mesmo.

Se der boa, show. Não tenho certeza se entra dentro dos requisitos da live.

Muito obrigado!

Abraços.

2 curtidas

Um site que já foi pedido aqui e aparece em todos os fóruns sobre web scraping é o Whoscored. Eu já até consegui capturar algumas coisas usando Selenium, com Python, mas foi muito na tentativa e erro, a real é que eu não consigo entender qual técnica devo aplicar para esse tipo de site.

Aqui vai o link:
https://www.whoscored.com/Matches/1539006/Live/Brazil-Brasileirão-2021-Red-Bull-Bragantino-Bahia

Nessa página o que eu queria era, lá embaixo onde tem o campinho, clicando em ‘Chalkboard’ se vê vários pontinhos. Se eu clico em um deles, me traz a descrição completa da ação (ver imagem abaixo). Meu sonho é baixar os atributos de cada ponto aí (a localização + a descrição).

Tudo que é texto e número na página eu até consegui, simulando uma navegação com Selenium, mas simular esse clique no ponto não rolou. O problema desse meu “método”, é que não é escalável.

Tentei mexer nesse site e bloquearam meu ip =( kkk. Acho que eles não querem ser scrapeados!

Tentei raspar os dados do Eschmeyer’s Catalog of Fishes recentemente e falhei miseravelmente kkkk Esse é o site referência mundialmente para taxonomia de peixes.

O link do site é CAS - Eschmeyer's Catalog of Fishes:

Se desse pra raspar a tabela do CAS - Eschmeyer's Catalog of Fishes - Genera/Species by Family/Subfamily já seria uma mão na roda

Eu consegui puxar a tabela do Genera/Species by Family/Subfamily pelo Google Planilhas mesmo kkkk e posso arrumar os nomes por Ordem, Família e Subfamília já que todos usam o mesmo sufixo por grupo.
Planilha

O que seria interessante que não sei fazer, seria fazer a busca no site principal e retornar o texto como resultado.
Ex buscando “cichla kelberi”:

O OpenDataSUS é um repositório do CKAN. Tem uma API por trás que dá para usar alguns atalhos.

Estou tentando fazer uma função para puxar os dados históricos dos reservatórios da SABESP para implementar no pacote reservatoriosBR, que já divulguei aqui.
Por esse link é possível selecionar as variáveis a serem buscadas (datas e sistema ali que nesse caso é 0).

No entanto tenho muita dificuldade na transformação desses dados (em JSON) em um dataframe no R. São várias listas dentro de listas dentro de listas kkkkk
Alguém poderia ajudar?

Com a crise hídrica, seria bem importante utilizar esses dados em análises.
Caso alguém queira contribuir com o pacote, ajudando no desenvolvimento de funções etc, é só entrar em contato!

Bruno, olá!

Perdoe-me o engano, caso não seja o que estou entendendo, mas isso que você está tentando fazer não é algo semelhante ao pacote implementado pela @beatrizmilz?

beatrizmilz/mananciais: Base de dados sobre volume operacional em mananciais de abastecimento público na Região Metropolitana de São Paulo (SP - Brasil). (github.com)

Veja se encontra alguma dica nos códigos do pacote.

Abraços.

1 curtida

Nossa, você tem razão! Não sabia da existência desse pacote. E hoje esbarrei nos dados da SABESP e pensei em implementar no reservatoriosBR. Mas esse pacote da Beatriz é perfeito! Vou inclusive citar na descrição do meu! Parabéns @beatrizmilz pelo trabalho!!!

2 curtidas

Que tal esse. Apesar de já estar previsto no cronograma de Dados Abertos, minha curiosidade é no sentido de ver o modelo estatístico que irão propor :chart_with_upwards_trend: :bar_chart:

Da pra organizar dos dados da plataforma de curriculum lattes e criar uma base de pontuação?

Boa noite pessoal! Tudo bem?

Gostaria de deixar a seguinte sugestão de scraping:

https://www.cepea.esalq.usp.br/br/consultas-ao-banco-de-dados-do-site.aspx

Valeu!

Olá, Bruno!

Doeu um pouco mais do que o esperado mas conseguimos!

Caaaara, não acredito que perdi bem essa live! Infelizmente não consegui assistir :sob: :sob:

Acabei de assistir agora, e vocês mandaram bem demais!!! (Menos na parte relativa à biologia, mas estão perdoados kkkkk)

Vou tentar adaptar esse código com o que utilizamos e dou um retorno aqui também!
Mas a tibble ficou incrível!
E parabéns pela live, foi muito boa, aprendi muito!

Abraços

3 curtidas

O @Ariel_Levy está precisando de um código que baixa as tabelas desse site todos os dias!

https://sistemaswebb3-listados.b3.com.br/indexPage/theorical/IBOV?language=pt-br

Tanto a tabela diária quanto a trimestral.

O problema é que o link de download do CSV muda todo dia.

Eu montei esse código que funciona hoje, mas não sei no futuro

r <- httr::GET(
  "https://sistemaswebb3-listados.b3.com.br/indexProxy/indexCall/GetDownloadPortfolioTheorical/eyJpbmRleCI6IklCT1YiLCJsYW5ndWFnZSI6InB0LWJyIn0=",
  httr::config(ssl_verifypeer = FALSE)
)

httr::content(r, "text") |> 
  base64enc::base64decode() |> 
  readr::read_delim(delim = ";",
                    escape_double = FALSE, 
                    locale = readr::locale(encoding = "ISO-8859-2",decimal_mark = ","), 
                    trim_ws = TRUE, skip = 1) |> 
  janitor::clean_names() |> 
  dplyr::filter(!is.na(acao))
1 curtida

Site sugetido pelo Lucas Adriano, aluno da Curso-R

https://auditasus.com.br/destaques/covid19-braasil

Boa noite! Chance de ouro de fazer um web scraping legal e muito útil! Site da Agência Nacional de Mineração que fiscaliza as barragens de rejeito.

https://app.anm.gov.br/SIGBM/Publico/GerenciarPublico

A ideia seria conseguir raspar as informações que ficam ao clicar na lupinha, na extrema direita da linha de cada registro relativo a cada barragem!

1 curtida

Um site do governo importante é a seção de Consultas Públicas, que muitas vezes são abertas e passam despercebidas pela população.

Como visto na reportagem da Agência Pública, o governo fez uma consulta pública de 30 de março a 29 de abril deste ano sobre um programa de fracking, extração de gás e óleo atualmente proibida no Brasil, (a ser lançado nesse mês de junho), e tivemos só 5 (??) contribuições.

O site de Consulta Pública em questão é o do Ministério de Minas e Energias, mas talvez se os outros seguirem o mesmo padrão, poderíamos só exportar.

Uma base de dados com título, subtitulo, prazo inicial e final, status e link já seria bem legal!

http://antigo.mme.gov.br/web/guest/servicos/consultas-publicas

1 curtida