15 de jan. de 2026
Go back
Prospecção Inteligente com Google Maps API: criando um Lead Scraper técnico em Python
Projeto técnico em Python usando Google Maps API para coletar, enriquecer e classificar negócios locais com foco em análise de mercado e prospecção qualificada.
Fique por dentro do que há de mais relavante no Marketing Digital, assine a nossa newsletter:
A prospecção comercial baseada em listas genéricas está cada vez menos eficiente. Bases frias, dados desatualizados e ausência de contexto reduzem drasticamente a taxa de resposta — especialmente quando falamos de serviços de Google Ads, Meta Ads e estratégias de aquisição de alto valor.
Neste artigo, apresento um projeto técnico completo desenvolvido em Python que resolve esse problema de forma estruturada: um pipeline de coleta, enriquecimento e classificação de negócios locais usando a Google Places API, com foco em qualidade, governança e uso consciente de dados públicos.
O projeto é open-source e pode ser acessado aqui:
👉 https://github.com/adrockmkt/lead_scraper_maps
O problema: listas grandes, pouco contexto e baixa conversão
Em projetos de mídia paga e consultoria, o gargalo raramente está na execução técnica das campanhas. Ele começa antes, na origem do lead:
Empresas sem site próprio
Negócios que não investem em mídia
Regiões sem concorrência (CPC baixo = baixa maturidade)
Contatos genéricos ou inexistentes
O objetivo do projeto foi criar uma solução que não prioriza volume, mas sim contexto competitivo e maturidade digital.
Visão geral da solução
O Lead Scraper Maps é um pipeline local que:
Consulta negócios locais no Google Maps (Text Search)
Enriquecimento via Place Details
Crawling leve do site institucional
Extração e classificação de emails
Score automático (0–100)
Cache em SQLite
Exportação estruturada em CSV
Tudo isso respeitando:
APIs oficiais
Rate limit
LGPD
Uso responsável de dados públicos
Arquitetura do projeto
Estrutura simplificada:
O design é modular, permitindo evolução por camadas sem retrabalho.
Coleta de dados com Google Places API
A base do projeto é a Text Search da Google Places API, combinando:
Nicho (ex: dedetizadora, clínica, escritório jurídico)
Bairro
Cidade
Exemplo de busca:
Essa abordagem permite clusterização geográfica, essencial para análise de concorrência e maturidade de mercado.
Enriquecimento e cache inteligente
Cada negócio encontrado passa por um enriquecimento via Place Details, coletando:
Site oficial
Telefone
Endereço estruturado
Bairro (address components)
Para evitar custos e chamadas duplicadas, o projeto implementa cache em SQLite, reutilizando dados já processados:
Esse ponto é crítico para manter o projeto economicamente viável.
Crawling leve do site e extração de emails
O crawler não é agressivo. Ele acessa apenas:
Home
Página de contato (quando detectada)
A extração de emails é feita via regex e classificada em dois grupos:
Corporativos (contato@empresa.com.br)
Genéricos (gmail, hotmail, outlook)
Nenhum formulário é submetido. Nenhum dado privado é coletado.
Sistema de score (0–100)
O score é o coração estratégico do projeto. Ele considera:
Nicho (alto ticket vs comoditizado)
Região (concorrência implícita)
Presença de site
Email corporativo
Completeness do perfil no Maps
Exemplo simplificado:
O resultado final permite priorização real, não subjetiva.
Outputs gerados
O pipeline gera três arquivos principais:
leads_qualificados.csv
Leads com score alto, prontos para CRM
leads_sem_email.csv
Empresas com potencial, mas contato via telefone/WhatsApp
leads_descartados.csv
Fora do perfil estratégico
Isso facilita integração com ferramentas como Kit, HubSpot, Pipedrive ou análise manual.
Controle de custo e boas práticas
O projeto foi desenhado para não escalar de forma irresponsável:
Cache persistente
Execução por nicho
Possibilidade de limitar bairros
Rate limit configurável
Sem scraping massivo
O README do projeto inclui uma seção específica sobre limites de custo da API, algo raramente visto em projetos similares.
Por que esse projeto importa
Mais do que gerar listas, esse projeto demonstra:
Engenharia aplicada a marketing
Uso responsável de dados públicos
Integração entre dados locais e estratégia de mídia
Base sólida para decisões comerciais
Ele também serve como framework reutilizável para:
Estudos de mercado
Análise de concorrência local
Avaliação de maturidade digital por região
Código aberto no GitHub
Todo o projeto está disponível publicamente:
👉 https://github.com/adrockmkt/lead_scraper_maps
Inclui:
README técnico
ROADMAP com evoluções planejadas
Código modular
Governança de segredos
Estrutura pronta para contribuição
Considerações finais
Automação sem critério gera ruído.
Dados sem contexto geram listas inúteis.
Projetos como este mostram que prospecção de alto valor começa na engenharia, não no disparo.
Se você trabalha com mídia paga, consultoria ou dados, vale explorar esse tipo de abordagem — mesmo que apenas como referência arquitetural.
Post sobre a sanitização da base aqui:
👉 Leia mais: Da prospecção inteligente à ativação: como sanitizar, segmentar e usar dados do Google Maps em Email Marketing





