Como Bloquear Bots e Aumentar a Performance do Seu Site Usando .htaccess
Se o seu site está lento, consumindo recursos demais ou apresentando picos estranhos de tráfego, é muito provável que não seja culpa da hospedagem — e sim de bots maliciosos. Muitas ferramentas automáticas ficam tentando mapear páginas, copiar conteúdo, testar vulnerabilidades ou simplesmente sobrecarregar o servidor sem nenhum benefício para o proprietário do site.
Para resolver esse problema de forma eficiente, este artigo apresenta um conjunto poderoso de regras para o arquivo .htaccess, capaz de bloquear quase todos os bots, crawlers agressivos, scanners, scrapers e ferramentas de ataque. Isso melhora a segurança, estabilidade e velocidade do seu site imediatamente.
Por que Bots Prejudicam o Desempenho do Site?
Bots maliciosos podem causar:
- Lentidão extrema no carregamento
- Consumo exagerado de CPU, RAM e I/O
- Picos de tráfego artificial
- Quedas frequentes do site
- Uso excessivo de banda
- Ataques contínuos a vulnerabilidades
Eles acessam milhares de páginas em segundos, simulam visitantes falsos e executam ações que nenhum usuário humano faria.
Com isso, os clientes reais encontram um site lento ou até indisponível — o que afeta vendas, SEO e reputação.
A Solução: Bloqueio Inteligente de Bots Via .htaccess
O código abaixo faz um bloqueio completo de:
✅ Bots de coleta (scrapers)
Ex.: Ahrefs, Semrush, DotBot, Baidu, Yandex, PetalBot, GPTBot, ClaudeBot, etc.
✅ Scanners de vulnerabilidade
Ex.: Acunetix, SQLMap, Nessus, Arachni, Netsparker.
✅ Ferramentas de ataques automatizados
Ex.: curl, wget, python-requests, scrapy, clients Go, Perl, Java etc.
✅ User-Agent vazio
Comportamento típico de scripts feitos para esconder sua origem.
❗ Mantém funcionamento de serviços essenciais
O endpoint /url/constulta.php é liberado, garantindo que as consultas continuem funcionando normalmente.
Código Completo do Bloqueio (.htaccess)
# =========================================
# BLOQUEIO TOTAL DE BOTS / SCRAPERS / SCANNERS
# =========================================
# Permitir consultas de endpoint
# RewriteCond %{REQUEST_URI} ^/url/constulta\.php [NC]
# RewriteRule ^ - [L]
# Bloquear todos os bots conhecidos e desconhecidos
RewriteCond %{HTTP_USER_AGENT} (Baiduspider|MJ12bot|OAI-SearchBot|AhrefsBot|Sogou|Yandex|PetalBot|SemrushBot|DotBot|BLEXBot|MegaIndex|Cliqzbot|OpenindexSpider|archive\.org_bot|spider|crawler|scan|nutch|slurp|heritrix|Seekport|Exabot|spbot|GPTBot|ChatGPT|AIbot|ClaudeBot) [NC,OR]
# Bloquear User-Agents usados em ataques (hacking tools)
RewriteCond %{HTTP_USER_AGENT} (curl|wget|python|python-requests|Go-http-client|libwww-perl|perl|java|okhttp|scrapy|httpclient|kali|nikto|fimap|httprequest) [NC,OR]
# Bloquear scanners de vulnerabilidade
RewriteCond %{HTTP_USER_AGENT} (acunetix|netsparker|sqlmap|owasp|arachni|nessus|bruteforce|zgrab|masscan|nmap) [NC,OR]
# Bloquear User-Agent vazio
RewriteCond %{HTTP_USER_AGENT} ^\s*$ [NC]
# Aplicar bloqueio
RewriteRule ^ - [F,L]
# =========================================
# Evita cachear respostas de bloqueio
# =========================================
Header set Cache-Control "no-cache, no-store, must-revalidate"
Como Isso Melhora a Velocidade do Site?
Quando esses bots são bloqueados:
- O servidor deixa de processar milhares de requisições inúteis
- A CPU e a RAM ficam disponíveis para clientes reais
- O tempo de resposta do Apache/Nginx diminui
- O WordPress/WHMCS/HTML abre muito mais rápido
- O site fica mais leve e estável
- A segurança aumenta drasticamente
Muitos sites registram até 40% de redução no consumo do servidor após aplicar esse bloqueio.
Quando Isso Deve Ser Usado?
Recomendado para sites que:
✔ Estão lentos sem motivo aparente
✔ Recebem tráfego suspeito
✔ Têm picos constantes de CPU
✔ Rodam WordPress, WHMCS ou sistemas vulneráveis
✔ Estão sofrendo ataques de bots
✔ São indexados por ferramentas agressivas
Conclusão
Bots maliciosos representam uma grande ameaça para a performance e segurança de qualquer site. Ao aplicar estas regras .htaccess, você protege o servidor contra tráfego automático indesejado e garante que os recursos permaneçam disponíveis para os visitantes reais.
O resultado é um site muito mais rápido, leve, seguro e estável — sem depender de plugins ou módulos adicionais.
Português