HANE extrai só o que importa — funções, tabelas, entidades — e entrega um contexto 70 % menor ao seu LLM. Mesmo precisão. Custo ~3× menor.
† Medido pela API do LLM em testes reais. Economia interna do pipeline (CSG + budget + cache, base do registro INPI): ~90%.
HANE (Hierarchical Adaptive NER Encoder) é um pipeline de extração de entidades nomeadas composto por quatro camadas adaptativas: seleção contextual semântica, NER hierárquico, budget adaptativo e cache de padrões. O resultado é uma extração precisa e eficiente, mesmo em documentos longos e densos.
Construído sobre o modelo GLiNER (open-source) como motor de NER, o HANE adiciona camadas proprietárias — ontologia adaptativa, budget semântico e cache de padrões — que transformam extração bruta em contexto estruturado e eficiente. Não requer retreinamento para novos domínios.
CSG + HierarchicalNER + AdaptiveBudget + PatternCache trabalham em conjunto para maximizar precisão e minimizar custo computacional.
Hierarquias de entidades definidas em YAML — ajuste ao vocabulário do seu domínio sem código.
Relatório de economia real em USD por chamada comparado a GPT-4o, Claude, Gemini e Llama.
FastAPI com autenticação por API Key, OAuth Google, rate limiting e suporte a PDF, DOCX, XLS, JSON, XML e mais. Dashboard para gestão de chaves e relatórios de uso.
Rode nos seus servidores. Seus dados não saem do seu ambiente.
Métricas F1, Precision e Recall geradas automaticamente via GLiNER como gold standard.
Faça upload de qualquer .PRW, .PY, .JS ou .SQL e receba em segundos o contexto comprimido pronto para o seu LLM.
Envie qualquer arquivo de código ou documento — .PRW, .PY, .JS, .SQL, PDF, DOCX. O HANE detecta o domínio automaticamente.
Pipeline em 4 camadas extrai funções, tabelas, entidades e relações. Descarta ruído, duplicatas e código morto. Calcula o budget de tokens ideal.
Seu LLM recebe um contexto estruturado com 70% menos tokens — mesma cobertura semântica, custo ~3× menor por chamada.
Quatro modelos de uso — do mais simples ao mais avançado. O HANE entra como camada de eficiência antes do LLM, independente de qual você usa.
O HANE extrai entidades estruturadas dos documentos e entrega JSON pronto — sem chamar nenhum LLM externo. Custo por token: zero.
Ideal quando a resposta não precisa ser em linguagem natural — só estrutura.
Antes de enviar o documento ao LLM, o HANE comprime o contexto e injeta entidades estruturadas. O LLM recebe menos tokens, responde melhor e custa menos.
Resultado validado: 30.000 tokens → 4.500 tokens · GPT-4o: $107 → $16 / mês por 1.000 docs.
O HANE atua como ferramenta dentro do agente — via REST API (POST /annotate) ou MCP (extract_entities) — extrai entidades estruturadas para que o LLM raciocine sobre dados verificados, não texto bruto.
O HANE reduz ~70% do custo das chamadas LLM em cada etapa do agente.
Via hook UserPromptSubmit, o HANE intercepta o prompt automaticamente quando detecta um arquivo mencionado — injeta contexto estruturado antes de o Claude receber a mensagem.
PDF, TXT, DOCX.py, .js, .ts, .sql, .prw, .tlppZero esforço após configuração. ~70% menos tokens enviados ao Claude — medido por API em testes reais.
Ferramenta standalone para devs: indexa o projeto uma vez e responde perguntas sobre o código com qualquer LLM — 80% mais barato que colar o projeto inteiro.
hane-code index ./src — indexa com cache incrementalhane-code ask "como funciona X?" --provider openaihane-code review — analisa arquivos modificados no githane-code diff arquivo.py — impacto arquitetural de mudançasSuporta Python, JS/TS, SQL, ADVPL. Funciona com GPT-4o, Claude e Gemini.
O HANE expõe suas ferramentas como servidor MCP — qualquer host compatível (Claude Desktop, Claude Code, Cursor, Windsurf) pode invocar o pipeline diretamente, sem código de integração.
extract_entities — extrai entidades de qualquer textocompare_documents — diff semântico entre duas versõesestimate_tokens — pré-estimativa de economia (sem GPU)annotate_file — processa arquivo em discoZero engenharia extra para novos agentes. Config JSON de uma linha. Ver detalhes →
| Métrica | Código bruto | Com HANE | Ganho |
|---|---|---|---|
| Tokens enviados (ADVPL ~850 linhas) | 12 480 | 848 | −93 % |
| Custo GPT-4o (por 1 000 chamadas) | $31,20 | $2,12 | −93 % |
| Cobertura semântica | 100 % | 100 % | igual |
| Recall de entidades críticas | ~95 % | 100 % | +5 pp |
| Tempo de resposta do LLM | ~18 s | ~3 s | 6× mais rápido |
| Risco de alucinação (contexto irrelevante) | Alto | Baixo | estruturado |
* Valores medidos com ANALISE.PRW (51 funções, 850 linhas). GPT-4o a $2,50/M input tokens.
Faça upload de qualquer arquivo — .PRW, .PY, .JS, .SQL e mais —
e veja em segundos: domínio detectado, entidades extraídas e contexto comprimido pronto para o LLM.
Sem cadastro. Sem API key.
Conecte o pipeline HANE diretamente ao seu IDE ou agente — sem REST, sem código de integração. O LLM decide quando invocar o HANE e com quais parâmetros.
Claude Desktop, Claude Code, Cursor, Windsurf — qualquer IDE com suporte a MCP. Configura o HANE com um bloco JSON.
O modelo decide automaticamente quando chamar extract_entities, compare_documents ou estimate_tokens — sem prompt manual.
O HANE retorna entidades, métricas de compressão e ontologia — o LLM raciocina sobre dados verificados, não texto bruto.
| Ferramenta | Entrada | O que retorna | Tipo |
|---|---|---|---|
extract_entities |
texto, domínio | Entidades + métricas de compressão + cobertura | Tool |
compare_documents |
texto A + texto B | Diff semântico: removidas / novas / mantidas | Tool |
estimate_tokens |
texto | Economia estimada sem usar GPU | Tool |
annotate_file |
caminho do arquivo | Contexto comprimido + estrutura semântica | Tool |
annotate_url |
URL pública | Busca + extrai texto + contexto comprimido | Tool |
search_code |
query | Arquivos rankeados do índice semântico | Tool |
index_directory |
diretório, extensões | Indexa projeto incrementalmente — habilita search_code | Tool |
get_status |
— | Estado do pipeline, VRAM, cache e índice | Tool |
hane://ontology/{domínio} |
— | Ontologia hierárquica de entidades por domínio | Resource |
hane://domains |
— | Lista de domínios disponíveis + categorias de entidades | Resource |
hane://cache/stats |
— | Estatísticas do Pattern Memory Cache | Resource |
{
"mcpServers": {
"hane": {
"command": "python",
"args": ["/caminho/para/hane_mcp_client.py"],
"env": {
"HANE_MODE": "rest",
"HANE_API_URL": "http://localhost:8000",
"HANE_API_KEY": "sua_api_key"
}
}
}
}
Transporte stdio para uso local (Claude Code, Cursor) · Transporte HTTP para produção remota (HANE_MCP_TRANSPORT=http)
Não. O HANE atua como camada de pré-processamento antes do LLM. Ele comprime o contexto que você envia, tornando cada chamada mais barata e precisa. Você continua usando GPT-4o, Claude, Gemini ou qualquer outro modelo.
Na modalidade on-premise, zero. O pipeline roda inteiramente nos seus servidores e nenhum dado trafega para fora. A demo pública processa arquivos em memória e não os armazena.
Código: .PRW / .TLPP (ADVPL), .py, .js, .ts, .sql. Documentos: PDF, DOCX, TXT, XML, JSON, XLS/XLSX. Novos domínios podem ser adicionados via YAML de ontologias.
O HANE estima tokens por contagem de palavras (espaços). Na seção "Validar com IA real" da demo, os tokens são medidos diretamente pela API do LLM — contagem real, não estimativa. Há duas camadas de economia: interna do pipeline (~90%, base do registro INPI) e final no prompt LLM (~70%, medida por API).
Não. O HANE usa o modelo GLiNER pré-treinado e ontologias em YAML para adaptar ao seu domínio. Trocar de domínio é editar um arquivo de configuração — sem GPU, sem fine-tuning.
O pipeline HANE é software proprietário — registrado no INPI (BR 51 2026 002247-9). Ele é construído sobre GLiNER e spaCy, que são open-source; a inovação está nas camadas proprietárias: ontologia adaptativa, budget semântico, cache de padrões e API. A modalidade on-premise é licenciada por contrato. Entre em contato para planos e trial.
O MCP (Model Context Protocol) é um protocolo aberto da Anthropic que permite que LLMs invoquem ferramentas externas diretamente, sem engenharia de integração. O HANE expõe seu pipeline como servidor MCP — qualquer host compatível (Claude Desktop, Claude Code, Cursor, Windsurf) pode usar extract_entities, compare_documents e demais ferramentas com uma configuração JSON de uma vez. É indicado para times que já usam IDEs com IA e querem adicionar extração de entidades ao fluxo de forma nativa, sem escrever código de integração.
HANEIA TECNOLOGIA E INOVACAO LTDA
CNPJ: 66.370.086/0001-52
Jacion Silva
Interessado em uma demonstração, integração ou parceria? Preencha o formulário — respondemos em até 24 h.
Ou escreva direto: contato@haneia.com.br