Entrar
Pipeline NER · On-premise · Construído sobre GLiNER open-source

Você envia código inteiro ao LLM.
O HANE comprime.
Você economiza.

HANE extrai só o que importa — funções, tabelas, entidades — e entrega um contexto 70 % menor ao seu LLM. Mesmo precisão. Custo ~3× menor.

~70 % menos tokens no prompt LLM F1 0.853 no benchmark Recall 1.0 entidades críticas
ADVPL · ANALISE.PRW
// Antes — código bruto enviado ao LLM
Function CalcImpostos(cCliente, nValor)
  Local nICMS, nIPI, nTotal
  nICMS := SA1->A1_ICMS * nValor / 100
  nIPI := SA1->A1_IPI * nValor / 100
  Return nICMS + nIPI
Function GeraNFe(cPedido)
  Local oXML, cChave
  // ... +850 linhas ...
12 480 tokens −93 % ↓ 848 tokens
# Depois — contexto HANE enviado ao LLM
domain: advpl
functions: CalcImpostos, GeraNFe, ValidaPedido (+18)
tables: SA1, SC5, SD2, SF2
entities: ICMS, IPI, NFe, cCliente, nValor
# Antes — código Python bruto
def process_invoice(data: dict) -> dict:
  items = data["items"]
  total = sum(i["price"] * i["qty"] for i in items)
  tax = total * 0.12
  return {"total": total, "tax": tax}
# ... +320 linhas ...
4 200 tokens −87 % ↓ 546 tokens
# Contexto HANE — Python
domain: python
functions: process_invoice, calc_tax, validate_items (+9)
imports: decimal, typing, dataclasses
entities: invoice, items, price, tax, total
-- Antes — query SQL completa
SELECT c.CodCliente, c.NomeCliente,
       p.NrPedido, p.DtEmissao,
       SUM(i.Qtd * i.VlrUnit) AS Total
FROM Clientes c
JOIN Pedidos p ON c.CodCliente = p.CodCliente
-- ... +120 linhas ...
1 840 tokens −91 % ↓ 166 tokens
# Contexto HANE — SQL
domain: sql
tables: Clientes, Pedidos, ItensPedido, Produtos
joins: CodCliente, CodProduto
entities: NrPedido, DtEmissao, VlrUnit, Total
F1 0.853 vs GLiNER puro em benchmark real
~70% menos tokens no prompt LLM†
Recall 1.0 nenhuma entidade crítica perdida
28 manuais TOTVS validados no benchmark

† Medido pela API do LLM em testes reais. Economia interna do pipeline (CSG + budget + cache, base do registro INPI): ~90%.

O que é o HANE

HANE (Hierarchical Adaptive NER Encoder) é um pipeline de extração de entidades nomeadas composto por quatro camadas adaptativas: seleção contextual semântica, NER hierárquico, budget adaptativo e cache de padrões. O resultado é uma extração precisa e eficiente, mesmo em documentos longos e densos.

Construído sobre o modelo GLiNER (open-source) como motor de NER, o HANE adiciona camadas proprietárias — ontologia adaptativa, budget semântico e cache de padrões — que transformam extração bruta em contexto estruturado e eficiente. Não requer retreinamento para novos domínios.

Diferenciais

Pipeline em 4 camadas

CSG + HierarchicalNER + AdaptiveBudget + PatternCache trabalham em conjunto para maximizar precisão e minimizar custo computacional.

Ontologias editáveis

Hierarquias de entidades definidas em YAML — ajuste ao vocabulário do seu domínio sem código.

Custo estimado por LLM

Relatório de economia real em USD por chamada comparado a GPT-4o, Claude, Gemini e Llama.

API pronta para integração

FastAPI com autenticação por API Key, OAuth Google, rate limiting e suporte a PDF, DOCX, XLS, JSON, XML e mais. Dashboard para gestão de chaves e relatórios de uso.

On-premise

Rode nos seus servidores. Seus dados não saem do seu ambiente.

Benchmark auditável

Métricas F1, Precision e Recall geradas automaticamente via GLiNER como gold standard.

SEM CADASTRO · SEM API KEY

Veja a compressão acontecer ao vivo

Faça upload de qualquer .PRW, .PY, .JS ou .SQL e receba em segundos o contexto comprimido pronto para o seu LLM.

Abrir Demo →

Domínios suportados

Fiscal & Tributário ERP (TOTVS) Jurídico Financeiro Propriedade Intelectual (INPI) Médico & Saúde Código Python ADVPL / Protheus JavaScript / TypeScript SQL Genérico
COMO FUNCIONA

De código bruto a contexto inteligente em 3 passos

01

Upload do arquivo

Envie qualquer arquivo de código ou documento — .PRW, .PY, .JS, .SQL, PDF, DOCX. O HANE detecta o domínio automaticamente.

02

HANE processa

Pipeline em 4 camadas extrai funções, tabelas, entidades e relações. Descarta ruído, duplicatas e código morto. Calcula o budget de tokens ideal.

03

Contexto comprimido

Seu LLM recebe um contexto estruturado com 70% menos tokens — mesma cobertura semântica, custo ~3× menor por chamada.

Como o HANE se integra ao seu fluxo

Quatro modelos de uso — do mais simples ao mais avançado. O HANE entra como camada de eficiência antes do LLM, independente de qual você usa.

🗂️

A — Extração direta sem LLM

O HANE extrai entidades estruturadas dos documentos e entrega JSON pronto — sem chamar nenhum LLM externo. Custo por token: zero.

  • Indexação de acervos: manuais, contratos, laudos, NF-e
  • Construção de base de conhecimento e Knowledge Graph
  • Auditoria e compliance — rastreabilidade de entidades
  • Alimentação de sistemas de busca e BI

Ideal quando a resposta não precisa ser em linguagem natural — só estrutura.

B — Pré-processamento de linguagem RAG / LLM

Antes de enviar o documento ao LLM, o HANE comprime o contexto e injeta entidades estruturadas. O LLM recebe menos tokens, responde melhor e custa menos.

  • RAG corporativo sobre manuais, contratos e políticas
  • Chatbot técnico com contexto focado e sem alucinação
  • Q&A sobre ERP, fiscal, jurídico e saúde

Resultado validado: 30.000 tokens → 4.500 tokens · GPT-4o: $107 → $16 / mês por 1.000 docs.

🤖

C — Orquestração multi-agentes LangChain · CrewAI · AutoGen

O HANE atua como ferramenta dentro do agente — via REST API (POST /annotate) ou MCP (extract_entities) — extrai entidades estruturadas para que o LLM raciocine sobre dados verificados, não texto bruto.

  • Agente de análise de contratos: extrai partes, valores, prazos e riscos
  • Pipeline de due diligence: processa lote de documentos e gera parecer
  • Onboarding automatizado: lê manual → extrai configurações → valida sistema

O HANE reduz ~70% do custo das chamadas LLM em cada etapa do agente.

🔗

D — Hook de pré-processamento Claude Code

Via hook UserPromptSubmit, o HANE intercepta o prompt automaticamente quando detecta um arquivo mencionado — injeta contexto estruturado antes de o Claude receber a mensagem.

  • Documentos: PDF, TXT, DOCX
  • Código: .py, .js, .ts, .sql, .prw, .tlpp
  • Claude recebe entidades extraídas + domínio + métricas — sem copiar nada

Zero esforço após configuração. ~70% menos tokens enviados ao Claude — medido por API em testes reais.

⌨️

E — CLI para desenvolvedores hane-code

Ferramenta standalone para devs: indexa o projeto uma vez e responde perguntas sobre o código com qualquer LLM — 80% mais barato que colar o projeto inteiro.

  • hane-code index ./src — indexa com cache incremental
  • hane-code ask "como funciona X?" --provider openai
  • hane-code review — analisa arquivos modificados no git
  • hane-code diff arquivo.py — impacto arquitetural de mudanças

Suporta Python, JS/TS, SQL, ADVPL. Funciona com GPT-4o, Claude e Gemini.

🔌

F — MCP Server Model Context Protocol

O HANE expõe suas ferramentas como servidor MCP — qualquer host compatível (Claude Desktop, Claude Code, Cursor, Windsurf) pode invocar o pipeline diretamente, sem código de integração.

  • extract_entities — extrai entidades de qualquer texto
  • compare_documents — diff semântico entre duas versões
  • estimate_tokens — pré-estimativa de economia (sem GPU)
  • annotate_file — processa arquivo em disco

Zero engenharia extra para novos agentes. Config JSON de uma linha. Ver detalhes →

COMPARATIVO

HANE vs código bruto no LLM

Métrica Código bruto Com HANE Ganho
Tokens enviados (ADVPL ~850 linhas) 12 480 848 −93 %
Custo GPT-4o (por 1 000 chamadas) $31,20 $2,12 −93 %
Cobertura semântica 100 % 100 % igual
Recall de entidades críticas ~95 % 100 % +5 pp
Tempo de resposta do LLM ~18 s ~3 s 6× mais rápido
Risco de alucinação (contexto irrelevante) Alto Baixo estruturado

* Valores medidos com ANALISE.PRW (51 funções, 850 linhas). GPT-4o a $2,50/M input tokens.

CÓDIGO-FONTE

Veja o HANE em ação com seu próprio código

Faça upload de qualquer arquivo — .PRW, .PY, .JS, .SQL e mais — e veja em segundos: domínio detectado, entidades extraídas e contexto comprimido pronto para o LLM. Sem cadastro. Sem API key.

Experimentar a Demo →
MODEL CONTEXT PROTOCOL

HANE como servidor MCP

Conecte o pipeline HANE diretamente ao seu IDE ou agente — sem REST, sem código de integração. O LLM decide quando invocar o HANE e com quais parâmetros.

01
🖥️

Host MCP

Claude Desktop, Claude Code, Cursor, Windsurf — qualquer IDE com suporte a MCP. Configura o HANE com um bloco JSON.

02

LLM invoca o HANE

O modelo decide automaticamente quando chamar extract_entities, compare_documents ou estimate_tokens — sem prompt manual.

03
🎯

Contexto estruturado

O HANE retorna entidades, métricas de compressão e ontologia — o LLM raciocina sobre dados verificados, não texto bruto.

Ferramentas disponíveis

Ferramenta Entrada O que retorna Tipo
extract_entities texto, domínio Entidades + métricas de compressão + cobertura Tool
compare_documents texto A + texto B Diff semântico: removidas / novas / mantidas Tool
estimate_tokens texto Economia estimada sem usar GPU Tool
annotate_file caminho do arquivo Contexto comprimido + estrutura semântica Tool
annotate_url URL pública Busca + extrai texto + contexto comprimido Tool
search_code query Arquivos rankeados do índice semântico Tool
index_directory diretório, extensões Indexa projeto incrementalmente — habilita search_code Tool
get_status Estado do pipeline, VRAM, cache e índice Tool
hane://ontology/{domínio} Ontologia hierárquica de entidades por domínio Resource
hane://domains Lista de domínios disponíveis + categorias de entidades Resource
hane://cache/stats Estatísticas do Pattern Memory Cache Resource

Configuração — uma vez, para sempre

~/.claude.json  (Windows: C:\Users\<usuario>\.claude.json)
{
  "mcpServers": {
    "hane": {
      "command": "python",
      "args":   ["/caminho/para/hane_mcp_client.py"],
      "env": {
        "HANE_MODE":    "rest",
        "HANE_API_URL": "http://localhost:8000",
        "HANE_API_KEY": "sua_api_key"
      }
    }
  }
}

Transporte stdio para uso local (Claude Code, Cursor) · Transporte HTTP para produção remota (HANE_MCP_TRANSPORT=http)

SEM MCP
  • ✗  Cliente integra REST API manualmente
  • ✗  Engenharia diferente para cada agente
  • ✗  Contexto passado explicitamente no prompt
  • ✗  Sem integração nativa com IDEs
COM HANE MCP
  • ✓  Qualquer host MCP-compatível conecta imediatamente
  • ✓  Zero engenharia extra para novos agentes
  • ✓  LLM invoca o HANE no momento certo, automaticamente
  • ✓  Nativo: Claude Desktop, Code, Cursor, Windsurf
FAQ

Perguntas frequentes

Não. O HANE atua como camada de pré-processamento antes do LLM. Ele comprime o contexto que você envia, tornando cada chamada mais barata e precisa. Você continua usando GPT-4o, Claude, Gemini ou qualquer outro modelo.

Na modalidade on-premise, zero. O pipeline roda inteiramente nos seus servidores e nenhum dado trafega para fora. A demo pública processa arquivos em memória e não os armazena.

Código: .PRW / .TLPP (ADVPL), .py, .js, .ts, .sql. Documentos: PDF, DOCX, TXT, XML, JSON, XLS/XLSX. Novos domínios podem ser adicionados via YAML de ontologias.

O HANE estima tokens por contagem de palavras (espaços). Na seção "Validar com IA real" da demo, os tokens são medidos diretamente pela API do LLM — contagem real, não estimativa. Há duas camadas de economia: interna do pipeline (~90%, base do registro INPI) e final no prompt LLM (~70%, medida por API).

Não. O HANE usa o modelo GLiNER pré-treinado e ontologias em YAML para adaptar ao seu domínio. Trocar de domínio é editar um arquivo de configuração — sem GPU, sem fine-tuning.

O pipeline HANE é software proprietário — registrado no INPI (BR 51 2026 002247-9). Ele é construído sobre GLiNER e spaCy, que são open-source; a inovação está nas camadas proprietárias: ontologia adaptativa, budget semântico, cache de padrões e API. A modalidade on-premise é licenciada por contrato. Entre em contato para planos e trial.

O MCP (Model Context Protocol) é um protocolo aberto da Anthropic que permite que LLMs invoquem ferramentas externas diretamente, sem engenharia de integração. O HANE expõe seu pipeline como servidor MCP — qualquer host compatível (Claude Desktop, Claude Code, Cursor, Windsurf) pode usar extract_entities, compare_documents e demais ferramentas com uma configuração JSON de uma vez. É indicado para times que já usam IDEs com IA e querem adicionar extração de entidades ao fluxo de forma nativa, sem escrever código de integração.

A empresa

Razão social

HANEIA TECNOLOGIA E INOVACAO LTDA
CNPJ: 66.370.086/0001-52

Fundador

Jacion Silva

Fale com a gente

Interessado em uma demonstração, integração ou parceria? Preencha o formulário — respondemos em até 24 h.

Ou escreva direto: contato@haneia.com.br