ToolzPod

Corretor de Texto com IA

Corrija textos localmente com um modelo de IA rodando no seu navegador via WebGPU

Selecione um modelo e clique em "Carregar Modelo IA" para começar. Tudo roda no seu navegador — nenhum dado é enviado a qualquer servidor.
0 caracteres
Os resultados aparecerão aqui após a correção...

O que é o Corretor de Texto com IA?

O Corretor de Texto com IA é uma ferramenta de revisão que prioriza a privacidade, executando um modelo de linguagem grande (LLM) diretamente no seu navegador por meio da tecnologia WebGPU. Diferente dos serviços na nuvem, seu texto nunca sai do seu dispositivo — todo o processamento acontece localmente na sua GPU. O modelo recomendado, Qwen 3 (4B), oferece suporte a mais de 119 idiomas e entrega correções de alta qualidade com apenas 2,5 GB de download.

Como usar este Corretor de Texto com IA

  1. Selecione um modelo de IA (Qwen 3 4B é o recomendado) e um modo de correção — "Fiel ao original" para correções mínimas, "Equilibrado" para melhorias naturais, ou "Aprimorar estilo" para um texto mais polido.
  2. Clique em "Carregar Modelo IA" para baixar o modelo (~2,5 GB). Isso acontece apenas uma vez; o modelo fica armazenado em cache no seu navegador para as próximas visitas.
  3. Cole ou digite o texto que deseja corrigir. Textos longos são automaticamente divididos em partes e processados sequencialmente.
  4. Clique em "Corrigir" e a IA retornará o texto corrigido junto com uma lista detalhada de cada alteração realizada.

Como funciona

Esta ferramenta utiliza o WebGPU, uma API moderna de navegador que fornece acesso direto à GPU para computação. O modelo selecionado é carregado e executado localmente pelo motor WebLLM. Para modelos com capacidade de raciocínio como o Qwen 3, é possível acompanhar o processo de pensamento da IA em tempo real antes do resultado final aparecer. Textos longos são automaticamente divididos em blocos gerenciáveis, processados um a um e combinados — não há limite rígido de caracteres.

Requisitos do sistema

O WebGPU é compatível com Chrome 113+, Edge 113+ e versões recentes de outros navegadores baseados em Chromium. É necessária uma GPU com pelo menos 4 GB de VRAM. O download inicial do modelo varia de 1,3 a 5 GB dependendo do modelo escolhido, e fica armazenado em cache para visitas futuras.

Perguntas frequentes

Meu texto é enviado para algum servidor?

Não. O modelo de IA roda inteiramente no seu navegador usando WebGPU. Seu texto é processado localmente no seu dispositivo e nunca é transmitido para lugar nenhum. Isso o torna seguro para documentos confidenciais.

Por que o primeiro carregamento é demorado?

Na primeira vez que você usa a ferramenta, é necessário baixar o modelo de IA e compilá-lo para a sua GPU. Depois disso, o modelo fica armazenado em cache no navegador e carrega muito mais rápido nas próximas visitas.

Quais idiomas são suportados?

O modelo padrão Qwen 3 (4B) suporta 119 idiomas, incluindo português, inglês, japonês, francês, alemão, espanhol, chinês, coreano e muitos outros. Modelos alternativos também estão disponíveis — o Qwen 3 (8B) oferece maior precisão para tarefas exigentes, enquanto modelos mais leves como Phi-3.5-mini e Llama 3.2 são opções para sistemas com memória GPU limitada.

Ferramentas relacionadas