AI 교정기란?
AI 교정기는 개인정보 보호에 중점을 둔 텍스트 교정 도구입니다. WebGPU 기술을 활용하여 대규모 언어 모델(LLM)을 브라우저 내에서 직접 실행합니다. 클라우드 서비스와 달리 텍스트가 기기를 떠나지 않습니다. 권장 모델인 Qwen 3(4B)은 119개 이상의 언어를 지원하며, 약 2.5GB 다운로드만으로 고품질 교정이 가능합니다.
AI 교정기 사용법
- AI 모델(Qwen 3 4B 권장)과 교정 모드를 선택합니다: «원문 충실»은 최소한의 수정, «균형»은 자연스러운 개선, «문체 향상»은 세련된 텍스트를 제공합니다.
- «AI 모델 로드»를 클릭하여 모델을 다운로드합니다(약 2.5GB). 이 다운로드는 한 번만 필요하며 브라우저에 캐시됩니다.
- 교정할 텍스트를 붙여넣거나 입력합니다. 긴 텍스트는 자동으로 분할되어 순차적으로 처리됩니다.
- «교정하기»를 클릭하면 AI가 교정된 텍스트와 함께 각 수정 사항에 대한 상세 목록을 제공합니다.
작동 원리
이 도구는 WebGPU(GPU에 직접 접근하는 최신 브라우저 API)를 사용합니다. 선택한 모델은 WebLLM 엔진을 통해 로컬에서 실행됩니다. Qwen 3과 같은 추론 모델에서는 최종 결과가 나타나기 전에 AI의 사고 과정을 실시간으로 관찰할 수 있습니다. 긴 텍스트는 자동으로 관리 가능한 크기로 분할, 개별 처리 후 결합됩니다.
시스템 요구사항
WebGPU는 Chrome 113 이상, Edge 113 이상 및 최신 Chromium 기반 브라우저에서 지원됩니다. 최소 4GB VRAM을 갖춘 GPU가 필요합니다. 초기 모델 다운로드는 선택한 모델에 따라 1.3~5GB이며, 이후 방문 시에는 캐시를 사용합니다.
자주 묻는 질문
텍스트가 서버로 전송되나요?
아니요. AI 모델은 WebGPU를 통해 브라우저 내에서 완전히 실행됩니다. 텍스트는 기기에서 로컬로 처리되며 외부로 전송되지 않습니다. 기밀 문서에도 안심하고 사용할 수 있습니다.
첫 로딩이 느린 이유는?
처음 사용 시 AI 모델을 다운로드하고 GPU에 맞게 컴파일해야 합니다. 이후에는 브라우저에 캐시되어 다음 방문 시 훨씬 빠르게 로드됩니다.
어떤 언어가 지원되나요?
기본 모델인 Qwen 3(4B)은 영어, 일본어, 프랑스어, 독일어, 스페인어, 중국어, 한국어 등 119개 이상의 언어를 지원합니다. GPU 메모리가 제한된 시스템을 위해 Phi-3.5-mini와 Llama 3.2 같은 경량 모델도 제공됩니다.