Was ist der KI-Korrekturleser?
Der KI-Korrekturleser ist ein datenschutzorientiertes Textkorrektur-Tool, das ein großes Sprachmodell (LLM) vollständig in Ihrem Browser mithilfe der WebGPU-Technologie ausführt. Im Gegensatz zu cloudbasierten Diensten verlässt Ihr Text niemals Ihr Gerät. Das empfohlene Modell Qwen 3 (4B) unterstützt über 119 Sprachen und liefert hochwertige Korrekturen bei nur 2,5 GB Download-Größe.
So verwenden Sie den KI-Korrekturleser
- Wählen Sie ein KI-Modell (Qwen 3 4B wird empfohlen) und einen Korrekturmodus — „Originaltreu" für minimale Korrekturen, „Ausgewogen" für natürliche Verbesserungen oder „Stil verbessern" für stilistisch ausgefeilte Texte.
- Klicken Sie auf „KI-Modell laden", um das Modell (~2,5 GB) herunterzuladen. Dieser Download erfolgt nur einmal und wird im Browser zwischengespeichert.
- Fügen Sie den zu korrigierenden Text ein. Lange Texte werden automatisch in Abschnitte aufgeteilt und nacheinander verarbeitet.
- Klicken Sie auf „Korrigieren" — die KI liefert den korrigierten Text zusammen mit einer detaillierten Liste aller vorgenommenen Änderungen.
Wie es funktioniert
Dieses Tool nutzt WebGPU, eine moderne Browser-API, die direkten Zugriff auf Ihre GPU für Berechnungen bietet. Das gewählte Modell wird lokal über die WebLLM-Engine geladen und ausgeführt. Bei Reasoning-Modellen wie Qwen 3 können Sie den Denkprozess der KI in Echtzeit verfolgen, bevor das Endergebnis erscheint. Lange Texte werden automatisch in handhabbare Teile aufgeteilt, einzeln verarbeitet und zusammengeführt — so gibt es keine feste Zeichenbegrenzung.
Systemanforderungen
WebGPU wird in Chrome 113+, Edge 113+ und aktuellen Versionen anderer Chromium-basierter Browser unterstützt. Sie benötigen eine GPU mit mindestens 4 GB VRAM. Der erste Modell-Download beträgt je nach gewähltem Modell 1,3 bis 5 GB und wird für zukünftige Besuche zwischengespeichert.
Häufig gestellte Fragen
Wird mein Text an einen Server gesendet?
Nein. Das KI-Modell läuft vollständig in Ihrem Browser über WebGPU. Ihr Text wird lokal auf Ihrem Gerät verarbeitet und niemals irgendwohin übertragen. Dadurch ist es sicher für vertrauliche Dokumente.
Warum ist das erste Laden langsam?
Beim ersten Mal muss das KI-Modell heruntergeladen und für Ihre GPU kompiliert werden. Danach wird das Modell in Ihrem Browser zwischengespeichert und lädt bei späteren Besuchen deutlich schneller.
Welche Sprachen werden unterstützt?
Das Standard-Modell Qwen 3 (4B) unterstützt 119 Sprachen, darunter Deutsch, Englisch, Französisch, Japanisch, Spanisch, Chinesisch, Koreanisch und viele weitere. Für höhere Genauigkeit steht auch Qwen 3 (8B) zur Verfügung. Leichtere Modelle wie Phi-3.5-mini und Llama 3.2 eignen sich für Systeme mit begrenztem GPU-Speicher.