Das Problem

Generative KI ist ein nützliches Werkzeug — aber jedes Mal, wenn Sie einen Text an einen Cloud-Dienst schicken, gehen Daten mit. Personennamen, Geburtsdaten, Kundennummern, Patientenakten, Vertragsentwürfe. Das, was Sie als Entscheidungsgrundlage in den KI-Dienst eingeben, wird Teil der Eingabe — und damit Teil des Datenschutzproblems.

Was Privat-in tut

Privat-in läuft als kleine Anwendung lokal auf Ihrem Rechner und prüft Texte, bevor sie an einen Cloud-Dienst gehen. Es erkennt strukturell sensible Daten — Namen, Anschriften, Identifikationsnummern, Kontodaten und ähnliche Muster — und blendet sie ein, bevor Sie auf „Senden" klicken. Sie sehen genau, was erkannt wurde, und entscheiden, ob es so übertragen werden soll oder nicht.

Die Erkennung selbst geschieht ausschließlich auf Ihrem Gerät, ohne Netzanbindung an Dritte. Das ist nicht nur eine Designentscheidung; es ist der Punkt: Wenn der Detektor in der Cloud läuft, ist das Datenschutzproblem nur verschoben, nicht gelöst.

Wann verfügbar?

Wir testen Privat-in derzeit mit ausgewählten Anwendern. Ein Veröffentlichungsdatum kommunizieren wir, sobald wir es belastbar nennen können. Wenn Sie über die Verfügbarkeit informiert werden möchten, tragen Sie sich bitte unten ein.

Benachrichtigung zu Privat-in erhalten

Doppel-Opt-in, jederzeit abbestellbar. Wir verwenden Ihre Adresse ausschließlich, um Sie über die Verfügbarkeit von Privat-in zu informieren. Details in der Datenschutzerklärung.

← Zurück zur Reihe