Es beginnt harmlos. Ein freundlicher Hinweis, ein blau hinterlegter Button, ein Versprechen von Bequemlichkeit. Die neue Künstliche Intelligenz von Google möchte helfen. Wirklich helfen. Dafür allerdings verlangt sie Zugriff auf etwas, das bislang als privat galt: Ihre E-Mails, Ihre Fotos, Ihre Suchanfragen, kurz gesagt – Ihr digitales Gedächtnis.
„Personal Intelligence“ nennt der Konzern diese Funktion, die derzeit in den USA testweise freigeschaltet ist. Sie soll den KI-Chatbot Gemini klüger machen, persönlicher, kontextsensibler. Die Maschine soll nicht mehr nur antworten, sondern verstehen. Doch genau an dieser Stelle beginnt das leise Unbehagen.
Denn Verständnis hat einen Preis.
Die Idee hinter Personal Intelligence wirkt auf den ersten Blick einleuchtend. Wer ohnehin täglich Gmail nutzt, Termine per E-Mail bestätigt, Rechnungen archiviert, Fotos speichert und Suchanfragen stellt, besitzt bei Google längst ein fein säuberlich geführtes digitales Ich. Warum also sollte eine KI dieses Wissen nicht nutzen, um bessere Antworten zu liefern? Warum immer wieder erklären, was längst bekannt ist?
In der Praxis sieht das so aus: Fragt man die KI, wann der nächste Friseurbesuch ansteht, durchforstet sie alte Terminbestätigungen im Posteingang, erkennt Muster und schlägt einen passenden Zeitpunkt vor. Kein Hexenwerk, aber verdammt praktisch. Ein persönlicher Assistent? Noch nicht. Eher ein eifriger Praktikant mit erstaunlich gutem Gedächtnis.
Solche Momente erzeugen ein leises Staunen. Endlich funktioniert Personalisierung nicht nur bei Werbung, sondern im Alltag. Die Suche wird kontextreicher, Empfehlungen passender, Antworten kürzer. Die KI weiß, was gemeint ist, ohne dass man es ausbuchstabieren muss. Wer viel organisiert, plant, jongliert, spürt schnell den Reiz.
Doch genau hier kippt die Stimmung.
Denn dieselbe Technik, die Termine erkennt, erkennt auch anderes. Gesundheitsinformationen in Mails. Private Fotos. Emotionale Korrespondenz. Arbeitsbezogene Dokumente. Alles existiert nebeneinander, fein sortiert in verschiedenen Lebensbereichen – zumindest aus menschlicher Sicht. Für die Maschine jedoch verschmilzt es zu einem einzigen Datenraum.
Fachleute sprechen von „Datenüberlappung“. Informationen, die in einem Kontext sinnvoll sind, tauchen plötzlich in einem anderen auf. Die KI greift auf Inhalte zurück, die zwar verfügbar, aber nicht angebracht sind. Eine harmlose Frage kann so unbeabsichtigt Türen öffnen, die besser geschlossen geblieben wären.
Man stelle sich vor, während einer beruflichen Recherche fließt plötzlich eine private Information ein, die mit dem Thema nichts zu tun hat, aber aus einer alten E-Mail stammt. Oder eine persönliche Suche wird von Annahmen geprägt, die auf längst überholten Daten beruhen. Die KI meint es gut, trifft aber daneben.
Google selbst räumt ein, dass das System noch lernt. Kontext zu verstehen, Nuancen zu erkennen, Relevanz richtig zu gewichten – all das bleibt eine Herausforderung. Ein einmal erkannter Beruf kann zum dauerhaften Filter werden. Ein Konzertticket als Geschenk verwandelt sich in hartnäckige Musikempfehlungen. Die Maschine schließt, wo sie fragen müsste.
Offiziell versichert der Konzern, sensible Daten wie Gesundheitsinformationen nicht proaktiv zu verwenden. Doch auch diese Grenze hängt am Verhalten der Nutzer. Wer explizit fragt, öffnet den Zugriff. Wer nicht fragt, verlässt sich auf technische Leitplanken, die im Alltag kaum sichtbar sind.
Hinzu kommt ein psychologischer Effekt, den man nicht unterschätzen sollte. Wenn eine KI beginnt, persönliche Zusammenhänge herzustellen, entsteht schnell der Eindruck von Vertrautheit. Man spricht offener, fragt direkter, verlässt sich stärker. Die Grenze zwischen Werkzeug und Gegenüber verschwimmt. Und plötzlich sitzt man da und denkt: Moment mal – wer hört hier eigentlich zu?
Besonders heikel ist, dass Personalisierung zwar abschaltbar, aber nicht immer kontrollierbar ist. Zwar lässt sich festlegen, auf welche Dienste die KI zugreifen darf. Auch kann man Antworten nachträglich „entpersonalisieren“. Doch das geschieht erst, nachdem die Information bereits verarbeitet wurde. Ein Zurück in den Zustand davor gibt es nicht.
Google betont die Freiwilligkeit. Personal Intelligence ist standardmäßig deaktiviert. Doch wer die Funktion ignoriert, wird freundlich, aber beharrlich daran erinnert. Ein kleiner Schubs hier, ein Hinweis dort. Es ist kein Zwang, eher ein ständiges Klopfen an der Tür.
Was also tun?
Die klügste Haltung liegt vermutlich zwischen Euphorie und Verweigerung. Wer Gemini ohnehin nutzt, sollte Personal Intelligence ausprobieren, bewusst, zeitlich begrenzt, mit wachem Blick. Ein Testlauf, kein Dauerabo. Ein Spielraum, kein Selbstläufer.
Dabei lohnt sich ein ehrlicher Blick ins eigene digitale Archiv. Welche Informationen liegen im Postfach? Was schlummert in der Fotomediathek? Was davon dürfte eine Maschine sehen, was lieber nicht? Diese Fragen stellen sich nicht abstrakt, sondern ganz konkret.
Denn eines ist sicher: Die Entwicklung schreitet schneller voran als unser Bauchgefühl. Entscheidungen, die heute harmlos wirken, können morgen neue Bedeutungen erhalten. Wer jetzt experimentiert, sollte bereit sein, später neu zu entscheiden.
Oder, um es salopp zu sagen: Man kann die Tür einen Spalt öffnen. Aber den Schlüssel sollte man besser in der eigenen Tasche behalten.
Autor: Andreas M. Brucker
Abonniere einfach den Newsletter unserer Chefredaktion!









