Wem gehören deine Erinnerungen?

Wer besitzt die Erinnerungen deiner KI? Eine Frage, die ich mir beim Entwickeln meines eigenen AI Agenten gestellt habe.

Beim Bau von Dex, meinem persönlichen KI Agenten, wurde ich mit diversen Konzepten vertraut gemacht, wie sie auch von ChatGPT, Gemini und Claude angewendet werden.

Tatsächlich hat mir Claude bei der Entwicklung meines Agenten geholfen und der hat mir das jeweils bestätigt. Spannend fand ich dabei vor allem die Idee der Erinnerungen.

Wenn du mit einem Chatbot kommunizierst, dann verfügt dieser über einen so genannten Kontext. In den Kontext werden nach dem System Prompt alle relevanten Informationen geladen, welche der KI Agent wissen muss, um auf deine Frage bestmöglich zu reagieren.

Kontext

Ein Large Language Model (LLM) hat keine Erinnerungen an und für sich. Es ist ein grosses Modell, welches auf Basis von Mustern aus in riesigen Textmengen das nächste, wahrscheinliche Wort vorhersagt. Mehr tut es eigentlich nicht. Das macht es aber so gut, dass es absolut glaubwürdigen output generiert.

Was massgebenden Einfluss hat auf das, was dabei rauskommt ist Kontext. Der Kontext wird dynamisch zusammengestellt und die Erinnerungen sind ein essentieller Bestandteil davon.

Erinnerungen

Erinnerungen können alles sein, was in der Datenbank des Modells abgespeichert ist. Sie entstehen an bestimmten Punkten im Verlauf eines Dialogs. Diese müssen beurteilt werden. Ist das etwas, was ausreicht um wirklich als Erinnerung durchzugehen? Wenn ich also dem Tool meinen Namen sage, würde ich erwarten, dass es ihn auch in 20 Jahren noch weiss. Das ich mir gerade den Fuss gestossen habe aber ich eigentlich okay bin, ist hingegen weniger relevant.

Einmal gespeichert, werden sie bei jedem Prompt wieder abgefragt. Ich schreibe also “Hallo Dex” und wenn ich mich vorher mal vorgestellt habe, dann schreibt er “Hallo Dom” zurück. Erinnerungen können aber auch zu Halluzinationen führen. Zum Beispiel hat Dex ein Tool ausgeführt und das mündete in einen Fehler.

Dex, mein persönlicher Assistent
Ich bin etwas leichtgläubig…

Als ich ihn gefragt habe, es nochmals zu versuchen ich hätte es repariert, wollte er es absolut nicht tun. Warum? Er hat sich auf seine Erinnerung bezogen und mir gesagt: “Geht eh nicht” (“Been there, done that”).

Ein anderes Beispiel war, als ich das grundlegende Modell von Gemma3 auf Mistral3 in seiner Konfiguration gewechselt habe. Ich habe ihn gefragt, welches Modell er sei. Und er wollte nicht akzeptieren, dass er nun etwas anderes als Gemma3 sei… Bis ich seine Erinnerungen gelöscht habe.

Halluzinationen

In den oben genannten Beispielen spricht man von Halluzinationen, die ein Modell haben kann. Das wird natürlich weniger und weniger, aber es kommt nach wie vor vor. Gerade bei kleineren Modellen wie Dex, muss man genau darauf achten, was wahr ist und was nicht.

Das Problem liegt im ursprünglichen Prinzip des LLM. Dieses beurteilt Wort für Wort (Token für Token) was das nächst wahrscheinliche ist. Es hat aber kein tatsächliches WISSEN, noch eine ERFAHRUNG der realen Welt. Das Problem dabei kann sein, dass auch Falschinformationen total zuversichtlich und überzeugend generiert werden. Es lohnt sich also, gerade bei wichtigen Dingen auch mal genauer hinzuschauen und selber nachzuforschen.

Technischer Exkurs

Wer schon mal versucht hat, in einem Ordner voller Dokumente nach einem bestimmten Thema zu suchen, kennt das Problem: Man findet nur, was man exakt eingetippt hat. Klassische Datenbanken funktionieren genau so. Sie suchen nach Stichwörtern und Indizes. Frage ich also nächste Woche “Erinnerst du dich an meine Arbeit?”, findet eine normale Datenbank nichts, weil ich damals “Ich bin in den Finanzen tätig” geschrieben hatte.

Dex löst das anders. Er wandelt jeden Text in einen sogenannten Vektor um. Eine lange Liste von Zahlen, die die inhaltliche Bedeutung kodiert. “Finanzen” und “Arbeit” landen dabei automatisch in der Nähe voneinander, weil sie semantisch verwandt sind. Man kann sich das vorstellen wie Schwerkraft: Ähnliche Themen ziehen sich an und gruppieren sich zusammen. So findet Dex auch dann die richtige Erinnerung, wenn ich sie anders formuliere als beim ersten Mal.

Wem gehören deine Erinnerungen?

Beim Bau meines Agenten konnte ich nicht umher, mir zu überlegen was das für meine Anwendung mit den grossen Modellen bedeutet. Anders als mit meinem kleinen Assistenten habe ich keinen direkten Einfluss auf das was, das KI Modell über mich weiss und was mit diesem Wissen weiter passiert.

Es scheint so, als würden die Anbieter, welche deine Erinnerungsdatenbank speichern zu den wahren Besitzern deiner Erinnerungen. Ähnlich wie bei den Social Media Molochen, ist die Situation auch hier nicht ganz einfach zu beantworten. Die gängigen Modelle haben in ihren AGBs alle definiert, dass du die Eigentumsrechte am input, wie auch dem Output behältst. Sie behalten sich aber auch vor, deine Daten zum Betrieb ihrer Dienste zu verwenden.

Wenn du aber dein Konto oder deine Erinnerungen löschen möchtest, wird es komplizierter. Du weisst nicht genau was gespeichert ist Löschanfragen garantieren keine vollständige Entfernung. Logs können für Jahre bestehen bleiben. Der Anbieter hat eine Nutzungslizenz, die du nicht entziehen kannst für Daten, die bereits verarbeitet wurden.

Ich werde diese Dienste weiterhin nutzen. Es macht aber meiner Meinung nach Sinn, sich dessen bewusst zu sein. Auch wenn so manche KI sich für manche Menschen wie Freunde und Soziale Beziehungen anfühlen, sollte man sie allenfalls dennoch nicht so behandeln.