Erinnert ihr euch an die guten alten Chatbots? Sie ähnelten Bibliothekaren, die mit einem bösen Fluch belegt waren. Sie kannten den gesamten Inhalt ihrer Bibliothek (ihre statischen Trainingsdaten) auswendig. Ihr Wissen endete aber mit dem zuletzt gedruckten Buch darin. Wenn du sie nach dem Ergebnis der letzten Bundestagswahl fragtest, suchten sie pflichtbewusst in der Abteilung „Geschichte“. Und lieferten dir das Ergebnis von 1998.
Vom Chatbot zum KI-Suchassistenten: Der Aufstieg der RAG-Technologie
Inzwischen haben sich diese verfluchten Bibliothekare – sprich die Large Language Models (LLMs) der Basisversionen von Gemini, ChatGPT und anderen – zu echten KI-Suchassistenten weiterentwickelt. Dank der Technologie der Retrieval-Augmented Generation (RAG) sind diese Modelle nicht mehr auf ihre statische Bibliothek beschränkt. Sie haben eine Live-Verbindung zum Netz. So können sie in aktuellen Inhalten recherchieren. Das macht sie zunächst zu ernsthaften Konkurrenten für klassische Suchmaschinen.
Leider agieren die neuen Suchassistenten dabei wie eifrige, aber unkritische Autoren. Sie liefern superschnell die aktuelle Schlagzeile, verwechseln dabei aber gerne mal eine Satire-Seite mit dem seriösen Nachrichtenblatt. Sie graben sich durch das Netz und fördern neben Infos und Links leider auch gerne einiges an Humbug zutage. Denn: Selbst wenn RAG eine Quelle findet, kann das LLM diese Quelle falsch interpretieren. Oder sogar die abgerufenen Informationen mit eigenen erfundenen Texten vermischen.
Die Achillesferse der Suchassistenten: Wie Halluzinationen entstehen
Die Entstehung dieser Fehler lässt sich durch zweierlei erklären: Zum einen durch weiterhin veraltete Trainingsdaten für die KI (das altbekannte Problem der Chatbots). Zum anderen werden fehlende Informationen anhand statistisch plausibler Wortketten generiert und ergänzt. Das führt zu so mancher Halluzination falscher Behauptungen. Die KI stößt also auf eine Wissenslücke. Sie kann die Antwort nicht einfach „nicht wissen“. Ihre primäre Funktion ist schließlich die Generierung von Text. Um die Lücke zu füllen, wählt sie das Wort, die Phrase oder den ganzen Satz, der aus rein statistischer Sicht in diesem Kontext am plausibelsten erscheint. Quelle sind dabei Millionen anderer Textmuster, die es im Training gesehen hat.
Das Kernproblem: die „statistisch plausible Fiktion“
Wenn beispielsweise die KI einen Artikel über „Die 7 Weltwunder der Antike“ schreiben soll, aber nur die Namen von vier kennt, erfindet sie die restlichen drei. Das geschieht, indem sie statistisch plausible, aber völlig falsche Bauwerke hinzufügt, um den Artikel zu vervollständigen. Diese „statistisch plausible Fiktion“ ist die Halluzination. Die KI ist damit eine unkritische Autorin, die Fakten mit sehr gut klingenden Vermutungen mischt. Ihre Priorität liegt ja darin, einen kohärenten, flüssigen Text zu generieren. Ihre Priorität liegt nicht unbedingt darin, die absolute Wahrheit zu garantieren.
Um diese Fehler zu vermeiden, hilft es, von der KI zu verlangen, nach aktuellen Quellen im Netz zu recherchieren. Das macht sie nämlich nicht automatisch. Und auch dann sollten wir den Faktencheck weiterhin einem Menschen überlassen. Wir sollten dabei immer ein Auge darauf behalten, wie recherchiert wurde und wie die Quellenlage wirklich aussieht.
Die bekanntesten KI-Suchassistenten im Überblick:
Google KI-Übersicht: Ein Modus innerhalb von Google Search, der durch KI (Gemini) verstärkt wurde. Er ermöglicht multimodale Eingaben (z. B. Bild + Text), komplexere Suchanfragen und liefert nicht nur klassische Links, sondern formulierte Antworten und weitere Vorschläge. (Integriert in der regulären Google Suche.)
ChatGPT (mit Browsing): Der Such- und Antwortmodus von ChatGPT (von OpenAI): Hier werden Web-Recherchen und Dialogansätze kombiniert. Wenn die Plattform für sich selbst feststellt, dass es nötig ist, führt sie eine Websuche durch, liefert eine formulierte Antwort samt Links und erlaubt Anschlussfragen.
Microsoft Copilot (der KI-Suchservice von Microsoft): Er verbindet klassische Websuche mit generativer KI-Antwort, enthält Zitationen, ermöglicht Kontextdialog und liefert zusammengefasste Antworten statt nur die üblichen Ergebnislisten. Im Browser zu erreichen über: copilot.microsoft.com.
Perplexity AI: Ein KI-gestütztes Antwortsystem, das Webinhalte durchsucht, eine direkte Kurzantwort mit Quellenlinks liefert und weniger reine Linklisten zeigt – ideal für schnelle, prägnante Auskünfte. Im Browser über die URL perplexity.ai erreichbar.
you.com: Eine alternative KI-Such- und Antwortplattform mit Fokus auf Echtzeit-Daten, mehreren KI-Modellen und gesondertem Anspruch auf Privatsphäre bzw. Integration von Unternehmens-APIs. Im Browser über you.com aufrufbar.
Grok: Ein KI-System von xAI. Es wurde im November 2023 vorgestellt und verbindet generative KI mit Echtzeitinformationen – u. a. über die Plattform X (früher Twitter). Grok nutzt aktuelle Posts von X und durchsucht Web-Inhalte in Echtzeit, um Antworten zu generieren.
Neue Generation der Suche im Netz
Diese Auswahl repräsentiert also eine neue Generation der Suche im Netz. Alle Dienste greifen auf Web-Inhalte zu, um aktuelle Informationen abzurufen. Sie „suchen“ im Internet und nutzen Large Language Models (LLMs), um nicht nur eine Liste von Links zu liefern, sondern formulierte, zusammengefasste Antworten. Sie ermöglichen dabei oft auch Dialoge und Folgefragen (konversationelle KI). Sie können also komplexe oder mehrstufige Fragen verstehen. Sie können im Dialog auch den Kontext beibehalten. Das kann sehr hilfreich sein. Trotzdem ist ein weiterer Faktencheck oft unumgänglich, denn allzu oft wird man sonst Opfer einer schönen, aber eben realitätsfremden Halluzination.
