Die Idee
Google hat in der vergangenen Woche eine interessante Ankündigung gemacht: In den Ranking-Algorithmus „Page Rank“, der die Reihenfolge der Suchergebnisse festlegt, könnte ein neuer Parameter einfließen: der Wahrheitsgehalt der Trefferseite. Klingt spannen – und ist es auch: Denn damit könnte die Qualität der Sucherergebnisse tatsächlich steigen. Seiten, die inhaltlichen Unsinn verbreiten, würden in den Trefferlisten einer Suche deutlich weiter hinten auftauchen.
Technisch verwendet Google dazu eine Methode, die als „Knowledge-Based Trust“ in zwei aufeinander aufbauenden wissenschaftlichen Publikationen veröffentlicht wurde [1, 2]. Zum Einsatz kommt eine Datenbasis aus 2,8 Mrd. „Fakten“, also Informationen, die wahr sind. Als Beispiel wird die Nationalität von Barack Obama genannt – da es zu diesem Thema in den USA einige Verschwörungstheorien gibt, die überwiegend aus dem Lager der Republikaner stammen dürften.
Nach diesen Fakten wird bei der Klassifikation einer Seite in Texten gesucht. Werden die entsprechenden Informationen korrekt ausgelesen, so steigt die Einstufung der Korrektheit einer Seite, werden falsche Informationen extrahiert, so sinkt die Bewertung. Das ganze funktioniert nach ersten Experimenten einigermaßen zuverlässig und soll nun auf einen produktiven Einsatz hin evaluiert werden.
Technische Limitierungen
So schön und einfach dies in der Theorie klingt, so komplex und schwierig ist die technische Umsetzung und ich sehe hier noch einige ungelöste Probleme. Ein Beispiel ist die Erkennung von Ironie und Sarkasmus. Mit diesem Thema haben automatisierte Erkennungssysteme von Texten und Stimmungen enorme Schwierigkeiten (z.B. [3, 4, 5]. Des Weiteren muss es gelingen, den Kontext einer Aussage zweifelsfrei zu identifizieren. Denn möglicherweise wird eine als falsch/unwahr klassifizierte Aussage nur zitiert, um sich mit ihr kritisch auseinanderzusetzen. Eine Seite, die beispielsweise über Verschwörungstheorien berichtet und diese möglicherweise dekonstruiert, wird dennoch höchstwahrscheinlich genau diese Theorien auch wiedergeben – und eine davon könnte sein, dass Barack Obama in Wahrheit Kenianer ist…
Google ergreift Deutungshoheit
Doch neben den technischen Problemen gibt es einen wesentlich kritischeren Aspekt an diesem Themenkomplex: Wer entscheidet denn, was als Tatsache („Fact“) in der Google-Datenbank landet? Was passiert, wenn dort Fehler passieren? Was passiert mit neuen Theorien oder Ideen, die aktuell vielleicht als unwahr gelten, sich dennoch bald als der Realität entsprechend herausstellen? Man denke hier an das klassische Beispiel eines geo- oder heliozentrischen Weltbildes.
Was ist in diesem Zusammenhang eigentlich die Wahrheit? Das, was die Mehrheit der Menschen für wahr hält? Das, was auf Basis der aktuell anerkannten wissenschaftlichen Theorien als korrektes Weltbild angenommen wird? Und was macht man in Situationen, in denen sich die Fachwelt nicht einig ist? Oder konkret: wirkt laut Google Homöopathie, nur weil das viele Menschen gerne glauben möchten?
Wo bleibt an dieser Stelle der Austausch unterschiedlicher Ideen? Was ist mit dem Konzept der Meinungsvielfalt und des wissenschaftlichen Diskurses, wenn die Meinungen und Ansichten von Minderheiten schon verworfen (bzw. unauffindbar gemacht) werden, bevor sie von anderen Menschen reflektiert werden können? Wie ist es noch möglich, über Themen zu berichten, die nicht dem Major Consensus Narrative entsprechen (gerade in Zeiten einer „Lügenpresse“-Debatte)?
Ich halte diesen Ansatz von Google auf Grund der hier aufgeworfenen Fragestellungen für äußerst bedenklich – und kann, sollte es zu einer Einführung dieser Funktionalität kommen, nur dazu auffordern, der Suchmaschine endgültig den Rücken zu kehren und sich Alternativen (z.B. DuckDuckGo) zuzuwenden.