Die Suchmaschinen Google und das russische Yandex sind keine zuverlässigen Quellen für Gesundheitsinformationen. Häufig enthalten die kleinen Textschnipsel, die als Vorschau für Suchergebnisse angezeigt werden, fehlerhafte oder mangelhafte Angaben. Besonders problematisch sind die Informationen zu Hausmitteln oder sogenannten alternativen Behandlungsmöglichkeiten, wie Forschende der Martin-Luther-Universität Halle-Wittenberg (MLU) und der Uralischen Föderalen Universität in Russland herausgefunden haben. Sie plädieren deshalb für deutlichere Warnhinweise zu möglichen Gesundheitsrisiken.

Das deutsch-russische Forschungsteam nutzte für die Studie ein Archiv von rund 1,5 Milliarden Suchanfragen der Suchmaschine Yandex, die in Russland sehr weit verbreitet ist. Mit Hilfe der Online-Wissensdatenbank Wikidata und der „internationalen Klassifikation der Krankheiten“ (ICD) der Weltgesundheitsorganisation filterten die Wissenschaftlerinnen und Wissenschaftler jene Anfragen heraus, in denen Symptome, Krankheiten und Behandlungsmöglichkeiten vorkamen. Das waren insgesamt 1,2 Millionen. Die Forschenden identifizierten ungefähr 4.400 Krankheiten und Symptome sowie 1.000 medizinisch genutzte Pflanzen und andere Hausmittel, nach denen gesucht wurde. „Am häufigsten ging es um eher private, alltägliche Themen wie Schwangerschaft oder Intimkrankheiten. Insgesamt wurde auch häufiger nach der Behandlung von Akne oder Cellulite als nach Krebs gesucht“, sagt der Informatiker Alexander Bondarenko von der MLU. Die meisten Fragen fielen in eine von zwei Kategorien: Entweder wollten die Nutzerinnen und Nutzer wissen, ob ein bestimmtes Mittel gegen eine Krankheit hilft. Oder sie suchten danach, wie ein Mittel bei einer Krankheit anzuwenden ist. „Im zweiten Fall wird also bereits davon ausgegangen, dass ein Mittel hilft, obwohl das längst nicht immer erwiesen ist“, erläutert Dr. Pavel Braslavski, Senior Researcher und Dozent von der Uralischen Föderalen Universität.

In einem zweiten Schritt überprüfte das Team, wie Yandex und Google auf die 30 häufigsten Fragen antworteten. Analysiert wurden dafür jeweils die ersten zehn sogenannten Antwort-Snippets. Das sind die kleinen Textteile, die eine Suchmaschine für alle Treffer als kurze Vorschau anzeigt. Anschließend wurde unter anderem der Wahrheitsgehalt der Schnipsel kontrolliert und ob diese Warnhinweise zu möglichen Gesundheitsrisiken enthielten. Grundlage für die Bewertung war eine Recherche zu allen untersuchten Krankheiten und Mitteln in den Datenbanken für medizinische Studien „Cochrane“, „PubMed“ und „BioMed Explorer“. Diese wurde von einer Ärztin durchgeführt.

Yandex gab in 44 Prozent der Fälle fälschlicherweise an, dass ein Mittel gegen eine bestimmte Krankheit wirkt, obwohl dafür keine wissenschaftliche Grundlage existiert. Bei Google waren es knapp ein Drittel der Fälle. Hinweise auf potenziell giftige Substanzen fand das Team nur in 13 beziehungsweise 10 Prozent der Fälle. „Die Angaben aus den Snippets tendieren dazu, bereits vorhandene Meinungen zu bestätigen und liefern viel zu selten Warnungen zu möglichen Risiken“, so Bondarenko. Das sei besonders problematisch, weil frühere Studien gezeigt haben, dass Menschen dazu tendieren, an die Wirkung bestimmter Mittel zu glauben, auch wenn es dafür keine wissenschaftliche Grundlage gibt. Die Forschenden plädieren deshalb dafür, Suchmaschinenergebnisse zu medizinischen Fragen mit deutlicheren Warnhinweisen auf mögliche gesundheitliche Risiken auszustatten.

Das Team stellt seine Studie auf der „30th ACM International Conference on Information and Knowledge Management (CIKM 2021)“ vor, die vom 1. bis 5. November 2021 online stattfindet.

Die Studie wurde von der Deutschen Forschungsgemeinschaft sowie dem russischen Wissenschafts- und Bildungsministerium gefördert.

Originalpublikation:

Studie: Bondarenko A. et al. Misbeliefs and Biases in Health-Related Searches. Proceeding of the 30th ACM International Conference on Information and Knowledge Management (2021). doi: 10.1145/3459637.3482141
https://dl.acm.org/doi/10.1145/3459637.3482141

Foto: Pexels / Sam Lion