13.02.2014

: Forscher wollen Wahrheitsgehalt von Informationen im Netz sichtbar machen

Im Netz verbreiten sich Informationen oft rasend schnell. Und ungeprüft. Man denke dabei rein an die Meldung am Tag nach der Eröffnungsfeier der Olympischen Winterspiele in Sotchi, als die Meldung durch alle sozialen Netzwerke kursierte dass der verantwortliche Techniker für die Panne mit den olympischen Ringen tot in seinem Hotelzimmer aufgefunden wurde. Bei solchen Meldungen ist es ft noch einfach, den Wahrheitsgehalt herauszufinden. Wie aber sieht das beispielsweise bei medizinischen Informationen aus? Oder bei Firmenbewertungen im Internet? Hier ist es für den laien oft sehr schwer, den Wahrheitsgehalt einer Meldung oder von Informationen zu erkennen.

 

Dieses Problem wollen Computerlinguisten in einem Projekt nun lösen. Das anspruchsvolle Ziel der Forscher ist ein automatisches Analyseverfahren zu entwickeln, das dem Internetnutzer schnell und verlässlich mitteilt, ob er einer gefundenen Information trauen kann oder eher nicht. Gemeinsam mit seinen internationalen Forschungspartnern will der Computerlinguist Thierry Declerck hierfür Antworten finden. Die Wissenschaftler arbeiten an einer automatisierten Methode, die ermitteln soll wie vertrauenswürdig eine Information ist. Dabei haben die Forscher 4 Felder identifiziert, bei denen die Ermittlung des Wahrheitsgehaltes schwer ist:

  • Spekulationen
  • kontroverse Diskussionen
  • Fehlinformationen
  • und irreführende Tatsachen

Ein Hauptproblem bei dieser spannenden Aufgabe ist natürlich die Flut der Daten. Tagtäglich werden Millionen von Textnachrichten und Informationen im Netz verbreitet. Daher müssen Methoden entwickelt werden, wie große Datenmengen (Big Data) quasi in Echtzeit verarbeitet werden können. Zudem müssen sprachwissenschaftliche Methoden mit präzisen statistischen Verfahren kombiniert werden. Und es müssen Aussagen über den Wahrheitsgehalt getroffen werden können. Dies soll beispielsweise dadurch geschehen, dass Satzbau oder Schlüsselwörter anhand von Wahrscheinlichkeiten und Datenbankabgleichen mathematisch errechnet werden. Als Schlüsselwörter kommen hier Ausdrücke wie „nicht“ oder „vermutlich“ zum Einsatz – ähnlich wie bei der Tonalitäts-Analyse
.

Ein interessantes Problem stellt dabei der Faktor „Zeit“ dar. Denn was heute noch als wahr anerkannt wird, kann morgen schon überholt und genau andersherum sein. Zudem ist es schwierig, die Wahrheit einer Aussage zu messen, wenn die Sender einer Aussage eine falsche Aussage als richtig wahrnehmen. Trotz dieser Schwierigkeiten ein sehr spannendes Projekt, das auch als Weiterführung der automatisierten Trend-Forschung im Netz gesehen werden kann. Ob die mathematischen Verfahren und Verknüpfungen von Datenquellen und Datenbanken zum Erfolg führt, werden wir in ein paar Jahren sehen. Sollte es gelingen, hier mit einer relativ hohen Wahrscheinlichkeit richtige Treffer zu generieren, könnte dies eine spannende Anwendung für Unternehmen werden, die heute schon automatisiertes Reputaationsmanagement im Netz betreiben. Oder für Journalisten, die Meldungen überprüfen möchten. Aber auch der Privatanwender würde davon profitieren, wenn er den Wahrheitsgehalt von Meldungen in Echtzeit ermitteln könnte. Wir drücken die Daumen!

 

Mehr Informationen:

http://idw-online.de/de/news573049

http://www.pheme.eu/

 

Veröffentlicht von:

Anikar Haseloff

Anikar Haseloff

Als Kommunikationswissenschaftler beschäftigt sich Dr. Anikar Haseloff tagtäglich mit Sprache. Er lehrt und forscht zum Thema Verständlichkeit an mehreren Universitäten in Deutschland.

Noch keine Kommentare

Kommentieren

CAPTCHA-Bild
*