Crowdsourcing-Faktenprüfung bekämpft Fehlinformationen in Taiwan

Crowdsourcing-Faktenprüfung bekämpft Fehlinformationen in Taiwan
Crowdsourcing-Faktenprüfung bekämpft Fehlinformationen in Taiwan
-

Während Journalisten und professionelle Faktenprüfer Schwierigkeiten haben, mit der Flut an Fehlinformationen im Internet Schritt zu halten, können Websites zur Faktenprüfung, die auf lose koordinierte Beiträge von Freiwilligen angewiesen sind, wie etwa Wikipedia, dabei helfen, die Lücken zu schließen, so eine Studie von Cornell.

In einer neuen Studie verglich Andy Zhao, ein Doktorand der Informationswissenschaft an der Cornell Tech, professionelle Artikel zur Faktenprüfung mit Beiträgen auf Cofacts, einer von der Community bereitgestellten Plattform zur Faktenprüfung in Taiwan. Ich habe festgestellt, dass die Crowdsourcing-Site oft schneller auf Anfragen reagierte als Profis und plattformübergreifend ein unterschiedliches Spektrum an Problemen bearbeitete.

„Faktenprüfung ist eine Kernkomponente, um unser Informationsökosystem auf eine Weise nutzen zu können, die vertrauenswürdige Informationen unterstützt“, sagte der leitende Autor Mor Naaman, Professor für Informationswissenschaft am Jacobs Technion-Cornell Institute der Cornell Tech und der Cornell Ann S Bowers College für Informatik und Informationswissenschaft. „Orte der Wissensproduktion wie Wikipedia und Cofacts haben sich bisher als am robustesten gegenüber Fehlinformationskampagnen erwiesen.“

Die Studie „Einblicke aus einer vergleichenden Studie zur Vielfalt, Geschwindigkeit, Wahrhaftigkeit und Lebensfähigkeit von Crowdsourcing- und professionellen Faktencheck-Diensten“, veröffentlicht im September. 21 im Journal of Online Trust and Safety.

Die Forscher konzentrierten sich auf Cofacts, da es sich um ein Crowdsourcing-Modell zur Überprüfung von Fakten handelt, das noch nicht gut untersucht wurde. Die taiwanesische Regierung, zivile Organisationen und die Tech-Community haben 2017 Cofacts gegründet, um die Herausforderungen sowohl böswilliger als auch harmloser Fehlinformationen anzugehen – teilweise als Reaktion auf die Bemühungen der chinesischen Regierung, Desinformation zu nutzen, um eine pro-chinesische öffentliche Meinung in Taiwan zu schaffen. Ähnlich wie bei Wikipedia kann jeder auf Cofacts Redakteur sein und Antworten posten, Fragen einreichen und Antworten positiv oder negativ bewerten. Cofacts verfügt außerdem über einen Bot, der Behauptungen in einer beliebten Messaging-App überprüft.

Beginnend mit mehr als 60.000 Crowdsourcing-Faktenchecks und 2.641 professionellen Faktenchecks nutzte Zhao die Verarbeitung natürlicher Sprache, um auf Cofacts gepostete Antworten mit Artikeln zu gleichen Fragen auf zwei professionellen Faktencheck-Websites abzugleichen. Er untersuchte, wie schnell die Websites Antworten auf Anfragen veröffentlichten, wie genau und überzeugend die Antworten waren und wie viele Themen abgedeckt wurden.

Er stellte fest, dass die Cofacts-Benutzer oft schneller reagierten als Journalisten, vor allem aber, weil sie „auf den Schultern von Giganten stehen“ und bestehende Artikel von Profis umfunktionieren konnten. Auf diese Weise fungiert Cofacts als Informationsvermittler. „Sie tragen diese Geschichten über die Sprache, das ganze Land oder die Zeit hinweg, bis genau zu diesem Moment, um die Fragen der Menschen zu beantworten“, sagte Zhao.

Wichtig ist, dass Zhao feststellte, dass die Cofacts-Beiträge genauso korrekt waren wie die professionellen Quellen. Und laut sieben gebürtigen taiwanesischen Doktoranden, die als Bewerter fungierten, waren Artikel von Journalisten überzeugender, Cofacts-Beiträge jedoch oft klarer.

-

Weitere Analysen ergaben, dass die Crowdsourcing-Website ein etwas anderes Themenspektrum abdeckte als die von Fachleuten behandelten. Beiträge auf Cofacts befassten sich eher mit aktuellen und lokalen Themen – etwa regionaler Politik und kleinen Betrügereien –, während Journalisten eher über Themen schrieben, die Fachwissen erforderten, darunter gesundheitsbezogene Angaben und internationale Angelegenheiten.

-

„Wir können die Macht der Massen nutzen, um Fehlinformationen entgegenzuwirken“, schloss Zhao. „Fehlinformationen kommen von überall und wir müssen diesen Kampf an allen Ecken und Enden führen.“

Der Bedarf an Faktenprüfungen wird voraussichtlich weiter zunehmen. Während noch nicht klar ist, wie sich Modelle der generativen künstlichen Intelligenz (KI) wie ChatGPT oder Midjourney auf die Informationslandschaft auswirken werden, sagten Naaman und Zhao, dass es möglich sei, dass KI-Programme, die Text und gefälschte Bilder generieren, die Erstellung von Texten und gefälschten Bildern noch einfacher machen könnten Falschinformationen online verbreiten.

Trotz des Erfolgs von Cofacts in Taiwan warnen Zhao und Naaman jedoch davor, dass sich der gleiche Ansatz möglicherweise nicht auf andere Länder übertragen lässt. „Cofacts basieren auf den Benutzergewohnheiten, den Kulturen, dem Hintergrund sowie den politischen und sozialen Strukturen Taiwans und sind daher erfolgreich“, sagte Zhao.

Das Verständnis des Erfolgs von Cofacts kann jedoch bei der Entwicklung anderer Faktenprüfungssysteme hilfreich sein, insbesondere in Regionen, in denen kein Englisch gesprochen wird und die Zugang zu wenigen oder gar keinen Faktenprüfungsressourcen haben.

„Zu verstehen, wie gut ein solches Modell in verschiedenen Umgebungen funktioniert, könnte hoffentlich Inspiration und Leitlinien für Menschen liefern, die ähnliche Vorhaben an anderen Orten durchführen möchten“, sagte Naaman.

Die Studie wurde teilweise von der National Science Foundation unterstützt.

Patricia Waldron ist Autorin am Cornell Ann S. Bowers College of Computing and Information Science.

-

-

PREV Nigerias Außenminister Tuggar fordert dringende globale Maßnahmen gegen den Klimawandel
NEXT Wer ist Mels leiblicher Vater? Weihnachtsepisoden von Virgin River