Wahrheit und Fake im postfaktisch-digitalen Zeitalter. Distinktionen in den Geistes- und IT-Wissenschaften Gedenkstätte Berlin-Hohenschönhausen | 24.–26.02.2020

„Postfaktisch“ wurde von der Gesellschaft für deutsche Sprache zum Wort des Jahres 2016 gewählt und in Großbritannien wurde im gleichen Jahr „post-truth“ zum Wort des Jahres gekürt. Der lockere Umgang mit der Wahrheit in der Politik sowie die Verbreitung von „Fake News“ und „alternativen Fakten“ sind ein Krisensymptom unserer Zeit. Der Fall Relotius of­fenbart zudem ein Glaubwürdigkeitsproblem des Journalismus und zeigt, wie schwierig es selbst für Redakteure und Faktenchecker ist, Wahrheit und Fiktion auseinanderzuhalten. Zwar sind Fake News und Desinformationskampagnen kein neues Phänomen, aber mit dem Internet und den sozialen Medien steht eine Technologie zur Verfügung, mit der Falschmel­dungen und Verschwörungstheorien schneller und effektiver verbreitet werden können als je zuvor. Mit Hilfe von Social Bots können Wahlentscheidungen beeinflusst und manipuliert werden. Desinformationskampagnen stellen somit auch eine Gefahr für unsere Demokratie dar. Es stellt sich daher umso drängender die Frage was Wahrheit überhaupt ist, ob Wahr­heit lediglich eine soziale Konstruktion ist und wie man Wahrheit von Falschheit und Lüge unterscheiden kann. Und nicht zu vergessen: Welche Rolle nimmt hinsichtlich Wahrheit und Falschheit, Wahrheit und Fake eigentlich Fiktionalität ein? Welche Differenzierungen sind überhaupt möglich, welche sind sinnvoll? Können bestehende Wahrheits- und Medien­the­o­rien erstens eine adäquate Bestimmung von Wahrheit im All­ge­meinen und medialisierter  Wahr­heit im Besonderen liefern und zweitens ver­läss­liche Kriterien an die Hand geben, um zwi­schen Wahrheit und Falschheit einerseits und Faktizität, Fiktionalität und Fake anderer­seits zu unter­schei­den? Oder braucht es modifizierter oder gar neuer Theorien und Modelle?

Die rasche Verbreitung von Fake News und die Beeinflussung von Wahlen durch Social Me­dia kann als Folge der Digitalisierung gesehen werden. Falschmeldungen und Desin­for­ma­tions­­kampagnen können heute automatisch generiert und verbreitet werden. Um diesen Fehl­entwicklungen Einhalt zu gebieten, ist die In­for­ma­tions­technik gefragt. Mit intelli­genten Al­go­rithmen und einer verfeinerten Daten­ana­ly­se sol­len in Zukunft Fake News schnel­ler er­kannt und deren Verbreitung verhindert wer­den. Um jedoch Fake News mittels künstlicher In­telligenz zu erkennen und zu filtern, muss Fa­ke von Fak­ten, Fakten von Fiktionen und Fik­tio­nen von Fake unterschieden werden kön­nen. Welche De­fi­nition und Vorstellung von Fake, Wahr­heit, Falschheit, Faktizität und Fik­tio­na­lität liegt den aktuellen Techniken zugrunde? Sind die Definitionen explizit oder lediglich implizit durch das Lernmaterial bspw. für künstli­che neuronale Netze gegeben? Was sind dahingehend inhaltliche, tech­nische oder me­tho­di­sche Herausforderungen der Gegenwart und Zukunft?

Eine adäquate medien- und erkenntnistheoretisch fundierte und reflektierte sowie em­pi­risch und technisch validierte Modellierung von Wahrheit, Falschheit, Fakten, Fake und Fik­tion stellt immer noch ein Desiderat dar. Ein Dialog und noch mehr eine Kollaboration von Me­dien- und Kommunikations­wissen­schaf­ten sowie der Philosophie einerseits und den Com­­pu­­ter- und Ingenieurwissenschaften anderer­seits scheint daher nicht nur wün­schens­wert, son­dern unabdingbar. Die Tagung soll durch 30-minütige Referate ausgewiesener Fach­­wis­­sen­schaftler*innen aus den ge­nann­ten und benachbarten Wissenschaften und eine daran an­schließende, offene Diskussion im Ple­num eine Plattform für diesen Dialog bieten und zu einer zukünftigen Kollaboration zwischen den Wissenschaften animieren.

Tagungsort:

Die Konferenz findet als dreitägige Veranstaltung am 24. (halbtags), 25. (ganztags) und 26. (halbtags) Februar in der Gedenkstätte Berlin-Hohenschönhausen statt. Der Tagungsort steht als ehemalige Haftstätte des NKWD und des Ministeriums für Staatssicherheit der DDR beispielhaft dafür, wie falsche Nachrichten und ideologische Wahrheiten auch das Leben von Individuen in letzter Konsequenz zerstören können.

Publikation:

Aufbauend auf den Konferenzbeiträgen wird eine Peer-Review-Publikation im Springer Verlag (Reihe "ars digitalis") entstehen. Die publi­kations­fähigen Bei­trä­ge sollen zeitnah nach der Kon­ferenz abgegeben werden, sodass die Publi­kation spä­tes­tens ein halbes Jahr nach der Kon­ferenz erscheinen kann.

Reviewer:

Prof. Dr. Christoph Bläsi (Mainz), Prof. Dr. Manuel Burghardt (Leipzig), Prof. Dr. York Hagmayer (Göttingen), Prof. Dr. Larissa Krainer (Klagenfurt), Prof. Dr. Wulf Kellerwessel (Aachen), Prof. Dr. Claudia Müller-Birn (Berlin), PD Dr. Florian Mundhenke (Leipzig), Prof. Dr. Christer Petersen (Cottbus), Prof. Dr. Florentine Strzelczyk (Calgary), Prof. Dr. Ralf Stoecker (Bielefeld), Prof. Dr. Izabela Surynt (Wrocław), Prof. Dr. Tatjana von Solodkoff (Dublin), Prof. Dr. Jan-Noël Thon (Nottingham), Prof. Dr. Karsten Weber (Regensburg), Prof. Dr. Matthias Wieser (Klagenfurt), Prof. Dr. Günther Wirsching (Eichstätt)

Organisation:

PD Dr. Dr. Peter Klimczak (Cottbus), Dr. Andreas Neumann (Berlin), Prof. Dr. Thomas Zoglauer (Cottbus)

Tagungsprogramm

Montag, 24.02.2020

Begrüßung durch die Organisatoren

Fake News und die DDR. Zersetzung und Zerstörung zum Schutz des Staates

Fake News und die DDR. Zersetzung und Zerstörung zum Schutz des Staates

Diktaturen arbeiten seit jeher mit Halbwahrheiten, Verleumdungen und Gerüchten. Der Feind im Ausland sollte getäuscht und diffamiert, der Feind im Innern verunglimpft, bekämpft und mundtot gemacht werden. Auch das SED-Regime bediente sich dieser Methoden und Mittel. Nutzte es dabei gefälschte Nachrichten, so genannte Fake News? Wenn ja, wie entstanden sie, wie wurden sie verbreitetet und wie trugen sie zum Erhalt des Machtapparats bei? Wem nutzten sie, wem schadeten sie? Die politischen Häftlinge kämpften gegen Unwahrheiten an und wurden gleichzeitig deren Opfer. An ihren Schicksalen lässt sich zeigen, ob sich der Begriff Fake News auf diese historischen Phänomene anwenden und für die historische Forschung fruchtbar machen lässt.

Jörg von Bilavsky ist Leiter des Bereichs Bildung und Vermittlung der Gedenkstätte Hohen­schön­hausen. Zuvor war er als (freier) Journalist tätig.

Die kommunistische Faschismusdefinition und ihre Folgen für das Individuum

Die kommunistische Faschismusdefinition und ihre Folgen für das Individuum

Der Beitrag beleuchtet exemplarisch Einzelschicksale von in der zentralen MfS-Untersuchungshaftanstalt Hohenschönhausen Inhaftierten, die zu Unrecht aufgrund des mehr oder weniger deutlich formulierten Vorwurfs des Faschismus angeklagt und verurteilt wurden. Dies wird dann in einen größeren Zusammenhang mit der im Marxismus-Leninismus herrschenden Faschismus-Definition gestellt. Es wird auf deren mediale Aufbereitung in Nachrichten und in fiktionalen Film- und Serienproduktionen der DDR speziell im Zusammenhang mit dem "Antifaschistischen Schutzwall" eingegangen. So sollen verschwörungstheoretische Elemente aufgezeigt und dementsprechende Nachrichten als Fake News charakterisiert werden.

Dr. Andreas Neumann ist Projektmitarbeiter an der Gedenkstätte Berlin-Hohenschön­hau­sen. Er setzt sich in seiner Forschungsarbeit mit der Geschichte der DDR im Spannungsfeld von Fiktionalitität, Faktizität und Fake auseinander.

Kuchenpause

Führung durch die Gedenkstätte

Abendessen

wird noch bekanntgegeben

Dienstag, 25.02.2020

Stranger than Fiction“: Zur Performanz fiktionaler Epistemologien

Stranger than Fiction“: Zur Performanz fiktionaler Epistemologien

So vieldeutig der Begriff der Performanz quer durch alle Disziplinen verwendet wird, scheint er doch in seiner ursprünglichen Bedeutung als ›Durchführung‹ (einer Idee) oder ›Aufführung‹ (eines Werkes) einen Zugang zu dem zu eröffnen, was in narrativen Texten der Literatur und des Films an epistemologischen Modellen von Welt auf-, durch- oder vorgeführt wird; vorgeführt hinsichtlich dessen, was als Tatsache, Faktum oder Wahrheit im Gegensatz zur Illusion, Täuschung oder Lüge innerhalb der dort ›dargestellten Welten‹ gilt. Die Welterkundung eines in Gefangenschaft geborenen Jungen in Lenny Abrahamsons Room (Irland et al. 2015) etwa oder die als paranoide Verschwörungstheorien inszenierten Plots eines Thomas Pynchon sollen hier Ausgangspunkte bieten.

Prof. Dr. Christer Petersen ist Leiter des Fachgebiets Angewandte Medienwissenschaften an der Brandenburgischen Technischen Universität. Seine Forschung konzentriert sich u.a. auf die Analyse fiktionaler Formate sowie Skandal- und Verschwörungsdiskurse.

Analoge und digitale Bildbearbeitung – Medienethische Reflexionen

Analoge und digitale Bildbearbeitung – Medienethische Reflexionen

In dem Vortrag werden unterschiedliche Formen und Entwicklungen der Bildbearbeitung skizziert. Anhand konkreter Beispiele im analogen und digitalen Kontext werden verschiedene Formen und Ausprägungen präsentiert, die einer normativen Bewertung unterzogen werden. Es wird der Frage nachgegangen, in welchen Fällen die visuelle Bearbeitung angemessen ist und an welchen Punkten sie moralisch fragwürdig und manipulativ erscheint. Zudem werden Kriterien benannt, die eine Kennzeichnungspflicht von bearbeiteten Bildern erfordern.

Prof. Dr. Christian Schicha ist Universitätsprofessor für Medienethik am Institut für Theater- und Medienwissenschaft an der Universität Er­lan­gen-Nürnberg. Er erforscht u.a. ethische Aspekte von Social Media und Fake News.

Mittagspause

Mengentheoretische Modellierung von Fiktionalität, Faktualität und Fake

Mengentheoretische Modellierung von Fiktionalität, Faktualität und Fake

Im Vortrag soll Faktualität, Fiktionalität und Fake nicht nur ausgehend von der Ebene des Inhalts, sondern ausschließlich auf der Ebene des Inhalts differenziert werden. Der Vortrag wird zeigen, dass sich dargestellte Welten als Mengen modellieren lassen, deren Elemente geordnete Paare sind, die die für die dargestellte Welt zutreffenden Aussagen symbolisieren. Da eine solche Modellierung nicht nur für dargestellte Welten möglich ist, sondern – im jeweiligen Anwendungskontext – auch für die ‚wirkliche‘ Welt, kann durch einen anschließenden doppelten Vergleich der Elemente der betreffenden Mengen festgestellt werden, ob Teilmengenverhältnisse zwischen der dargestellten und der wirklichen Welt vorliegen. Abschließend soll die dem Modell implizit zugrundeliegende Wahrheitstheorie expliziert werden.

PD Dr. Dr. Peter Klimczak ist Privatdozent an der Brandenburgischen Technischen Uni­ver­si­tät. In seiner Forschung widmet er sich u.a. der Modellierung von medienwissenschaftlichen Theorien und Konzepten mittels symbo­li­scher Logik und Mengentheorie.

Wahrheitsrelativismus, Wissenschaftsskeptizismus und die politischen Folgen

Wahrheitsrelativismus, Wissenschaftsskeptizismus und die politischen Folgen

Steve Fuller, ein führender Vertreter der Science and Technology Studies, verteidigt in seinem neuen Buch "Post-Truth" den Wahrheitsrelativismus, kritisiert das wissenschaftliche Expertentum und vertritt die These, dass wir schon längst in einem postfaktischen Zeitalter leben. Fuller betrachtet die Wissenschaft als ein Machtspiel, bei dem Macht darüber entscheidet, was wahr und was falsch ist. Donald Trump beherrscht dieses Machtspiel besonders gut und versteht es, seine persönliche Meinung als unumstößliche Wahrheit zu verkaufen. Am Beispiel Fullers soll gezeigt werden, wie der Wahrheitsrelativismus und Wissenschaftsskeptizismus einen intellektuellen Rahmen schaffen, in dem Fake News und alternative Fakten blühen und gedeihen können.

Prof. Dr. Thomas Zoglauer war Leiter des Arbeitsgebiets Technikphilosophie an der Bran­den­burgi­schen Technischen Universität. Zuletzt konzentriert sich seine Forschungsarbeit zu Ethik und Wissenschaftstheorie in technischen Kontexten.

Kuchenpause

Pseudangelia. Hinweise zu einer Archäologie der falschen Nachrichten in der griechischen Antike

Pseudangelia. Hinweise zu einer Archäologie der falschen Nachrichten in der griechischen Antike

Fake-News und alternative Fakten sind kein neues Phänomen. Wir leben in message societies. Ziel dieses Beitrags ist es, einige Hinweise auf ihre Bedeutung in der Antike darzulegen, die als Kontrastfolie zur heutigen massenhaften digitalen Verbreitung dienen sollen. Diese Hinweise gehören zu einer Boten-/Botschaftstheorie (Angeletik). Sie nehmen Bezug insbesondere auf die Untersuchungen von Sian Lewis über "News and Society in the Greek Polis" (1996) und Everett L. Wheeler "Stratagem and the Vocabulary of Military Trickery" (1988) sowie auf die Ansätze von Thomas Froehlich über die Gesellschaft der Desinformation, insbes. "The role of pseudo-cognitive authorities and self-deception in the dissemination of fake news. Open Information Science, 3: 2019, 115–136.

Prof. em. Rafael Capurro war von 1986 bis 2009 an der Hochschule der Medien Stuttgart im Fachgebiet Informationswissenschaft und Informationsethik tätig.  Er ist u.a. Gründer des International Center for Information Ethics sowie Mitglied des European Group in Ethics in Science and New Technologies der EU-Kommission. Von 2000 bis 2010 war er Mitglied der Europ. Group.

Fakes, Frauds & Hoaxes: Wissenschaftliches Handwerkszeug an seinen Grenzen

Fakes, Frauds & Hoaxes: Wissenschaftliches Handwerkszeug an seinen Grenzen

Dass die Wissenschaft weder vor ehrlichen Irrtümern noch vor Betrug und Fehlverhalten gefeit ist, beweist die Wissenschaftsgeschichte zur Genüge. Während erstere durch disziplingebundene Methodiken minimiert werden sollen, sollen letztere durch forschungsethische Regeln guter wissenschaftlicher Praxis in Schach gehalten werden. Was aber, wenn in bester Absicht und unter Aufbietung größter wissenschaftlicher Kunstfertigkeit "Fakes" hervorgebracht werden – also gewissermaßen das wissenschaftliche Handwerkszeug in eine Fälscherwerkstatt verwandelt wird? Können insbesondere "Hoaxes" – also auf Aufdeckung zielende wissenschaftliche Konstrukte – jemals ein legitimes Instrument zur Aufklärung und Erkenntnis sein?

Prof. Dr. Axel Gelfert ist Inhaber des Lehrstuhls für Theoretische Philosophie an der TU Ber­lin. 2018 hat er in der Zeitschrift Informal Logic eine über­zeu­gen­de Definition von Fake News vorgelegt.

Abendessen

wird noch bekanntgegeben

Mittwoch, 26.02.2020

Technische Unterstützungsansätze für den Umgang mit Fake News

Technische Unterstützungsansätze für den Umgang mit Fake News

Die Bedeutung des Umgangs mit Fake News hat sowohl im politischen als auch im sozialen Kontext zugenommen: Während sich bestehende Studien vor allem darauf konzentrieren, wie man gefälschte Nachrichten erkennt und kennzeichnet, fehlen Ansätze zur Unterstützung der Nutzer bei der eigenen Einschätzung weitgehend. Dieser Artikel stellt bestehende Black-Box und White-Box-Ansätze vor und vergleicht deren Vor- und Nachteile. Dies beinhaltet auch das von uns entwickelte Browser-Plugin TrusyTweet, welches die Benutzer bei der Bewertung von Twitterin-Tweets unterstützt, indem es politisch neutrale und intuitive Warnungen anzeigt, ohne Reaktion zu erzeugen. Schließlich schlagen wir die Ergebnisse unserer Evaluationen mit insgesamt 27 Teilnehmern vor, die zu weiteren Gestaltungsimplikationen für Ansätze zur Unterstützung von Nutzern im Umgang mit gefälschten Nachrichten führen.

Prof. Dr. Christian Reuter ist Universitätsprofessor für Wissenschaft und Technik für Frieden und Sicherheit (PEASEC) an der Technischen Universität Darmstadt. Er hat an der Entwicklung des Browser-Plugins TrustyTweet mitgewirkt, welches auf Twitter Indikatoren für Fake News für die Nutzer kennzeichnet.

Katrin Hartwig ist wissenschaftliche Mitarbeiterin am Fachgebiet Wissenschaft und Technik für Frieden und Sicherheit (PEASEC) an der Technischen Universität Darmstadt. Sie hat an der Entwicklung des Browser-Plugins TrustyTweet mitgewirkt, welches auf Twitter Indikatoren für Fake News für die Nutzer kennzeichnet, und Studien zur Wahrnehmung von Fake News durchführt.

Vorsicht: mögliche Fake News – ein technischer Ansatz zur frühen Erkennung

Vorsicht: mögliche Fake News – ein technischer Ansatz zur frühen Erkennung

Die Erkennung von "Fake News" über einen Fakten-Check nimmt Zeit in Anspruch, die nicht immer zur Verfügung steht, wenn es darum geht, ob eine Meldung veröffentlicht oder wenigstens näher betrachtet werden soll. Im Vortrag wird ein System erläutert, welches ähnlich wie ein Spam-Filter arbeitet und auf mögliche Fake News hinweist. Dieses System wertet in einer zeitaufwendigen Lernphase zwei zuvor erstellte Korpora aus, eins für „gute“ (Nachrichten-)Texte, etwa von dpa, und eins mit Texten, die von Seiten des entsprechenden Nutzers als Fake News eingestuft wurden. Das System lernt dabei, in welchen sprachlichen Merkmalen und in welchen Meta-Daten sich die Texte der beiden Korpora unterscheiden. In der Anwendungsphase kann das System dann unmittelbar neue Texte (Nachrichten) bewerten, wobei es in Bezug auf die erlernten Merkmale überprüft, welcher Sorte von Texten der neue Text „ähnlicher“ ist, um gegebenenfalls eine Warnung auszusprechen.

Prof. Dr. Ulrich Schade ist Leiter der Abteilung Information Technology for Command and Con­trol am Fraunhofer Institute for Communication, Information, Processing and Ergo­no­mics sowie Professor an der Universität Bonn. Er programmiert künstliche neuronale Netz­wer­ke, um Fake News zu erkennen.

Dipl. Inf. Albert Pritzkau ist wissenschaftlicher Mitarbeiter am Fraunhofer Institute for Communication, Information, Processing and Ergonomics in Wachtberg. Er beschäftigt sich mit der Analyse von Informationskampagnen in sozialen Medien. Die Analyse berücksichtigt zur Beurteilung sowohl Nachrichteinhalte als auch Verbreitungsmechanismen.

Kuchenpause

Illegale Einwanderer, Flüchtlinge oder Geflüchtete? Eine kleine Einführung in die automatisierte Erkennung von Media Bias durch Wortwahl

Illegale Einwanderer, Flüchtlinge oder Geflüchtete? Eine kleine Einführung in die automatisierte Erkennung von Media Bias durch Wortwahl

Nachrichten haben einen zentralen Einfluss auf die individuelle wie öffentliche Wahrnehmung aktueller Themen. Ist die Berichterstattung einseitig oder verzerrt, spricht man von Media Bias – ein Schlagwort, welches in Zeiten von „Fake News“ und der zunehmenden Zentralisierung von Nachrichtenunternehmen immer mehr auch ins öffentliche Bewusstsein dringt. Wie können wir Bias effektiv und effizient identifizieren? Eine mögliche Antwort ist: Indem wir die Bias-Expertise und Analysemethoden der Politik- und weiterer Sozialwissenschaften mit automatisierten, skalierbaren Natural Language Processing Methoden der Informatik und Computer Linguistik verbinden.

Felix Hamborg ist Doktorand an der Data & Knowledge Engineering Group der Universität Wup­pertal. Sein aktueller Forschungsschwerpunkt liegt in der automatischen Identifikation von Media Bias in Nachrichtenartikeln.

Verabschiedung