Kategorie: #DigitalMondayBlog

Wieder raus aus der desinformierten Gesellschaft und zurück zum Faktischen

Das globale Problem der Desinformation kann nur im abgestimmten Zusammenspiel von Technologie, Regulierung und Bildung kooperativ bewältigt werden. Künstliche Intelligenz kann uns dabei helfen, wieder Hoheit über den globalen digitalen Informationsraum zu bekommen. Für den Erhalt von Demokratie und Freiheit sind aber mündige Bürger*innen mit digitaler Literalität genauso wichtig. Die Rückkehr zum Faktischen – die wahrscheinlich vordringlichste Herausforderung unserer Zeit!

Die rasante globale Verbreitung der sozialen Medien als eine der wichtigsten Kommunikations- und Informationsmedien für unsere Gesellschaften haben innerhalb weniger Jahre eingesessene Verlagshäuser als erste Adressen für Informationsquellen abgelöst. Durch die hohe Verbreitung und Kundenakzeptanz sichern sich heute Facebook, Google und Co. rund 80 Prozent des globalen digitalen Werbeetats, wodurch die traditionellen Medien noch einmal gewaltig an gesellschaftlicher Bedeutung einbüßen und ihre gelernte Rolle als Gatekeeper von Nachrichtenströmen nicht mehr systemrelevant erfüllen können.

Die Entwicklung der sinkenden Aufmerksamkeitsspanne bei uns allen als digitale Medienkonsument*innen der Social-Media-Plattformen verändern die Regeln in einer neuen Aufmerksamkeitsökonomie. Nur wer im sozialen Web echte Wahrnehmung genießt, kann die Regeln für globales Agenda Setting bestimmen. Das Verschwimmen alter ideologischer Gegensätze und die damit einhergehende Fragmentierung des öffentlichen Meinungsspektrums durch Tribalisierung tat ihr Übriges, um den virtuellen Diskursraum in den sozialen Medien zur echten Ersatzbühne für ökonomische und geopolitische Auseinandersetzungen aufzuwerten. Da in strategischen Interessenskonflikten faktenbasierte Wahrheiten kein wirkliches Kriterium für die Umsetzung von Zielen darstellen, war dem Aufkommen von Desinformation in der neuen Medienwelt Tür und Tor geöffnet. Die Geschwindigkeit des massenhaften Einstellens von Fake News in den digitalen Nachrichtenraum des Internets bestätigt diesen Befund eindrucksvoll.

Desinformation – Kampf gegen Verschwörungstheorien aus Filterblasen

Unsere Demokratien sind heute einer ständigen Zangenbewegung feindlicher Akteure von außen und populistischer Gruppen im Innern ausgesetzt. Mit einer Mischung aus Cyberattacken, subversiven Informationskampagnen zur Untergrabung politischer und sozialer Wertmaßstäbe und durch Verschärfung bereits bestehender Spannungen wird versucht die öffentliche Meinungsbildung zu manipulieren, öffentliches Vertrauen in Medien und Institutionen herabzusetzen, politische Führungspersönlichkeiten zu diskreditieren, den sozialen Zusammenhalt zu schwächen oder Entscheidungen von Bürger*innen in freien Wahlen zu beeinflussen [1].

In den nationalen Populismen finden die Feinde einer Demokratie oft kongeniale Partner*innen für die Umsetzung ihrer Desinformationspläne vor. Die sozialen Medienkanäle machen es den „Diskurs-Lenker*innen“ nun sehr einfach, ihre irreführenden und falschen Botschaften durch Teilen und Likes sehr schnell massenhaft zu verbreiten. Eine Studie des MIT [2] hat herausgefunden, dass falsche Meldungen etwa 6-mal schneller 1.500 Menschen erreichen als eine wahre politische Information. Die Erklärung dafür: Falschinformationen erscheinen unbekannter und damit neuer und täuschen den Teilnehmer*innen im eigenen, persönlichen Online-Umfeld vor, an den richtigen News-Quellen zu sitzen und besser Bescheid zu wissen als andere oder sogar ein „Insider“ zu sein.

Vertiefte Beziehung zu digitalen Freunden

Eine Desinformation mag ursprünglich von einem Unbekannten ausgehen, wenn sie aber im Erscheinungsbild eines emotionalisierten Likes oder eines Re-Tweets aus dem Freundeskreis empfangen wird, hat sie bereits enorm an Glaubwürdigkeit zugelegt. Freund*innen und Bekannte sind Vertrauenspersonen, die in der Regel vielerlei Ansichten teilen. Mit jeder digitalen Interaktion vertiefen wir die Beziehung der „digitalen Freund*innen“, sind weniger skeptisch und verzichten auf eine kritische und objektive Prüfung übermittelter Inhalte. Wenn Falschmeldungen oder Verschwörungsmythen durch massenhaftes Teilen dann auch noch wiederholt in den eigenen Echokammern kursieren, hält sie unser Gehirn mit jeder neuen Konfrontation für ein Stück wahrer (kognitiver Bias).

Die größte Verstärkung für eine rein gefühlsmäßige, reflexionslose Anerkennung von Wahrheitsansprüchen in Falschmeldungen leistet jedoch unser präexistierendes Weltbild. Wenn eine neue Meldung besonders stark mit unseren Einstellungen und Überzeugungen korreliert, dann fällt eine kritische Hinterfragung nicht nur schwer, sondern meistens ganz weg (confirmation Bias). Je mehr man sich im Laufe der Zeit bei Quellenauswahl und Diskurspartner*innen auf vorgefasste Ansichten und Vorurteile ausrichtet, desto stärker gerät man in erstarrte Filterblasen in sich immer wieder neu repetierender Kommunikation.

Eine schnelle Problemlösung ist bei diesem Phänomen nicht in Sicht. Wird nämlich eine persönliche Überzeugung von außen faktenbasierend widerlegt, werten dies die Mitglieder eines Überzeugungszirkels als persönlichen Angriff und versuchen noch stärkere Gründe zu finden, die ihren Ansichten Recht geben (backfire-effect).

Manuelles Faktenprüfen muss vor der Fake-News-Flut kapitulieren

Obwohl die weltweite Zahl an Organisationen zur Faktenüberprüfung in den vergangenen Jahren rasant zugenommen hat und sich heute an die rund 200 Initiativen der Aufdeckung und Abwehr von Desinformation widmen, kann die schiere Menge an zirkulierenden Fake News durch manuelles Faktenprüfen nicht mehr bewältigt werden.

Das Problem der Halbwahrheiten bei vielen Nachrichten im Netz hat seinen Ursprung in einem Paradox der sozialen Medien. Indem bisherige Rezipient*innen auch zu Nachrichtenproduzent*innen werden konnten, was ursprünglich als ein Befreiungsschlag für die breite Masse in Richtung freie Meinungsäußerung gefeiert wurde, ist das Gatekeeper-Modell der klassischen Presse ausgehebelt worden. Damit wurde professionelle Vorselektion von Nachrichten außer Kraft gesetzt. Mit der neuen Meinungsflut entwickelte sich im Laufe der Zeit eine hohe Akzeptanz für alternative Informationsquellen trotz nachweislicher Verschiebung von Autor*innenkompetenz in Richtung Dilettantismus.

Die Grenzen zwischen Journalist*innen und Laien begannen zu verschwimmen, die Mediennutzungsgewohnheiten eines vor allem jüngeren Publikums mit deutlicher Neigung eher Schlagzeilen als Inhalte zu konsumieren wirkte auf die Medienproduktion zurück, sodass auch professionelle Journalist*innen in ihren Themenrecherchen zunehmend mehr auf die schnelle Nachrichtenabfolge bei den Web-2.0-Plattformen angewiesen waren. Eine klare Trennung seriös überprüfter, auf Fakten basierender Berichterstattung von Meinungen und Gerüchten kam mit dieser Entwicklung sukzessive unter die Räder. Die manuelle Gegenwehr skaliert in der digitalen Welt nicht.

Neben der großen Macht zur Beeinflussung von Meinung ganzer Gesellschaften und somit potentieller Manipulation von Meinungsumfragen und Wahlen wie es im Zuge der Brexit-Diskussion und der US-Präsidentschaftswahlen deutlich wurde, haben Fake News dabei aber auch eine sehr nüchterne ökonomische Konsequenz. Sie verursachen rund 78 Milliarden US-Dollar an jährlichen Kosten [3] durch Kursverluste an Börsen, Falschinformationen über Unternehmen, Verschwörungstheorien im Gesundheitswesen und ausgleichendem Reputationsmanagement von Unternehmen. Der enorme negative Einfluss von Desinformation für komplexe Herausforderungen zeigt sich auch durch die Erfahrung in dem aktuellen Corona-Pandemiemanagement.

Künstliche Intelligenz im Kampf gegen Desinformation

Durch neue Technologien wie künstliche Intelligenz und der Verbesserung der Rechenleistung konnte die Qualität der digitalen Systeme zur Entdeckung von Desinformation in den vergangenen Jahren enorm verbessert werden. Die großen sozialen Internetplattformen wie Google, Facebook oder Twitter können mittlerweile auf eine hohe Treffsicherheit ihrer KI-basierten Prüfmethoden bauen: 99 Prozent der entfernten Nachrichten im Kontext terroristischer Aktivitäten wurden durch KI entdeckt, 98,5 Prozent der aufgedeckten Fake Accounts und Fake Bots und 96 Prozent der Fahndungserfolge bei der Suche nach kinderpornografischem Material gehen ebenfalls auf Methoden von lernenden Systemen der künstlichen Intelligenz zurück [1].

Trotzdem ist eine voll-automatisierte Faktenüberprüfung immer kritisch zu hinterfragen. Fehlentscheidungen der Schutzsysteme können in nicht tolerierbarem Ausmaß dazu führen, dass auch ein richtiger und gesetzlich einwandfreier Inhalt fälschlicherweise blockiert wird. Ein solches „Overblocking“ birgt die Gefahr einer Zensierung und einer inkorrekten maschinenbasierten Beschränkung der Meinungsfreiheit. Das zweite große Problem beim Einsatz von KI im Kampf gegen Desinformation ist eine prinzipiell fehlende „Erklärbarkeit“ der mit maschinellem Lernen gezogenen Schlussfolgerungen von KI-Systemen. Und darüber hinaus gibt es auch noch die handfeste Bedrohung für unsere Wertesysteme, die durch globale Datenanalysen von monopolistischen Anbieter*innen durch User-Profiling und Micro-Targeting entstehen. Deren Gefährlichkeit und manipulative Kraft wurde uns spätestens seit dem Skandal um Cambridge Analytica bewusst.

AIT entwickelt eine AI-basierte Toolbox für den Kampf gegen Fake News

Das AIT Austrian Institute of Technology hat die technologische Aufdeckung und Bekämpfung von Desinformation über alle Medientypen hinweg an seinem Center for Digital Safety & Security zu einem strategischen Schwerpunktthema gemacht.

Die AIT-Expert*innen befassen sich dabei mit sogenannten Deep Fakes, das heißt manipulierten Videos, in denen handelnde Personen ausgetauscht bzw. ihnen Aussagen in den Mund gelegt werden, die sie niemals gesagt haben. Ebenso ist die Erkennung von manipulierter Sprache und somit Audio-Dateien eine große Herausforderung im AIT-Forschungsprogramm. Beim automatischen Überprüfen von Texten stehen die Forscher*innen vor allem vor dem Problem, dass die menschliche Sprache viele unterschiedliche subtile Subkontexte wie Satire, Sarkasmus oder Hate Speech kennt, die es zuverlässig zu erkennen gilt und Aussagen verändern ihre Bedeutung im Kontext einer Verwendung.

Am AIT entwickeln wir derzeit im Rahmen des österreichischen Sicherheitsforschungsprogramms KIRAS ein effektives System zur Erkennung von Desinformation, bei dem klassische und KI-gesteuerte Ansätze kombiniert werden und die verschiedenen Medienformate wie Bild, Video, Audio, und Text in einem gemeinsamen Kontext auf die Glaubwürdigkeit von Nachrichten beurteilt werden.

Medikamenten-Mix gegen Desinformation: Technologie, Regulierung und Bildung

Forensische Werkzeuge (bessere Ground-Truth-Datensätze für Deep Fakes, digitale Herkunftsbescheinigungen mit Wasserzeichen als Referenz für den späteren Abgleich mit verdächtigen Inhalten) zur Erkennung, Aufdeckung, Kennzeichnung und Richtigstellung bzw. Löschung von Desinformation können immer nur ein Teil der Strategie sein. Um unsere globale Informationssphäre wirklich erfolgsversprechend an die Faktizität von Ereignissen rückkoppeln zu können, brauchen wir parallel auch regulative Maßnahmen zur rechtlichen Einfassung von Desinformation.

Dabei ergibt sich eine besondere Schwierigkeit im Hinblick auf definierte Rollen im Ökosystem oder besser gesagt auf eine ausbalancierte Verteilung der Verantwortlichkeiten der verschiedenen involvierten Stakeholder: Digitale Medienplattformen, Strafverfolgungsbehörden, unabhängige Fact-Checker etc. Dafür braucht es enge und nachhaltige Kooperationen zwischen Forschung, Behörden und Industrie.

Und last but not least müssen wir präventive Maßnahmen setzen und dafür Sorge tragen, dass heranwachsende, junge Menschen schon früh in Bildungssystemen mit den handwerklichen und systemrelevanten Fertigkeiten für die eigene, seriöse Bewertung digitaler Inhalte ausgestattet werden. „Digitale Literalität“ muss künftig weit breiter definiert sein als nur als native Aneignung digitaler Skills im Umgang mit gerade generationsbegleitenden Technologien. Sie muss auch den Zusammenhang thematisieren, der zwischen persönlicher digitaler Lebensgestaltung und digitalen sozial-gesellschaftlichen Bedingungen im übergeordneten Sinn gegeben ist. Nur wer künftig intellektuell auch souverän für sich selbst Informationsströme im Internet auf ihren wahrscheinlichen Wahrheitsgehalt einschätzen kann, indem er Gestaltungsmerkmale, Herkunft der Autor*innen, Quellen und Ursprung von Nachrichten überprüfen, Fakten und Zahlen auf Plausibilität checken und multimediale Informationen (Bilder, Videos, Audio-Daten, und Texte) technisch auf mögliche Fälschungen verifizieren kann, wird selbstbestimmt am großen Informationskonzert teilhaben können.

Die Rückkehr des Faktischen ist für den Erhalt einer demokratisch und rechtsstaatlich formierten Gesellschaft unerlässlich. Aber nur in gemeinsamer und Disziplinen überschreitender Anstrengung und durch neuerliche fokussierte Stärkung unserer traditionellen Medien können wir die Hoheit über den globalen Informationsraum zurückgewinnen.


AIT CyberSecurity Leopold 280319 25 Web

Helmut Leopold ist Head of Center for Digital Safety & Security am AIT Austrian Institute of Technology. In dieser Rolle hat er eine Forschungsgruppe mit internationalem Format am AIT etabliert und verantwortet dabei unter anderem Schlüsselbereiche wie sichere Softwareentwicklung, Datenwissenschaft, Künstliche Intelligenz und Cyber Security. Er hat 30 Jahre Berufserfahrung im Bereich Digitalisierung und war vor seinem Engagement bei AIT in verschiedenen Management-Positionen in der Industrie. Er bekam mehrere internationale Auszeichnungen als auch Staatspreise im Innovationsbereich, gab Vorlesungen an Universitäten und agierte als Evaluator in EU-Forschungsprogrammen. Er ist Präsident der Gesellschaft für Informations- und Kommunikationstechnik (GIT) im Österreichischen Verband der Elektrotechnik (OVE) und leitet Cyber-Security-Arbeitsgruppen in der CSP Cyber Security Plattform des Bundeskanzleramtes als auch in der Industrie 4.0 Plattform Österreich. Herr Leopold absolvierte das Informatikstudium an der Technischen Universität Wien und promovierte zum Doktor der Philosophie in Computer Science an der Universität Lancaster in England.

 

Literatur

[1] Katarina Kertysova, „Artificial Intelligence and Disinformation – How AI Changes the Way Disinformation is Produced, Disseminated and Can Be Countered”, Security and Human Rights 29 (2018) 55-81

[2] Quarks, “Darum verbreiten sich Verschwörungsmythen so leicht“, 23.9.2020;  (letzter Zugriff am 2.4.2021)

[3] Statista, „Jährliche Kosten durch Auswirkungen von Fake News“; (letzter Zugriff am 2.4.2021)

Mehr #DigitalMondayBlog

Barrierefreie Kunstvermittlung
29 Jan 2024 |
#DigitalMondayBlog , Bildung
Das Wiener Forschungszentrum VRVis setzt sich seit mehr als einem Jahrzehnt mit digitalen Innovationen auseinander, um allen Menschen gleichermaßen Kunst- und Kulturerfahrungen zu ermöglichen. So erstellt das Forschungsteam mittels einer sof...
weiterlesen
4 frische Automatisierungsideen für 2024
5 Jan 2024 |
#DigitalMondayBlog
#PowerAutomate In Gesprächen mit anderen wird schnell klar, dass das Potential der Power Platform, allem voran mit Power Automate und PowerApps, kaum angezweifelt wird. Vielerorts fehlt es jedoch an Ideen, welches Projekt man denn j...
weiterlesen
Künstliche Intelligenz im Berufsalltag: Mehr als nur ein Trend
5 Dez 2023 |
#DigitalMondayBlog
Was genau ist überhaupt generative KI und wie kann sie im Unternehmen helfen? In einer Welt, die immer digitaler wird, spielt Künstliche Intelligenz (KI) eine immer größere Rolle. Vor allem die Generative KI ist...
weiterlesen
Digitale Kompetenz: Ein Schlüssel zur Zukunft
28 Nov 2023 |
#DigitalMondayBlog , Bildung
Digitale Kompetenz ist längst nicht mehr nur eine Fähigkeit für Tech-Enthusiast*innen. Es ist der Schlüssel, um in der heutigen Welt erfolgreich zu bestehen. Zu den Vorreitern in Wien, die dieses Bewusstsein im Bildungsbereich vorantre...
weiterlesen
Digitalisierung? Gendergerecht!
28 Nov 2023 |
#DigitalMondayBlog , Bildung
Digitalisierung ist nicht automatisch gendergerecht, sondern eine sozial und politisch gestaltbare Entwicklung. Das Frauenservice Wien (MA 57) setzt auf vie...
weiterlesen
FH Technikum Wien: Digitale IT-Security Grundbildung
27 Nov 2023 |
#DigitalMondayBlog , Bildung
Im Studienjahr 2022/2023 wurde der Grundstein für die Projektreihe „Digitale IT-Security Grundbildung mit Prof. Banana“ im Master...
weiterlesen