Unkontrollierte algorithmische Macht
Shownotes
Pencho Kuzev warnt vor der unkontrollierten Macht von Empfehlungsalgorithmen großer Plattformen wie TikTok, die Desinformation verstärken und demokratische Prozesse verzerren. Besonders bei Wahlen in Polen und Rumänien zeigte sich, wie Bots und Algorithmen rechtsextreme Inhalte bevorzugen. Der Digital Services Act der EU soll Transparenz schaffen und Risiken eindämmen, doch Umsetzung und Kontrolle sind unzureichend. Kuzev fordert: Algorithmische Verstärkung schädlicher Inhalte muss gestoppt und Nutzer sollen selbst entscheiden können, was sie sehen – zum Schutz von Demokratie und Meinungsfreiheit.
Transkript anzeigen
00:00:00: Unkontrollierte algorithmische Macht.
00:00:03: Die Bedrohung der Demokratie ist real.
00:00:06: Von Pencho Kutzev.
00:00:10: Die Algorithmen markt beherrschende Online-Plattformen entscheiden, welche Informationen sichtbar werden.
00:00:18: Sie fördern gezielt bestimmte Botschaften, treiben deren virale Verbreitung voran, lenken unser Verhalten.
00:00:26: Die digitalen Gatekeeper müssen laut Verordnung der Europäischen Union im Rahmen der Digitalstrategie für Europa transparent machen, wie ihre Empfehlungssysteme Informationen anzeigen.
00:00:40: Zudem müssen sie vier zentrale Risikobereiche besonders im Blick behalten.
00:00:46: Illegale Inhalte, Grundrechtsverletzungen, Gefahren für Demokratie und öffentliche Sicherheit sowie Risiken für die Gesundheit.
00:00:56: Darüber hinaus sollen sie intensiv prüfen, wie ihre Dienste zur Verbreitung oder Verstärkung von Desinformation beitragen, vor allem durch algorithmische Empfehlungssysteme.
00:01:08: Mit ihrem Digital Services Act, DSA und weiteren Regulierungsmaßnahmen versucht die Europäische Union Transparenz und Verantwortlichkeit in der digitalen Öffentlichkeit zu stärken.
00:01:22: Doch die Umsetzung ist politisch umkämpft.
00:01:25: Insbesondere seit der Rede von US-Vizepräsident J.D.
00:01:28: Wands am vierzehnten Februar, zwei Tausendfünfundzwanzig auf der Münchner Sicherheitskonferenz, in der er europäische Regulierungsansätze als Zensur bezeichnet hat.
00:01:40: Wands und andere US-Vertreter stellen europäische Maßnahmen zur Plattformaufsicht als Bedrohung der Meinungsfreiheit dar.
00:01:48: und damit als größte Gefahr für Europa.
00:01:52: Diese Kritik verkennt, dass Europas Regulierungsbestrebungen auf realen Erfahrungen beruhen.
00:01:59: Die sozialen Medien haben nicht nur neue Kommunikationsräume geschaffen, sondern auch zu Gewalttaten und Selbstverletzungen aufgerufen sowie die Verbreitung gefährlicher Verschwörungstheorien beschleunigt.
00:02:13: Autoritäre Staaten verwenden Desinformation als Waffe zur Manipulation der öffentlichen Meinung.
00:02:19: Kriminelle nutzen Plattformen für Betrug und zur Erpressung.
00:02:24: Wie TikTok-Wahlen beeinflusste.
00:02:28: Bei den jüngsten Präsidentschaftswahlen in Polen und Rumänien spielte TikTok eine zentrale Rolle für den Aufstieg rechtsradikaler Kandidaten.
00:02:38: Innerhalb weniger Wochen wurden zuvor weitgehend unbekannte Personen zu politischen Schwergewichten.
00:02:46: Der sprunghafte Zuwachs an Followern sowie die rasante Verbreitung ihrer Inhalte waren kein Zufall.
00:02:53: Dahinter stand ein gezieltes Vorgehen zur algorithmischen Verstärkung ihrer politischen Botschaften, ins Werk gesetzt durch ein loses Netzwerk ideologisch nahestehender oder kommerziell arbeitender Influencer und den massenhaften Einsatz automatisierter Botkonten.
00:03:12: Das Geschehen zeigt einmal mehr, wie soziale Medien und insbesondere TikToks Empfehlungsmechanismen politische Dynamiken beeinflussen und demokratische Prozesse verzerren können.
00:03:25: Einzelne populistische Inhalte werden gezielt durch Bot-Netzwerke manipuliert.
00:03:31: Dabei geht es nicht darum, Menschen zu überzeugen, sondern darum, die Empfehlungsalgorithmen der Plattformen zu täuschen.
00:03:39: Die Bots erzeugen künstlich Reichweite, indem sie massenhaft Likes, Shares, Kommentare und Reposts simulieren.
00:03:47: So werden die Plattformen gezielt dazu verleitet, größtenteils manipulierte Inhalte automatisiert, an ein immer breiteres Publikum auszuspielen.
00:03:58: Ganz so, als handelte es sich um organisch entstandene Trends.
00:04:04: Empfehlungsmechanismen mit rechtsaußen Drall.
00:04:08: Wenige Tage vor der Stichwahl zur Präsidentschaft in Polen am ersten Juni, twenty-fünfundzwanzig, stellte die internationale Nichtregierungsorganisation Global Witness fest.
00:04:21: TikToks Algorithmus zeigte neuen, politisch ausgewogenen Nutzerkonten doppelt so viele rechtsextreme und nationalistische Inhalte wie zentristische oder linksorientierte Fieze.
00:04:36: Bereits frühere Tests zu wahlen in Polen und Rumänien legen nahe, dass TikToks Empfehlungsalgorithmus die Nutzer systematisch in Richtung rechtsextremer Inhalte lenkt.
00:04:49: Testkonten wurden deutlich häufiger mit Inhalten zu Gunsten nationalkonservativer Kandidaten bespielt, als mit solchen dezentristische Kandidaten unterstützen.
00:05:01: Auch in Deutschland zeigte sich bei der letzten Bundestagswahl ein ähnliches Muster.
00:05:07: Inhalte der AfD tauchten überproportional oft als erste Beiträge im For You Feed von TikTok auf.
00:05:17: In welchem Ausmaß die verstärkte Präsenz bestimmter Inhalte in den sozialen Medien tatsächlich Wähler mobilisiert oder ihre Entscheidung für eine bestimmte Partei beeinflusst, lässt sich kaum eindeutig belegen.
00:05:30: Doch eines steht fest, laut Eurobarometer sind algorithmisch gesteuerte Social-Media-Feeds inzwischen die wichtigste Informationsquellen zu politischen Themen für Europäerinnen und Europäer im Alter von unter dreißig Jahren.
00:05:46: Das ist eine besorgniserregende Entwicklung.
00:05:49: Die demokratische Kräfte in höchste Alarmbereitschaft versetzen sollte, denn wer die Informationskanäle kontrolliert, prägt zunehmend die politische Meinungsbildung junger Menschen.
00:06:03: Algorithmische Verstärkung statt echter Moderation.
00:06:08: Mittlerweile ist unumstritten, die Versprechen der großen digitalen Plattformen, Fakten zu überprüfen und Inhalte wirksam zu moderieren, entpuppen sich als Finte.
00:06:20: Meta und Co.
00:06:22: wissen schon lange, dass weder Faktenchecks noch Inhaltsmoderation das eigentliche Problem lösen können, das überdies von ihren eigenen Empfehlungsalgorithmen geschaffen wird.
00:06:33: Ein internes Meta-Dokument aus dem Jahr, dass durch die US-amerikanische Informatikerin und Whistleblowerin Francis Horgan an die Öffentlichkeit gelangte, kommt zu einem ernüchternden Fazit.
00:06:48: Moderation im großen Maßstab sei unmöglich.
00:06:53: Stattdessen müsse der Fokus darauf liegen, die algorithmische Verstärkung schädlicher Inhalte zu verhindern.
00:06:59: Wir werden niemals alle schädlichen Inhalte von einem Kommunikationsmedium entfernen können, das von so vielen genutzt wird.
00:07:07: Aber zumindest können wir verhindern, dass diese Inhalte durch unnatürliche Verbreitung eine übermäßige Aufmerksamkeit erhalten.
00:07:16: Die derzeitigen Maßnahmen der europäischen Kommission im Rahmen des Digital Services Act, darunter mehrere Ermittlungen gegen Plattformbetreiber, ein freiwilliger Kompromiss von TikTok bei einem neuen Produktlounge in Spanien sowie laufende Transparenzstudien, sind zwar Schritte in die richtige Richtung, reichen aber bei weitem nicht aus, um das Problem zu lösen.
00:07:43: Desinformation zersetzt die Meinungsfreiheit, untergräbt das Vertrauen in demokratische Institutionen und beschädigt die Glaubwürdigkeit faktenbasierter Medien.
00:07:54: Damit ist sie längst nicht mehr nur ein Nebengeräusch digitaler Öffentlichkeit, sondern ein systemisches Risiko für den demokratischen Diskurs und faire Wahlen.
00:08:05: Erste Studien zeigen, wie gezielt ausländische Akteure Desinformation einsetzen, um Gesellschaften zu destabilisieren.
00:08:15: Die Erfahrungen im Zuge der Wahlen in Rumänien, Deutschland und Polen liefern der Europäischen Kommission ausreichenden Anlass, um endlich eine umfassende Untersuchung gemäß Artikel thirty-four DSA einzuleiten.
00:08:30: Ziel müsste sein, inhaltsneutral jene Mechanismen zu identifizieren, die zur massenhaften Verbreitung von Desinformationen führen, insbesondere im Kontext von Wahlen.
00:08:45: Wer soll auswählen, User oder Algorithmus?
00:08:49: Doch bei der Analyse darf es nicht bleiben.
00:08:52: Auf Basis von Artikel thirty-five DSA sollte die Kommission konkrete Gegenmaßnahmen ergreifen, etwa Schritte, die algorithmische Verstärkungsmechanismen eindämmen und zugleich die Entscheidungsmacht der Nutzerinnen und Nutzer stärken.
00:09:09: Denn in einer demokratischen Öffentlichkeit müssen alle selbstbestimmt entscheiden können, welche Inhalte sie sehen.
00:09:16: statt sich von undurchsichtigen Empfehlungssystemen leiten zu lassen, die auf Profiling und Aufmerksamkeit maximierende Algorithmen setzen.
00:09:26: Demokratischer Diskurs lebt von bewusster Auswahl, nicht von algorithmisch gesteuertem Beeinflussung.
00:09:33: Diese Maßnahme stellt keinen Eingriff in die Meinungsfreiheit dar.
00:09:37: Nicht die freie Rede wird eingeschränkt, sondern ihre künstliche Verstärkung.
00:09:43: Es geht um die Macht der Algorithmen, nicht um die Meinungsäußerung von Menschen.
00:09:48: Europäische Internetnutzerinnen und Nutzer sollten selbst entscheiden, was sie online sagen, sehen und teilen.
00:09:56: Und es nicht Systemen überlassen, die möglicherweise von feindlich gesinnten ausländischen Akteuren kontrolliert werden.
00:10:04: Sobald algoritmische Empfehlungssysteme deaktiviert werden.
00:10:08: fällt der automatische Vorteil für autoritäre Inhalte weg.
00:10:13: Statt systematisch bevorzugt zu werden, müssen sie sich ihren Platz in der digitalen Aufmerksamkeitsökonomie zurückerobern, im Wettbewerb mit Katzenvideos, Tanzclips und allen anderen Inhalten im digitalen Raum und das in Echtzeit.
00:10:30: Die Abschaltung von Empfehlungsalgorithmen würde nicht nur die demokratische Debatte entlasten, sie wäre auch ein wirksamer Schutz für Kinder und Jugendliche davor, dass ihnen toxische Inhalte ungefragt in ihre Fiez gespült werden.
00:10:47: Der Digital Services Act und die Datenschutzgrundverordnung bieten starke Instrumente, die auf den neuen Sicherheitspolitischen Kontext Europas zugeschnitten sind.
00:10:59: Doch ihre Wirksamkeit hängt vom politischen Willen ab.
00:11:04: Von dem Mut der Verantwortung und dem Bewusstsein dafür, in welcher Prekärenlage sich Europa aktuell befindet.
00:11:13: Die Durchsetzung dieser Regeln darf nicht zur Verhandlungsmaße in handelspolitischen Beziehungen mit den USA oder China werden.
00:11:21: Es geht um mehr.
00:11:23: Den Schutz der Demokratie.
00:11:28: Über den Autor Penchow Kutzev Geboren in Wellesch, Mazedonien.
00:11:36: Promovierte Jurist, Referenz, Daten- und Wettbewerbspolitik, Hauptabteilung, Analyse und Beratung, Konrad Adenauer Stiftung.
00:11:45: Gelesen von Armin Gro.
00:11:48: Die politische Meinung.
00:11:50: Neutral geht gar nicht.
00:11:56: Ein Audio-Podcast der Konrad Adenauer Stiftung.