Die künstliche Intelligenz gefährdet die Demokratie – wem wir deshalb bei Facebook folgen sollten

Immer häufiger ist die Rede von künstlicher Intelligenz (KI). Aber nicht allen fällt es leicht, sich etwas darunter vorzustellen. Woran denkst Du bei dem Begriff? Denkst Du an selbstfahrende Autos, an einen menschenähnlichen Computerassistenten, oder denkst Du eher an eine bedrohliche Roboterarmee? Die öffentliche Wahrnehmung von KI wurde in den letzten Jahren vor allem geprägt von Kinofilmen wie Matrix, Ex Machina, A.I. oder I Robot. All diese Filme sind Dystopien, in denen ein Computerprogramm selbstständig wird und Menschen dominiert. Die Gefahr, die von KI ausgeht, wird deshalb meistens in einer fernen Zukunft verortet.

Die Gefahr ist jedoch schon jetzt gegenwärtig und alltäglich. Sie begegnet uns nicht als Roboterarmee, sondern im Internet, in Form selbstlernender Algorithmen. Diese Algorithmen bestimmen, was wir auf unseren Laptops, Tablets und Smartphones zu sehen bekommen: welche Treffer uns Google angezeigt, welche Werbung uns eingeblendet wird, welche Beiträge wir bei Facebook sehen. Die Algorithmen entscheiden ebenso darüber, was wir nicht sehen: welche Nachrichten und welche Posts uns verborgen bleiben, welche Freunde, Webseiten und YouTube-Videos uns nicht vorgeschlagen werden.

Facebook und die anderen sozialen Medien wollen, dass die Benutzung ihrer Webseiten für uns so angenehm wie möglich ist. Denn dann bleiben wir länger und klicken häufiger. Das bringt ihnen Erfolg und Einnahmen. Deswegen programmieren Facebook & Co ihre Algorithmen so, dass sie uns vor allem zeigen, was uns gefällt; also Inhalte, die unseren Erwartungen und Meinungen entsprechen. Denn das menschliche Gehirn neigt dazu, widersprüchliche Informationen zu meiden. Die meisten Menschen unterhalten sich nicht so gerne mit jemandem, der immer eine ganz andere Meinung hat als sie selber. Nur Wenige lesen eine Zeitung von der anderen Seite des politischen Spektrums. Genauso verhält es sich auch in den sozialen Medien. Menschen werden eher abgeschreckt, wenn die Inhalte ihren Erwartungen und Meinungen widersprechen. Dieses Phänomen ist als „Confirmation Bias“ bekannt. Facebook, Google und YouTube wissen um dieses Phänomen. Deshalb versuchen sie Inhalte auszublenden, die nicht zu unseren Vorlieben passen.

Die Zuverlässigkeit, mit der diese „unpassenden“ Beiträge ausgeblendet werden, steigt zunehmend. Und auch Du trägst wahrscheinlich dazu bei. Und zwar mit jedem Link, den Du bei Facebook anklickst, mit jedem Link, den Du dort nicht anklickst, und mit jedem Like und Abonnement: All Deine Handlungen und Nicht-Handlungen werden ausgewertet, um Deine Timeline zu optimieren. Dafür analysiert Facebook sogar dann Deine Suchfeldeingaben, wenn Du nach dem Reinschreiben nicht auf Enter drückst, sondern Deine Eingabe wieder löschst. Die Algorithmen sind darauf programmiert, Dein Verhalten genau zu studieren und zu analysieren. Denn dadurch können sie errechnen, welche Beiträge am meisten mit Deinen Erwartungen und Vorlieben übereinstimmen. Die bekommst Du dann angezeigt. Wie Du auf diese individuelle Zusammenstellung reagierst, wird natürlich auch direkt wieder analysiert, um dann entsprechend nachzujustieren. Am Ende soll Dir nur noch angezeigt werden, was Deiner Meinung und Deinen Erwartungen nicht widerspricht, also das, was vermeintlich am besten zu Dir passt.

Weil die KI immer besser darin wird, uns nur „passende“ Beiträge anzuzeigen, entsteht eine immer undurchlässigere Filterblase. Die Filterblase lässt nur noch zu uns durch, was uns angenehm ist. Wir bekommen nur noch einen kleinen, nicht-repräsentativen Ausschnitt der öffentlichen Diskussion mit. Das wahrgenommene Meinungsspektrum wird dadurch immer schmaler.

KI

Selbstlernende Algorithmen bestimmen, was wir im Internet sehen. Bild von pixabay.com, CC0 Lizenz.

Filterblasen sind kein neues Phänomen, aber noch nie war die Filterblase so undurchlässig und unberechenbar wie heute. Dafür gibt es zwei Gründe: Einerseits sind die Algorithmen nicht transparent, und andererseits hat die Digitalisierung eine hohe Zahl neuer Informationskanäle geschaffen.

Immer schon gab es verschiedene Informationskanäle für verschiedene Zielgruppen. Die Frankfurter Allgemeine Zeitung richtet sich zum Beispiel eher an konservative Leser, die Frankfurter Rundschau eher an linke. Wer sich für die eine oder andere Zeitung entscheidet, der weiß, was er/sie bekommt. Welche Beiträge ich in den sozialen Medien präsentiert bekomme, steuere ich jedoch viel weniger bewusst. In den sozialen Medien ist die Geschichte all meiner Aktivitäten entscheidend für den Newsfeed, den ich präsentiert bekomme. Ich kann mich nicht heute für eine konservative Variante entscheiden und morgen für die linke.

Während die Diskussionen früher in einer überschaubaren Zahl an Zeitungen stattfanden, wird heute zusätzlich auf einer Vielzahl von Nachrichtenportalen, Blogs, Facebookseiten und anderen Formen sozialer Medien unter vielen verschiedenen Hashtags diskutiert. Dabei diskutieren wir in kleineren und zunehmend isolierten, homogenen Runden, in denen alle einen ähnlichen Blick auf die Welt haben.

Gerret von Nordheim, Wissenschaftler von der TU Dortmund, hat auf Zeit Online erklärt, wie sich nach dem Amoklauf in München bei Twitter zwei fast völlig voneinander isolierte Diskussionsstränge entsponnen. Die eine Diskussion besprach Informationen rund um den Tathergang, während die andere Diskussion Merkel und die Regierung für den Vorfall verantwortlich machte. Ähnliches war anlässlich der gewalttätigen Auseinandersetzungen in Bautzen im September zu beobachten. Die eine Seite behauptete „die Asylbewerber haben die Bürger und dann die Polizisten angegriffen!“, während sich die andere Seite sicher war: „Geflüchte werden von Nazis gejagt“.

Der eigenen Wahrnehmung wird im persönlichen Newsfeed kaum widersprochen. Das bestärkt die eigene Meinung. Außerdem werden etwaige Zweifel zerstreut, wenn Widerspruch ausbleibt. Das führt dazu, dass selbst extreme und postfaktische Positionen als normal wahrgenommen werden können. Wer eine deutlich andere Meinung äußert, wird verteufelt. So geschehen auch in meinem Facebook Newsfeed. Vor einigen Wochen postete ein Freund, dass er Trump wählen würde, wenn er US-Bürger wäre. Darauf folgte keine sachliche Debatte, sondern Schmähkritik. Kein neugieriges „Warum denkst Du das?“, sondern vorwurfsvolles „Wie kannst Du nur?“. Er sah sich schließlich gezwungen den Post zu löschen, um sich als Person nicht unmöglich zu machen.

Wenn Diskussionen nur noch in Filterblasen mit Gleichgesinnten geführt werden, dann bleibt die demokratische Meinungsbildung auf der Strecke. Die Meinungen aller Beteiligten müssen aber geäußert werden dürfen – und sie sollten auch sachlich diskutiert werden. Wenn Andersdenkende nicht mehr wahrgenommen oder sogar verteufelt werden, dann ist unsere Demokratie in Gefahr.

Es sind nicht allein die sozialen Medien, die die Demokratie bedrohen, aber sie spielen eine Schlüsselrolle. Ein hochkarätiger ehemaliger Facebookmitarbeiter räumt ein, dass Facebook maßgeblich zur politischen Polarisierung in den USA und in Europa beigetragen hat. Die Polarisierung in den USA veranschaulicht das Wall Street Journal mit einer Website, auf der es einen konservativen und einen liberalen Newsfeed nebeneinander stellt. Man merkt beim Betrachten schnell, dass die beiden Newsfeeds sehr unterschiedliche Geschichten über dieselben Ereignisse erzählen. In beiden Newsfeeds kommt die andere Seite kaum zu Wort.

Wir sollten in puncto Meinungsvielfalt aber ähnliche Ansprüche an unsere Newsfeeds und die sozialen Medien stellen wie an die traditionellen Medien. Denn für immer mehr Menschen sind die sozialen Medien die wichtigste und meistgenutzte Informationsquelle.

Was der Rundfunkstaatsvertrag von den privaten Radio- und Fernsehsendern verlangt, nämlich „inhaltlich die Vielfalt der Meinungen im Wesentlichen zum Ausdruck zu bringen“, sollten wir auch von den Algorithmen der sozialen Medien verlangen. Technisch kann eine solche Vielfalt auf verschiedene Weisen hergestellt werden. Man kann verschiedene Beiträge automatisch kategorisieren lassen und für die Abbildung verschiedener Diskussionsströmungen eine Quote fordern. Dazu sind die Algorithmen schnell in der Lage. Oder man kann einen gewissen Anteil der Einblendungen nach dem Zufallsprinzip regeln. Um nur zwei simple Möglichkeiten zu nennen. Entsprechende Maßnahmen sind überfällig, konkurrieren aber mit den ökonomischen Interessen von Unternehmen wie Google und Facebook.

Deshalb muss die Politik entsprechende Regulierungen schnell auf den Weg bringen. Bis es soweit ist, können wir selbst einen kleinen Teil zur Pluralität unserer Newsfeeds beitragen. Dafür muss man auf Facebook oder Twitter einfach nur ein paar Seiten folgen, die der eigenen Weltanschauung eigentlich nicht entsprechen. Vielleicht kommt man dann sogar mal ins Gespräch mit jenen, die anders denken als man selbst. Das wäre ein Gewinn für unsere Demokratie.

In jedem Fall sollten wir uns bewusst werden, welchen Einfluss künstliche Intelligenz schon heute auf unser Leben und unsere Wahrnehmung hat. Aktuell ist die größte Gefahr, die von künstlicher Intelligenz ausgeht, keine apokalyptische Roboterarmee, sondern die Filterblase im Internet.

Dieser Artikel wurde zuerst auf unserezeit.eu veröffentlicht.