Ein Bot ist, abgeleitet von RoBOTer, eine Software, die ohne weitere (menschliche) Interaktion bestimmte Aufgaben automatisch und vor allem massenhaft erfüllt.
Zu den bekannteren Bots gehören die Softwareroutinen, die die Ergebnisse zusammentragen, die die Grundlage für Internetsuchmaschinen wie Bing, Yahoo oder Google sind. Andere Bots mit einem weniger ruhmreichen Funktion “bewegen” sich in den sozialen Netzwerken und werden als “Social Bots” bezeichnet. Sie suchen zum Beispiel bei Twitter nach bestimmten Hashtags (#). Ein Social Bot ist so geschrieben, dass nach dem Auffinden eines bestimmten Hashtags ein Text generiert wird, der sich auf dieses Schlüsselwort bezieht. Hierbei handelt es sich nicht um eine rein “maschinelle” oder “künstliche” Äußerung; das Maschinelle oder Künstliche kommt erst dadurch zustande, dass es massenhaft geschieht. Die einzelne Mitteilung und ihre bestimmten Bedingungen folgende Erzeugung ist das Ergebnis der Arbeit einer Person oder Personengruppe die den besagten Ablauf erdacht, programmiert, getestet, als Erfolg versprechend bewertet und schließlich gestartet hat. Künstliche Intelligenz, die in diesem Zusammenhang gerne zitiert wird, ist also weniger eine technische als eine ideologische Kategorie, verschleiert sie doch allzu gerne den Umstand, dass hinter dem “künstlichen” Apparat ein “menschliches” Interesse steht.
Die Universität Duisburg-Essen hat nun kürzlich eine Untersuchung veröffentlich, die sich mit dem Einfluss von Social Bots in den sozialen Netzwerken beschäftigt. Der Informatiker und Projektleiter Björn Boss meint dazu, dass es bislang an Methoden fehlte, um entsprechende Einflüsse wissenschaftlich nachzuweisen.
Vorgegangen sind die Forscher aus dem Ruhrgebiet folgendermaßen: Sie haben zuerst ein aus 1000 Akteuren bestehendes Netzwerk simuliert, in dem Meinungen zu einem kontrovers diskutierten Thema jeweils zur Hälfte positiv und zur Hälfte negativ waren. Theoretischer Hintergrund der Untersuchung war eine aus den 1970er-Jahren stammende und auf Elisabeth Noelle-Neumann zurückgehende These, die besagt, dass Menschen ihre Meinung in Abhängigkeit vom wahrgenommenen Meinungsklima äußern. Glaubt man mit seiner Meinung in der Minderheit zu sein, hält man sich mit der Äußerung dieser Meinung eher zurück, glaubt man, dass man eine Mehrheitsmeinung vertritt, so ist man weniger zögerlich mit eigenen Beiträgen. Noelle-Neumann war in diesem Zusammenhang davon überzeugt, dass die Massenmedien – in den 1970er-Jahren vor allem das Fernsehen – erheblichen Einfluss auf seine Zuschauer und Zuschauerinnen und damit auf die Bildung der öffentlichen Meinung ausübte.
“Persönliche Meinung” hat danach immer auch einen sozialen Aspekt, in dem sich das tatsächliche oder empfundene Meinungsklima spiegelt.
Folgt man den Wissenschaftlern der Universität Duisburg-Essen, so setzt die meinungsbildende Funktion der Social Bots genau hier an. Es geht den Damen und Herren, die diese Programme einsetzen, also weniger um die direkte Beeinflussung Einzelner als um die Beeinflussung des Meinungsklimas, das wiederum Auswirkungen auf die in dem Netzwerk geäußerten (Einzel-)Meinungen hat oder haben soll. Das von Björn Boss geleitete Team hat nun drei Faktoren ausmachen können, die diese Dynamiken beeinflussen:
a.) die Anzahl der Verbindungen, die zwischen den Nutzern eines Netzwerkes bestehen (“gegenseitige Kommentare”);
b.) der “Ort”, an dem die Bots platziert werden (“je höher die Anzahl von Likes und Followern, um so zentraler deren Ort”) und
c.) die Qualität der Programmierung der Bots, (“wie schwer ist es diese von normalen Nutzern zu unterscheiden?”)
Der wichtigste Kritikpunkt an der dargestellten Untersuchung und der Folgerung, dass es nur relativ weniger Bots bedarf, um meinungsbildend zu wirken, ist wohl der Umstand, dass das von den Forschern und Forscherinnen eingesetzte Netzwerk nur eine Simulation war und weniger menschliches Verhalten als statistische Veränderungen darstellen konnte.
Auch scheint, dass das (meinende) Individuum in Relation zu dem von Noelle-Neumann angeführten Meinungsklima zu passiv behandelt worden sein könnte. Ist es denn nicht auch so, dass Personen sich entsprechende Bezugssysteme aktiv suchen und diesen nicht bloß passiv ausgeliefert sind? Der Begriff der Filterblase deutet ein Phönomen an, bei dem Personen sich ihr eigenes Meinungsklima maßgerecht und um bestimmte Ansichten herum konstruieren.
Darüber hinaus findet die Frage wenig Berücksichtigung, in welcher Beziehung das jeweilige Individuum die “reale” und die virtuelle Welt miteinander kombiniert. Wie bestimmend kann eine virtuelle Information sein, die reale Erfahrungen unberücksichtigt läßt.
Anders ausgedrückt, was muss geschehen (sein), damit das Überblendungspotenzial “realer” Erfahrungen gegenüber Erfahrungen/Informationen virtueller Natur annulliert wird. Oder, wie degradiert/entfremdet müssen die Erfahrungen der realen Welt sein, um ihr gegenüber Schlüsse vorzuziehen, die man aus der virtuellen Welt ableitet?
Burkhard Heinz
mediatpress®