ATTENTION PROPAGANDA – INFORMATION WAR
Benita Martis
The Telegram bot @propBot is active in the “ACHTUNG PROPAGANDA” group. Playing through misinformation and exaggeration, he appeals to our self-reflection to enable a critical look at our interaction with social networks. The AI answers questions about the Corona vaccination and current war events with absurd narratives, based on conspiracy ideologies and propagandistic language.
This behavior is based on the data the AI has learned with!
_ RT-deutsch {ca. 300 articles, status: 16.12.2022}
_ Telegram Channel Attila Hildmann {status: 24.11.21}
_ Telegram Channel Xavier Naidoo {status: 24.11.21}
_ Telegram Channel Michael Wendler {status: 24.11.21}
> Trained with GPT-3 Curie from OpenAI
AI AS A POLITICAL INSTRUMENT
The media production of war images can help shape individual attitudes and behavior toward war. During the Corona pandemic, the Russian state-funded broadcaster RT (Russia Today) also gained a lot of attention in Germany (RT-deutsch). While it did not deny the existence of the virus, it did spread disinformation about the current situation and Western vaccinations. With the outbreak of the Ukraine war, right-wing conspiracy myths are also intensifying in Germany under wide coverage. Putin is portrayed as a hero and narratives such as denazification in Ukraine a means to weaken Western democracies. RT’s websites, Instagram, TikTok, Twitter, and Telegram are a strategic means of spreading propaganda from autocratic regimes like Russia.
Social and behavioral research shows that humans tend to seek confirmatory information. Social media reinforces this mechanism by having algorithms suggest matching posts. Similarly, Telegram groups share links to other chats or external websites that share a similar opinion. Manipulation of the training data was not even necessary to generate a cynical absurdity of propaganda bot responses.
Trigger warning: hate, violence, antisemitism
AI AS CAPITAL
The goal of OpenAI is to make the API safely and responsibly accessible to everyone. Users are encouraged to adhere to the guidelines so that the technology serves a good purpose. Prohibited uses include: illegal or harmful industries, misuse of personal data, promotion of dishonesty, deception or manipulation of users, and attempts to influence policy. The applications developed should not include content such as hate, harassment, violence, self-harm, sexual, political, spam, deception, and malware.
Now it wasn’t exactly hard with my sufficient programming skills to create a stable working propaganda bot within a few days. With a total of about 28€ to feed the GPT-3 model “Curie” with the propagandistic articles of RT-deutsch as well as conspiracy ideological chats and a free Telegram API, without any consequences or restrictions so far due to the “usage policies” described above.
With chat GPT, AI is now reaching the mainstream, through advertising and simple application tools it is more and more found on the internet. OpenAI is becoming a fascination of the public. Addressing the issue of artificial intelligence is also important in the mainstream and should be reflected. Perhaps in this way, overly dystopian ideas of an omnipotent AI that will take over world domination will disappear. But can the necessary critical and moral attitude of the users be taken with such a simple “usage policy” and without further prior knowledge? These technologies are already being used by groups, parties and organizations to spread disinformation (deepfakes, AFD bot, etc).
So, can a moral approach to AI be ensured when the commercialization of it puts profit first in our capitalist system? And how are individuals supposed to make ethically correct decisions if they cannot be aware of the negative implications?
Join the Group: t.me/achtungpropaganda
Watch the Group: telewebgram.com/achtungpropaganda
Der Telegram-Bot @propBot ist in der Gruppe „ACHTUNG PROPAGANDA“ aktiv. Mit dem Spiel durch Falschinformation und Übertreibung appelliert er an unsere Selbstreflexion, um eine kritische Betrachtung unseres Umgangs mit sozialen Netzwerken zu ermöglichen. Fragen zur Corona-Impfung und zum aktuellen Kriegsgeschehen beantwortet die KI mit absurden Narrativen, auf der Basis von Verschwörungsideologien und propagandistischer Sprache.
Dieses Verhalten basiert auf den Daten, mit denen die KI gelernt hat!
_ RT-deutsch {ca. 300 Artikel, Stand: 16.12.2022}
_ Telegram Channel Attila Hildmann {Stand: 24.11.21}
_ Telegram Channel Xavier Naidoo {Stand: 24.11.21}
_ Telegram Channel Michael Wendler {Stand: 24.11.21}
> Trainiert mit GPT-3 Curie von OpenAI
KI ALS POLITISCHE INSTRUMENT
Die mediale Produktion von Kriegsbildern kann die individuelle Einstellung und das Verhalten gegenüber dem Krieg mitbestimmen. Während der Corona-Pandemie erlangte der vom russischen Staat finanzierte Sender RT (Russia Today) auch in Deutschland (RT-deutsch) große Aufmerksamkeit. Zwar wurde nicht die Existenz des Virus geleugnet, aber Desinformationen zur aktuellen Lage und den westlichen Impfungen verbreitet. Mit dem Ausbruch des Ukraine-Kriegs verschärfen sich auch in Deutschland die rechten Verschwörungsmythen unter großer Reichweite. Putin wird als ein Held dargestellt und Narrative wie die Entnazifizierung in der Ukraine ein Mittel, die westlichen Demokratien schwächen zu wollen. Websites, Instagram, TikTok, Twitter und Telegram von RT sind ein strategisches Mittel zur Verbreitung von Propaganda autokratischer Regime wie Russland.
Sozial- und Verhaltensforschungen zeigen, dass der Mensch dazu neigt, sich eher bestätigend informieren zu lassen. Soziale Medien verstärken diesen Mechanismus, indem Algorithmen übereinstimmende Beiträge vorschlagen. Ähnlich ist es in den Telegram-Gruppen, in denen Links zu weiteren Chats oder externen Websites geteilt werden, die eine ähnliche Meinung vertreten. Eine Manipulation der Traingsdaten war gar nicht nötig, um eine zynische Absurdität der Propaganda-Bot-Antworten zu generieren.
Triggerwarnung: Hass, Gewalt, Antisemitismus
KI ALS KAPITAL
Ziel von OpenAI ist es die API sicher und verantwortungsvoll für jede*n zugänglich zu machen. Nutzende werden aufgefordert sich an die Richtlinien zu halten, damit die Technologie einen guten Zweck erfüllt. Verboten sind folgende Anwendungszwecke: Illegale oder schädliche Branchen, Missbrauch von persönlichen Daten, Förderung von Unehrlichkeit, Täuschung oder Manipulation von Nutzern und Versuche, die Politik zu beeinflussen. Die entwickelten Anwendungen sollen Inhalte wie Hass, Belästigung, Gewalt, Selbstbeschädigung, sexuelles, politisches, Spam, Täuschung und Schadsoftware nicht beinhalten.
Nun war es nicht gerade schwer mit meinen ausreichenden Programmier-Fähigkeiten innerhalb weniger Tage einen stabil funktionierenden Propaganda-Bot zu erstellen. Mit insgesamt ca. 28€, um das GPT-3-Modell „Curie“ mit den propagandistischen Artikel von RT-deutsch sowie verschwörungsideologischen Chats zu füttern und einer kostenlosen Telegram API, ohne bisherige Konsequenzen oder Einschränkungen durch die oben beschriebenen „usage policies“.
Mit Chat-GPT erreicht KI nun auch den Mainstream, durch Werbung und einfache Anwendungs-Tools ist es immer mehr im Internet zu finden. OpenAI wird zu einer Faszination der Öffentlichkeit. Die Auseinandersetzung mit dem Thema künstlicher Intelligenz ist auch in der breiten Masse wichtig und sollte reflektiert werden. Vielleicht verschwinden so überaus dystopische Vorstellungen von einer allmächtigen KI, welche die Weltherrschaft übernehmen wird. Kann aber mit einer so einfachen „usage policy“ und ohne weiteres Vorwissen die nötige kritische und moralische Haltung der Nutzenden eingenommen werden? Schon jetzt werden genau diese Technologien von Gruppen, Parteien und Organisationen verwendet um beispielsweise Desinformationen zu verbreiten (Deepfakes, AFD-Bot, etc).
Kann also ein moralischer Umgang mit KI gewährleistet werden, wenn durch die Kommerzialisierung hiervon der Profit in unserem kapitalistischen System an erster Stelle steht? Und wie sollen Individuen ethisch korrekte Entscheidungen treffen, wenn sie sich der negativen Ausmaße nicht bewusst sein können?