AI Hacking
Specialist seminar
23.01. – 27.01.2023
Filzengraben 8 – 10, 0.2 [ ] ground zero, Academy of Media Arts Cologne
Using artistic-experimental codes specifically for one’s own strategy and against the functioning of state-of-the-art AI models is called an Adversarial Attack. In Adversarial Attacks, one hacks artificial neural networks in order to reveal their modes of operation and to generate new aesthetic experiences. The goal is to discuss the cultural consequences of these technologies and to test new approaches for a changed consciousness in dealing with technology.
The first research paper on adversarial attacks was about targeted perturbations of neural computer vision systems. In 2014, Szegedy et al. introduced what they called an “intriguing property of neural networks.” Adding a noise layer to images could trick neural image classification systems into misclassification, while the image perturbation was imperceptible to humans.
The seminar is open to anyone who already has programming experience (in any language). We will work exclusively with the Python programming language in the seminar. Programming in Python can be acquired in the basic seminar “Plunging into Code”, which takes place weekly in the WS.
The goal of the seminar is to learn how to navigate through the technical frameworks in a practical way, so that in the end each student not only knows the tools and methods of Adversarial Hacking, but is also able to develop projects independently.
We ask for registration at ground-zero@khm.de
Künstlerisch-experimentelle Codes gezielt für die eigene Strategie und gegen das Funktionieren von state-of-the-art KI-Modellen einzusetzen, nennt man eine Adversarial Attack. Man hackt hierbei Künstliche Neuronale Netze, um ihre Funktionsweisen offenzulegen und neue ästhetische Erfahrungen zu generieren. Ziel ist es, die kulturellen Konsequenzen dieser Technologien zu diskutieren und neue Ansätze für ein verändertes Bewusstsein im Umgang mit Technik zu erproben.
Populär wurde die Forschung an Adversarial Attacks durch gezielte Störungen von Neuronalen Computer Vision Systeme. Szegedy et al. führten im Jahr 2014 eine so genannte “intriguing property of neural networks” ein: Das Hinzufügen eines Noise-Layers in Bildern konnte neuronale Bildklassifizierungssysteme zu einer Fehlklassifizierung verleiten, während die Bildstörung für den Menschen nicht wahrnehmbar war.
Das Seminar ist offen für alle, die schon Programmiererfahrung (egal in welcher Sprache) mitbringen. Wir arbeiten im Seminar ausschließlich mit der Programmiersprache Python.
In Python zu programmieren, kann sich in dem im WS wöchentlich stattfindenden Grundlagenseminar „Plunging into Code“ angeeignet werden.
Ziel des Seminars ist es, zu lernen, sich praktisch durch die technischen Frameworks zu navigieren, so dass am Ende jede*r Studierende nicht nur die Tools und Methoden des Adversarial Hacking kennt, sondern auch dazu in der Lage ist, damit eigenständig Projekte zu entwickeln.
Anmeldung unter: ground-zero@khm.de