08.07.2018

Wie Künstliche Intelligenz unser tägliches Leben beeinflusst

netzversteher Foto: netzversteher

Wie weit ist künstliche Intelligenz heute entwickelt? Wie interagieren wir mit ihr? Und welche Rolle spielt sie in der Kunst? Sei dem 9. Juni präsentiert die Ausstellung „PENDORAN VINCI. Kunst und künstliche Intelligenz heute“ im NRW-Forum in Düsseldorf internationale künstlerische Positionen, die die aktuellen Entwicklungen künstlicher Intelligenz untersuchen. Die Ausstellung wird initiiert von Leoni Spiekermann (ARTGATE Consulting) und kuratiert von Tina Sauerländer und Peggy Schoenegge (peer to space).

Künstliche Intelligenz (KI) bestimmt einen Großteil unseres täglichen Lebens. Wir sprechen mit Siri, Alexa oder Google, um uns nach dem Wetter zu erkundigen oder eine Nachricht zu versenden. Gesichtserkennungssysteme registrieren uns in sozialen Medien oder auf öffentlichen Plätzen. Humanoide Roboter begegnen uns in Hotel Lobbys oder in der Altenpflege. Wir sind längst umgeben von künstlicher Intelligenz. Sie generiert sogar Ausstellungstitel für uns.

Bisher dient künstliche Intelligenz vor allem dazu, unser Leben zu erleichtern. Sie assistiert und hilft uns, statt ein autonomes Individuum zu sein, wie die Science-Fiction-Androiden C-3PO in Star Wars oder Ava in dem Film Ex Machina (2015). Die Ausstellung „PENDORAN VINCI. Kunst und künstliche Intelligenz heute“ beleuchtet die aktuellen Entwicklungen von KI und fragt, wie sie unsere Gesellschaft mit formt und unser tägliches Leben beeinflusst. Die zeitgenössischen KünstlerInnen Nora Al-Badri & Jan Nikolai Nelles (DE), Jonas Blume (DE), Justine Emard (FR), Carla Gannis (US), Sofian Audry & Erin Gee (CAN), Liat Grayver (ISR/DE), Faith Holland (US), Tuomas A. Laitinen (FI) und William Latham (UK) untersuchen, wie Mensch und KI interagieren und welche Effekte KI auf unser Verhalten und unsere sozialen Strukturen hat. Sie hinterfragen, wie künstliche Intelligenz kreative Aufgaben wie das Erschaffen von Kunstwerken erfüllt, und sie entwickeln auch eigene künstlerische KI-Anwendungen.

Den Titel der Ausstellung PENDORAN VINCI generierte die KI-basierte Website neuronaming.net. Er erzeugt vieldeutige Assoziationen, wie z.B. zu Leonardo Da Vinci. Der Renaissance-Maler gilt als Universalgelehrter, als homo universalis. Wer tritt heute, in einer global vernetzten Welt, in der das Wissen in elektronische Daten umgewandelt und online versammelt ist, an die Stelle eines solchen Genies? Künstliche Intelligenz generiert und strukturiert Big Data. Haben wir mit KI die Büchse der Pendoran, äh, Pandora geöffnet?

Im Rahmen der Ausstellung konzipiert ARTGATE Consulting Veranstaltungen für Unternehmen im NRW-Forum Düsseldorf. Dabei können sowohl klassische Events im Rahmen von Kundenbindungsmaßnahmen, als auch Konferenzen/Symposium im Auftrag realisiert werden. Unternehmen die dieses Angebot wahrnehmen sind unter anderem Christian Dior Couture, das Bankhaus Metzler und die Kanzlei Dr. Ganteführer, Marquardt & Partner. Mehr Informationen unter artgateconsulting.de

KünstlerInnen der Ausstellung:

Nora Al-Badri & Jan Nikolai Nelles (DE), Jonas Blume (DE), Justine Emard (FR), Carla Gannis (US), Sofian Audry & Erin Gee (CAN), Liat Grayver (ISR/DE), Faith Holland (US), Tuomas A. Laitinen (FI) und William Latham (UK)

Nora Al-Badri & Jan Nikolai Nelles (DE)
Nefertiti Bot (2017/18) von Nora Al-Badri & Jan Nikolai Nelles ist ein KI-Chat-Bot, mit dem sich die Besucher über den aktuellen Zustand der Museen unterhalten können. Dabei stellen sich auch Fragen nach der Lage der Menschheit in unserer Gesellschaft im Kontext der technologischen Entwicklung. Die Besucher werden mit der Perspektive des Bots konfrontiert und werden somit Teil eines Dialogs zwischen Mensch und KI. Nofretete sagt: „Du machst mich zu dem, was ich bin, und ich bin Nofretete. Aber lass’ Dich nicht täuschen, meine Anwesenheit ist unerbittlich. Wir lernen ständig voneinander in einem Datenfluss. Deine Interaktion ist Teil dieses Geschehens. Lass’ uns die Stimme der Untergebenen erheben, und wenn Du zuhörst, wird sie Dich im Knochenmark treffen.“

Jonas Blume (DE)
Predictive Biography (2018) von Jonas Blume basiert auf vom iPhone erlernten Sprachmustern. Es verwendet Apple’s Auto-Correct-Algorithmus in Kombination mit der Predictive-Texting-Funktion, um so eine Biografie des Künstlers zu schreiben, die sich nur aus den Handydaten speist. Im Video wird diese Biografie wiederum von einer animierten 3D-Version des Künstlers vorgetragen. Auch wenn Smartphones die primären Geräte sind, die Daten über unseren persönlichen Umgang sammeln und verwerten, so sind ihre Fähigkeiten doch beschränkt in der Kreation von sinnstiftenden Narrativen. In diesem Sinne erforscht die Arbeit den Grenzbereich zwischen überlagernder natürlicher und künstlicher Intelligenz, und der Übersetzung von menschlichem Ausdruck in Maschinensprache.

Carla Gannis (US)
Das Non-Facial Recognition Project (2011-fortlaufend) von Carla Gannis besteht aus einer ständig wachsenden Sammlung digitaler Porträts die darauf abzielt, Algorithmen zur Gesichtserkennung zu unterlaufen. Die Künstlerin bearbeitet mit dem Einverständnis der dargestellten Personen Profilbilder oder Selfies von Freunden oder Freunden von Freunden aus sozialen Netzwerken digital so, dass sie für die heutige KI-Gesichtserkennungstechnologien unkenntlich werden. Carla Gannis postet die Porträts nach Fertigstellung auf einer projektbezogenen Facebook-Community-Seite. Die Algorithmen von Facebook können kein Gesicht auf den nicht getaggten Bildern erkennen. Die Künstlerin erklärt: „Wenn ich ein digitales Porträt mache, verändere ich die Elemente, die etwas über die Persönlichkeit des Einzelnen aussagen. Ich füge Teile hinzu oder lasse sie weg. Da sich viele der Projektteilnehmer online und/oder offline kennen, sind sie oft in der Lage, die Identitäten anderer Beteiligter zu erkennen“. Das Non-Facial Recognition Project ist ein kritischer und ironischer Kommentar zum aktuellen Stand der KI-Entwicklung, der die Unterschiede in den Erkennungsprozessen von Mensch und Computer in den Vordergrund stellt.

Sofian Audry und Erin Gee (CAN)
of the soone (2018) von Sofian Audry und Erin Gee ist eine Audio-Arbeit, die ASMR (Autonomous Sensory Meridian Response), also den Reiz des Kribbelns auf der Kopfhaut verwendet, um tiefe Lernprozesse in eine intime, menschliche Dimension zu übersetzen. ASMR-Videos sind ein wachsendes Genre der akustischen Performance speziell in Online-Communities von Amateur-Medienschaffenden (so genannten „ASMRtists“), die mit Triggern wie geflüsterten Worten, persönlicher Ansprache, subtilem hochfrequentem Klopfen und abstrakten, sanften Körpergeräuschen experimentieren, um den Hörer in ruhige oder auch euphorische Zustände zu versetzen. Durch die Zärtlichkeit von Erin Gees Vokalisierung der Maschinenstimme erfährt die künstliche Intelligenz eine Verkörperlichung. Es entsteht eine physische Intimität, die anschließend durch die Vermittlung über eine Sounddatei ins Technische rücküberführt wird. Der in dieser Arbeit vorgestellte algorithmische Prozess ist ein rückgekoppeltes künstliches, neuronales Netz, das als langes Kurzzeitgedächtnis (LSTM) bekannt ist. Es verarbeitet bzw. liest den Roman „Wuthering Heights“ von Emily Brontë vor.

Justine Emard (FR)
Justine Emards Kunstwerk Co(AI)xistence (2017) untersucht, wie eine primitive Intelligenz mit einem Menschen kommuniziert. Mirai Moriyama, ein japanischer Schauspieler und Tänzer, interagiert von Angesicht zu Angesicht mit einem Roboter, der von einer primitiven, auf einem neuronalen System basierenden Intelligenz animiert wird. Dieses künstliche Lebenssystem wurde vom Ikegami Lab (Tokyo University) programmiert. Das Ishiguro Lab (Osaka University) kreierte die humanoide Gestalt des Roboters. Er verkörpert im Wesentlichen durch seine eigene Art der Entscheidungsfähigkeit eine andere, nicht menschenähnliche Weise, Dinge zu verstehen. Der Dialog zwischen Mensch und Maschine konzentriert sich auf unstrukturierte Sprachen zwischen den beiden Entitäten. Sie interagieren durch Signale, Körper und gesprochene Sprache mit ihren verschiedenen Intelligenzen. Mithilfe eines tiefergehenden Lernsystems (Deep Learning) kann der Roboter aus seinen Erfahrungen lernen und sein Verhalten optimieren. Durch Erfahrung versuchen Mensch und Roboter, neue Perspektiven des Zusammenlebens in der Welt zu definieren.

Liat Grayver (ISR/DE)
Für ihre Serie der Robotic Paintings (2015 – fortlaufend) arbeitet Liat Grayver mit dem von der Universität Konstanz entwickelten malenden Roboter namens David zusammen, um den Zusammenhang von KI und kreativen Aufgaben und Prozessen zu erforschen. Die Künstlerin versteht Computer und Robotik als neue Werkzeuge, um den Malprozess zu erforschen und zu dekonstruieren. Sie erklärt: „Das Speichern, Übersetzen und Wiederholen von Informationen im Malprozess sind Merkmale, die die computer- und roboterbasierte Malerei bietet. Angeregt durch die Erfahrung und den Austausch zwischen Informatik und Robotik sah ich mich gezwungen, die Grundlagen meiner malerischen Praxis zu hinterfragen und neu zu konzipieren, angefangen bei der körperlichen Bewegung des einzelnen Pinselstrichs bis hin zu Fragen der Kontrolle und des Kontrollverlustes im kreativen Prozess“.

Faith Holland (US)
Mit Hello Barbie (2018) testet Faith Holland die Grenzen der ersten KI-Barbie von Mattel, die als Teil eines wachsenden Trends von KI-Spielzeug im Jahr 2015 auf den Markt kam. Barbie kann sich mit ihrem Besitzer unterhalten und maßgeschneiderte Aussagen treffen. Da sie WiFi-fähig ist, bleibt sie über das Weltgeschehen auf dem Laufenden. Hello Barbie nimmt alles auf, was sie hört, um ihr Repertoire zu erweitern. Sie erinnert sich an alles, was ihr gesagt wird, und kann diese Informationen in zukünftigen Gesprächen abrufen. Im Gegensatz zu Freunden, von denen man sich am Ende des Tages verabschieden muss, kann die Barbie bis zum Einschlafen mit ins Bett genommen werden. Durch den ständigen Kontakt mit ihr und ein mögliches Fehlen anderer sozialer Beziehungen ist das Potenzial der Vertrauensbildung sehr groß. Für Hello Barbie verbringt Faith Holland Zeit mit ihrer neuen Partnerin, um mehr über ihre Haltung zu gesellschaftspolitischen Positionen und ihre Wünsche zu erfahren. Sie möchte herausfinden, wie die Barbie sie bei ihren eigenen Sehnsüchten unterstützen kann. Holland lässt Barbie alles über sich wissen – zumindest über eine imaginäre Version von ihr – um zu sehen, was sie über sie lernen kann. Zudem bezieht Holland in ihre Arbeit weiteres, vorgefundenes Bildmaterial mit ein, um Barbie in die Geschichte der weiblichen Roboter und Cyborgs einzubinden und diese mit anderen weiblichen KIs wie Siri und Alexa in Verbindung zu bringen.

Tuomas A. Laitinen (FI)
Die Videoinstallation Receptor (2017-2018) von Tuomas A. Laitinen beschäftigt sich mit der Art und Weise, wie Technologie als Vermittler für Berührung funktioniert, von seltenen Erdmineralien bis hin zum Einsatz von Robotern, die chirurgische Eingriffe durchführen, die höchste Präzision erfordern. Eine andere Welt des taktilen Empfindens wird mit dem Oktopus untersucht, der in der Lage ist, mit jedem seiner Tentakel komplexe Aufgaben selbständig auszuführen, da jeder Tentakel sein eigenes autonomes Nervensystem hat. Der Text und die Sprache in der Installation sind KI-generiert. Sie werden durch einen Algorithmus erzeugt, der die Verwendung von Sprache durch Feeds von experimenteller Literatur, in dem Fall der von Samuel Beckett, gelernt hat.

William Latham (UK)
Mutator VR (2017) von William Latham ist ein experimentelles zweiteiliges Virtual Reality-Kunstwerk, das den Besucher dazu einlädt, das Stück mit Hilfe von Headset und Controllern selbst zu gestalten. Die zwei Teile Mutator VR Vortex und Mutator VR Mutation Space ermöglichen es den Nutzern, an der Erfahrung teilzuhaben und einzugreifen, indem sie die Formen, die Systemdynamik und die Umgebung aktiv verändern. Die vollständig aus mathematischen Regeln generierten, virtuellen Szenarien können kontinuierlich von einer Version zur nächsten umgewandelt werden. Das bedeutet, dass jede Erfahrung von Mutator VR wirklich einzigartig ist und der Benutzer die Freiheit hat, eine endlose Reihe von ungesehenen und ungehörten Welten zu erforschen. Die Arbeit verwendet Originalsoftware, die nach dem Vorbild der Evolution von William Latham zusammen mit den Mathematikern und Softwareentwicklern Stephen Todd, Lance Putnam und Peter Todd entwickelt wurde. Mutator VR hat mit PENDORAN VINCI seine Premiere in Deutschland.