AR-Projekte 2018-2022

Visual Portfolio, Posts & Image Gallery for WordPress

A. RHEINLÄNDER

 

Cherry Blossoms

2022, interaktive Begegnung mit pflanzlich-digitaler Lebensform in AR
Unterstützende Entwickler:innen: Selina Wernike & André Selmanagić

Pflanzen verfügen über diverse Sinne, die sie zielstrebig nutzen, um ihre Umwelt zu analysieren, mit ihr zu kommunizieren und sie zu ihrem Vorteil zu beeinflussen. Sie verfügen daher auch über das, was unter Intelligenz verstanden werden kann. Ihre Überlebensstrategien sind oft so raffiniert, dass sie seit geraumer Zeit auch Gegenstand wissenschaftlicher Forschung sind. Allerdings scheint es so, als sei das Wissen um ihre überaus bemerkenswerten Fähigkeiten vielen Menschen unbekannt.

Cherry Blossom setzt hier an, indem die App eine Begegnung mit einer digitalen Pflanze ermöglicht, welche die Sensorik ihres kohlenstoffbasierten Vorbilds teilweise simuliert. Durch Interaktion und Konversation lassen sich dem digitalen Modell Geheimnisse über die Funktionsweise pflanzlichen Lebens und die erstaunlichen Fähigkeiten der Flora entlocken; Attribute, die dem Menschen in der physischen Welt allzu oft verborgen bleiben.

Sowohl in dieser Intention als auch in ihrer sachlich-poetischen Ästhetik kann die Arbeit des Fotografen Rheinländer als zeitgenössische Weiterentwicklung Blossfeldt’scher Pflanzenstudien des frühen 20. Jahrhunderts verstanden werden. „Meine Pflanzenurkunden sollen dazu beitragen, die Verbindung mit der Natur wieder herzustellen“, so Blossfeldt in seinem Bildband Wundergarten der Natur von 1932. Während er dieses Ziel mit Blick auf den Pflanzenaufbau im Medium der Fotografie verfolgte, nutzt Rheinländer ein Jahrhundert später Augmented Reality zur Vermittlung interner Prozesse.

Entstanden ist eine markerlose Anwendung, deren Entwicklung von vielen Experimenten begleitet war, um die vielfältige Sensorik des Devices zu nutzen: Die Kommunikation mit dem Kirschbaum läuft nicht nur über Touch, sondern auch über Bewegung und ein Chat-Fenster mit Speech-to-Text-Funktion. Die Pflanze reagiert dabei rein textuell.

So erzeugt das Schütteln des Smartphones einen Impuls, der entsprechend der Verbreitung von Schallwellen im Boden von der Pflanze über ihr Wurzelwerk wahrgenommen wird. Der Phototropismus, also die Fähigkeit Sonnenlicht wahrzunehmen und sich selbst anhand des Lichts auszurichten, wird durch die zirkulierende Sonne und die sich mit ihr im Einklang bewegenden Äste simuliert. Darüber hinaus schüttet der Baum – sofern hierzu animiert – Duftmolekülen entsprechende Partikel aus, die Pflanzen zur Kommunikation mit Artgenossen und anderen Lebewesen dienen. Durch Berühren der die Pflanze umgebenen “Bubbles“ können zusätzlich Info-Texte angezeigt werden. Die Begegnung endet mit einem stillen Auflösen der Pflanze.

Text: Adrian Rheinländer und Maja Stark

adrianrheinlaender.com

ANKE ECKARDT

previous arrow
next arrow
 

Mirror Neurons

2022, interaktive Augmented-Reality-Installation
Unterstützende Entwicklerinnen: Selina Wernike und Dagmar Schürrer

Die Installation baut auf einer gedachten Nord-Süd-Achse auf. Quer durch Europa gezogen, setzte an ihren Enden 2022 ein politisch weitreichender Rechtsruck ein; in Schweden mit der Abdankung Magdalena Anderssons, in Italien mit der Wahl Giorgia Melonis.

Die virtuelle Arbeit verarbeitet diese Entwicklungen in einer Struktur, die Ähnlichkeiten mit einem neuronalen Netz aufweist. Bei Annäherung an die mit stachelig versiegelter, kaktursartiger Oberfläche überzogenen Neuronenknoten fangen diese jeweils an zu erklingen.

Zugrunde liegt der Spatial Audio-Anwendung eine Bibliothek mit von der Künstlerin produzierten und editierten Klängen. Dabei kommt „Volumetric Audio“ zum Einsatz, ein Plug-In, das die Standard-Audiofunktionen von Unity erweitert. Es nutzt Collider eines Game Objects für die Berechnung der klanglichen Spatialisierung; in diesem Falle in Form von an die jeweiligen Neuronenknoten angepassten, dreidimensionalen Kapseln. Gekoppelt an die eigene, sich verändernde Position im Raum, stellen die Besucher*innen klangliche Beziehungen her.

Text: Anke Eckardt

ankeeckardt.com

ANKE SCHIEMANN

previous arrow
next arrow
 

O.B.E. Ego Passages

2020
AR-Tanzperformance
Unterstützender Entwickler: Leonid Barsh

Künstliche Intelligenz ist das neue und alte Schlagwort. Der Futurist Ray Kurzweil sagt voraus, dass die künstliche Intelligenz einen Turing-Test bestehen und damit bis zum Jahr 2029 das Niveau der menschlichen Intelligenz erreichen wird.[1] Aber was ist mit dem Bewusstsein? Ist Bewusstsein in der künstlichen Intelligenz überhaupt möglich? Was bedeutet eigentlich Bewusstsein?

Das Bewusstsein ist die Erscheinung der Welt: die Fähigkeit, die Ich-Perspektive aktiv nach innen zu verschieben, unseren emotionalen Zustand zu erforschen und unsere Aufmerksamkeit auf Denkprozesse zu lenken. Das menschliche Bewusstsein unterscheidet sich von anderen biologisch entwickelten Phänomenen grundlegend dadurch, dass es eine Realität in sich selbst erscheinen lässt. „Das bewusste Gehirn ist eine biologische Maschine – ein Wirklichkeitsgenerator, der vorgibt, uns zu sagen, was existiert und was nicht existiert.“ (Metzinger, Der Ego-Tunnel, S. 55)

Die Grundidee der modernen Bewusstseinsforschung besagt, dass die Inhalte unseres Bewusstseins die Inhalte einer simulierten Realität in unserem Gehirn sind und dass sogar das Gefühl unserer Existenz Teil dieser Simulation ist.

„Das zarte aprikosenfarbene Rosa der untergehenden Sonne ist keine Eigenschaft des Abendhimmels; es ist eine Eigenschaft des inneren Modells des Abendhimmels (…), das durch unser Gehirn erzeugt wird (…). Es ist alles genau so, wie es uns schon der Physiklehrer in der Schule gesagt hat: Da draußen, vor Ihren Augen, gibt es nur einen Ozean aus elektromagnetischer Strahlung. … Die meisten von ihnen sind für Sie unsichtbar. Und können niemals Teil Ihres bewussten Realitätsmodells werden.“ (ebd.)

Ist also die Realität, wie wir sie täglich erleben, nur ein mentales Bühnenbild, eine Darstellung der Welt selbst? Leben wir bereits in einer virtuellen Realität?

O.B.E. Ego Passages ist eine Installation mit Augmented Reality, die aus sechs Szenen über die Natur des Bewusstseins besteht. Die Augmentierung hierfür platzierter Poster fand im September 2020 per Smartphone und Tablet an sechs verschiedenen Orten auf dem Gelände des Holzmarktes 25 statt.

O.B.E. basiert auf einigen Ideen des zeitgenössischen Philosophen Thomas Metzinger. Das Bewusstsein als Realitätsgenerator ist das zentrale Thema der Arbeit. Die Tänzerin in der Installation (die Ego-Maschine-Agentin, kurz EMA) bewegt sich fließend zwischen den Realitäten, um aufzuzeigen, wie zerbrechlich unser Realitätsmodell tatsächlich ist. Was bedeutet real, was ist simuliert und durch welche Maschinen? Die EMA zeigt Risse, stört die Wahrnehmung und erzeugt verstörende Momente, die unser bewusstes Realitätsmodell ins Wanken bringen.

[1] https://www.kurzweilai.net/a-wager-on-the-turing-test-why-i-think-i-will-win (24.11.2020).

Zitierte Literatur:
Thomas Metzinger (2009): Der Ego-Tunnel. Eine neue Philosophie des Selbst: Von der Hirnforschung zur Bewusstseinsethik. Aus dem Englischen von Thomas Metzinger und Thorsten Schmidt. Berlin Verlag.

ankeschiemann.de

ANKE VON DER HEIDE

 

Screenshot "MIRAR – MediaArchitecture-AR"
Screenshot "MIRAR – MediaArchitecture-AR"
previous arrow
next arrow
 

MIRAR – MediaArchitecture-AR

2019/20
Augmentierte mediale und narrative Interventionen für den öffentlichen Raum

Betreuender Entwickler: André Selmanagić

Ob Medienkunst, Medienarchitektur oder entsprechende kuratorische Tätigkeiten: Für die Vorbereitung großflächiger Fassadenprojektionen sind meistens aufwendige Testbauten mit teurer Produktionstechnik notwendig. Doch diese ungeliebten Ressourcenfresser könnten dank einer Idee der Kuratorin und Medienkünstlerin Anke von der Heide bald der Vergangenheit angehören: Ihre Augmented-Reality-Applikation MediaArchitecture-AR (kurz MIRAR) ermöglicht das Testen bewegtbildbasierter Inhalte wie Videokunst vor Ort, indem sie die gewünschte Medienfassade mit dem entsprechenden Content augmentiert.

Diese Verbindung von realer und virtueller Welt erlaubt es, Medieninhalte in den aktuellen Lichtverhältnissen zu beurteilen. Die räumliche und soziale Nutzung des urbanen Raumes und daraus resultierende Sichtachsen – etwa in Hinblick auf schmale Wege, befahrene Straßen und die sich täglich ändernde Nutzung von Plätzen – können ebenfalls berücksichtigt werden. Farben, Geschwindigkeit und Helligkeit des Videobildes lassen sich an die realen Gegebenheiten der bespielten Oberfläche und die Sichtachse des Betrachters anpassen, um eine realistische Vorschau zu ermöglichen.

An jedem beliebigen Ort vor der Fassade können zudem Notizen erstellt sowie Screenshots und Videoaufnahmen gespeichert und mit Timestamps und GPS-Koordinaten versehen werden. Mithilfe dieser Informationen kann der Test später im Team besprochen werden, die Erkenntnisse können schließlich in die weitere Planung einfließen.

In der App können eigene Projekte angelegt werden, innerhalb derer ein existentes Gebäude mit digitalen Inhalten (bspw. einem Video) verknüpft wird.

Für die Augmentierung wird das reale Gebäude mit einer virtuellen Repräsentanz (einem 3D-Modell des Gebäudes) überlagert. Die medialen Inhalte werden mittels virtueller Projektoren auf dieses digitale Objekt projiziert. Da echtes und virtuelles Gebäude sich passgenau decken, entsteht die Illusion einer live bespielten Fassade.

Text: Anke von der Heide, André Selmanagić, Maja Stark

Über die Künstlerin:

Anke von der Heide ist Kuratorin und Medienkünstlerin mit einem interdisziplinären Lebenslauf, angefangen mit einem Studium der Visuellen Kommunikation an der Bauhaus-Universität Weimar, Architektur und Urban-Design an der TU Berlin und Tongji Universität Shanghai und einem Forschungsprojekt in Intermedia Art an der Tokyo National University for Fine Arts and Music.

Sie arbeitet im Bereich Medienarchitektur in einem transdisziplinären Forschungsgebiet zwischen Technologie und öffentlichem Raum. Ihre besondere Aufmerksamkeit gilt besonders dem medialen Inhalt und wie sich die urbane Umgebung durch mediale Interventionen neu narratieren lässt.

Anke von der Heide kuratierte das Fassadenprojektionsfestival Genius Loci Weimar, das Festival for urban Light-culture in Berlin und diverse Symposiumsformate zu den Themen Medienarchitektur und dem Material Licht. Sie forschte an der TU Berlin im Bereich Smart Cities und unterrichtete seit 2013 als externe Lehrkraft in den Fachgebieten Media Architecture und Mensch-Computer-Interaktion der Bauhaus-Universität Weimar und dem Quality and Usability Lab der TU Berlin. Ihre Arbeiten und Forschungen befassen sich dabei immer mit der Aussage und Wirkung sowie der innovativen Gestaltung von Medienarchitektur.

urban-lightculture.de

ANNAGUL BESCHARETI

Rosengarten

2020
Interaktive AR-Postkarte

Unterstützender Entwickler: Leonid Barsht

Als Inspiration für diese Arbeit der bildenden Künstlerin Annagul Beschareti diente das berühmte Gedicht Golestān (dt.: Rosengarten) des persischen Dichters Saadi aus dem 13. Jahrhundert, in dem von der immerwährenden Schönheit eines Rosengartens die Rede ist. Im vorliegenden Prototypen abstrahiert Beschareti das Motiv der nicht welkende Blumen, gul, und lässt diese in der Augmented Reality aus einem persischen Teppich wachsen, sobald sie berührt werden. Als Marker dient eine ornamentale Postkarte (siehe Motiv).

Das Gesamtkonzept Bescharetis ermöglicht einen digitalen Blumenteppich, der auch kahle oder asphaltierte Erdoberflächen zum Blühen bringt – ein Werk der Poesie im Zeichen Saadis, das zeitgenössisch interpretiert wird und damit einmal mehr seine Unsterblichkeit manifestiert, denn:

»Wozu soll denn von Rosen für dich ein ganzer Strauß?
Aus meinem Rosengarten nimm dir ein Blatt heraus.
Nach fünf, sechs Tagen mußt du die Rosen welken sehn,
Die Schönheit meines Gartens wird immerfort bestehn.«
(Saadi. 2018. Rosengarten. Berlin: Hoffenberg: S.12)

Text: Annagul Beschareti und Maja Stark

annagulbeschareti.wordpress.com

ARIANE STAMATESCU

PlayPlay
previous arrow
next arrow
 

Heidenrose

2020, AR-Postkarte
Unterstützende Entwickler: Leonid Barsht & Dagmar Schürrer

Goethe: Love-bombing Narzisst und einer der bedeutendsten Schöpfer deutschsprachiger Dichtung. Inwieweit das Gedicht Heidenröslein zu Goethes großen dichterischen Schöpfungen zählt und warum es so
eine Berühmtheit erlangen konnte, ist nicht selbsterklärend. Man kommt schließlich nicht umhin, bei dieser Dichtung auf die verblümte Gewalttat einzugehen – das Gedicht liest sich als die Vergewaltigung einer Frau durch einen Knaben.

Das Leiden der schönen Frauen in Prosa, Dichtung und Oper und die unkontrollierbaren Triebe eines Mannes sind Rollenbilder, mit denen wir uns nicht mehr identifizieren können. Wie geht man also mit einer solchen Kunstform um, die aus einem anderen Jahrhundert stammt und Bilder transportiert, die wir nicht mehr sehen und rekonstruieren wollen? Woher kommen diese Bilder und vielmehr: wer hat etwas davon, dass sie sich immer noch verbreiten?

Die Augmented-Reality-Anwendung Heidenrose von Ariane Stamatescu untersucht anhand des Heidenrösleins kritische Aspekte in der Darstellung von sexualisierter Gewalt gegen Frauen in unserer Kulturgeschichte. Visuelle Verspieltheit wird mit Theorien und künstlerischen Positionen zu dieser Thematik gekoppelt.

Die vielschichtige, auf eine profunde Literatur- und Kunstrecherche aufbauende Anwendung besteht aus zwei getrennt voneinander zu betrachtenden Seiten, die inhaltlich dennoch ineinandergreifen:

Auf der szenischen Vorderseite wachsen fleischige, summende Rosen, die durch Berührung ihr idyllisches Erscheinungsbild ändern, durch weiteres Berühren verändert sich auch die Stimmung des dazugehörigen Sounds.

Auf der informativ-kritischen Rückseite erscheinen drei Stichpunkte, die auf drei verschiedene Themeninseln führen. Sprichwörtliche Wurzeln mit zu Collagen angeordneten Panels führen verschiedene Inhalte zur jeweiligen Thematik multimedial zusammen, deren Wirkung man sich nicht entziehen kann.

Die Anwendung ist Teil von INKA AR, Gratis-App der Forschungsgruppe INKA an der HTW Berlin.

Text: Ariane Stamatescu
Redaktion: Maja Stark

ariane-stamatescu.com

BANZ & BOWINKEL

Bots 03, Banz & Bowinkel, installationview at DAM Gallery Berlin
Bots 03, Banz & Bowinkel, installationview at DAM Gallery Berlin
previous arrow
next arrow
 

BOTS 03

2019
augmentierter PVC Druck
3 x 3 m

Betreuende Entwickler: André Selmanagić und Michael Droste

Nicht zuletzt in Gestalt ihrer eigenen Avatare bewegen sich Friedemann Banz und Giulia Bowinkel seit geraumer Zeit in computergenerierten Parallelwelten. Eigene Bewegungen im Raum zeichnen sie mit entsprechender Software als Flüssigkeitssimulationen auf, um Computern Input für die Berechnung ihrer digitalen Zwillinge zu liefern, die sich entlang dieser Farbspuren vor- und zurückbewegen lassen. Sie transferieren die digital manipulierten Simulationen als Renderings aus der virtuellen in die analoge Realität, produzieren aber auch Virtual-Reality-Kunst und haben Augmented Reality schon als Tool genutzt, um bei ausgewählten Werken ergänzende inhaltliche Aspekte und Details auf einem virtuellen Layer erfahrbar zu machen.

In ihrer neuesten Serie setzen die Künstler Augmented Reality erstmals in den Mittelpunkt ihrer künstlerischen Arbeit. Alles dreht sich nun um die Frage, wie AR als eigenständige Kunstgattung gedacht werden kann. Einer der zuvor eingesetzten Avatare wurde hierfür überarbeitet und mit einem eigenständigen Verhalten ausgestattet. Seine Entscheidungen werden nun live simuliert. In einer von Banz & Bowinkel kreierten Struktur von Meta-Regeln muss er sich selbst orientieren, vollführt dabei aber unweigerlich eine Performance, die keineswegs von einem eigenen Willen, sondern von den Künstlern dirigiert wird. Ein auf dem Boden liegender, 3 x 3 Meter großer scharfkantig gemusterter Teppich – hier umgesetzt als Vinylprint – dient als Marker, hier „existiert“ eine Anzahl der Avatare und kann durch die AR-Anwendung von Banz & Bowinkel sichtbar gemacht werden.

Wie echte Menschen sind diese Avatare getrieben von Bedürfnissen. Führen bei uns Hunger, Müdigkeit und Hygiene zu aktivem Handeln, wird dies bei den Avataren von mathematischen Formeln bestimmt, wozu eine sogenannte Utility AI herangezogen wird: Potenzielles Verhalten wie „suche Gesellschaft“ oder „vermeide mehr als drei Nachbarn“ haben Scores; basierend auf ständig wechselnden Bedürfnissen und äußeren Faktoren werden diese immer wieder neu berechnet. Das Verhalten mit dem höchsten Score gewinnt, triggert zugleich ein neues Set an Animationen und führt ein entsprechendes Update der Bedürfnisse aus. Während dieses zugrundeliegende Konzept simpel erscheint, war das Herunterbrechen menschlichen Verhaltens in Zahlen und Formeln zeitaufwendig, lieferte aber auch Einsichten in unsere menschlichen Entscheidungsprozesse.

Einige der Animationen, etwa kommunikative Gesten, wurden vorher aufgezeichnet, nutzen Motion-Capturing (z.B. des Online-Tools Mixamo) und werden immer gleich abgespielt. Andere kombinieren zuvor aufgezeichnete Laufanimationen mit Unitys Pathfinding-Algorithmen und erlauben dem Avatar somit, sich freier zu bewegen und enger mit dem Betrachter oder der Betrachterin zu interagieren. Als vermeintlich selbsttätige Maschine ist ein Avatar abhängig von den Entscheidungen seiner Kreatoren – uns Menschen. Entgegen der aktuell großen Begeisterung für maschinenbasierte Entscheidungen denken Banz & Bowinkel, dass der Fokus durchaus mehr darauf liegen sollte, wer diesen Maschinen ihren „Geist“ einhaucht.

Text: Banz & Bowinkel, André Selmanagić und Maja Stark

Über das Künstlerduo:

Giulia Bowinkel bildet zusammen mit Friedemann Banz das Berliner Künstlerduo Banz & Bowinkel. Banz & Bowinkel setzen in ihrer Arbeit auf den Computer als Alltagsgerät und dessen Einfluss auf die menschliche Kultur. Der Fokus liegt dabei auf der Wahrnehmung der Welt, die die Menschen als Realität verstehen und nun über den Computer simulieren. Banz & Bowinkel hinterfragen mit ihrer Arbeit das Konzept der simulierten Realität und damit die menschliche Wahrnehmung der Welt im virtuellen Raum. Die mehrfach ausgezeichneten Werke von Giulia Bowinkel und Friedemann Banz wurden im Museum Abteiberg in Mönchengladbach, im Haus der elektronischen Künste in Basel sowie im Zeppelin Museum in Friedrichshafen ausgestellt.

www.banzbowinkel.de

BIANCA KENNEDY

BiancaKennedy-Einladung-Final
e.artis (6)
previous arrow
next arrow

SWIMMING WITH THE LOVERS

2019
Fineliner und Aquarell auf Papier
27,7 x 55,4 cm
Unterstützender Entwickler: Leonid Barsht

Das Spiel mit Nähe und Distanz treibt auch die mit der Zeichnung verknüpfte Augmented-Reality-App INKA AR weiter: Glaubte man sich zunächst nur wenige Schritte von der badenden Bildfigur entfernt, lässt die Anwendung einen ganzen Wald papierener Topfpflanzen hinter einer geschlossenen Tür aufpoppen, die einen durch ihre räumliche Dimension in weite Ferne der Szene zu rücken scheinen. Ein zusätzliches Element bildet unter anderem rechterhand eine die waldmeistergrüne Badezimmerkachelung weiterführende Raumecke mit Waschbecken, Bademantel und Handtuch. Und damit nicht genug: Das Gesicht der Protagonistin ist plötzlich entstellt zu einer einäugigen Fratze, die durch ihre abschreckende Wirkung eine zusätzliche Ebene der (emotionalen) Distanz evoziert. Alle eingeblendeten Elemente sind weiterhin analog gezeichnet, die digitale Augmented-Reality-Technik aber ermöglicht ihre räumliche Anordnung und eine spielerische Interaktion: Durch Berühren des Bildschirms lassen sich – untermalt durch ein deutliches Platschen – zuerst die Tür und im Anschluss nahezu alle übrigen Bestandteile der erweiterten Realität wieder entfernen; allein die aufgeklappte Raumecke bleibt hartnäckig bestehen. Jedes Tippen führt außerdem zu einer weiteren surrealen Metamorphose der Protagonistin, und nur vereinzelt taucht wie eine ephemere Vision ihr vertrautes Gesicht wieder auf.

Für die Augmentierung von Swimming with the lovers separierte Bianca Kennedy ihre Ideen in sinnvolle Teilaufgaben, wodurch ein strukturiertes und effizientes Vorgehen möglich war. Parallel zur tatsächlichen Umsetzung ermöglichte dies die Vertiefung in einzelne Teilgebiete der Entwicklung von Augmented Reality-Anwendungen und gab der Künstlerin das Wissen und die nötigen Werkzeuge, um vergleichbare Projekte in Zukunft eigenständig realisieren zu können. Einer der Kernpunkte dieser AR-Arbeit war die Interaktion, da beim Berühren des Smartphone-Bildschirms verschiedene Events ausgelöst werden sollen. Bei der Implementierung erfordert dies allerlei Abfragen im Programm, wo z.B. der Bildschirm berührt wurde, ob es sich um einen einzelnen Klick handelt etc. Ebenso bedarf es weiteren Code, wenn die Berührungen beim Entwickeln am Computer getestet werden sollen. Um all dies zu vereinfachen, wurde das Tool Lean Touch in das Projekt importiert, welches viele der Basisabfragen bereits intern übernimmt.

Text: Maja Stark und Leonid Barsht


Über die Künstlerin:

Bianca Kennedy studierte Freie Kunst an der Akademie der Bildenden Künste in München und machte dort ihren Meisterschülerabschluss bei Professor Klaus vom Bruch. Stipendienaufenthalte führten sie nach Nordamerika, Barcelona, Athen und Tokio. Ihre Animationen, Zeichnungen und ortsspezifischen Installationen wurden unter anderem im Kunstverein München, im Centro Cultural Banco do Brasil in São Paulo, in der C-Gallery Mailand und bei der Colombo Art Biennale in Sri Lanka gezeigt. Neben analytischen Stop-Motion-Animationen, in denen Bianca Kennedy menschliche Abgründe aufzeigt, arbeitet die Künstlerin regelmäßig an Foto- und Zeichnungsserien, für die sie selbst geschaffene Raummodelle inszeniert.

www.biancakennedy.com

BOTORIUS

previous arrow
next arrow
 

Evolution of Street Art

2021/22
Street-Art-Dokumentation mit Augmented Reality
Unterstützender Entwickler: Leonid Barsht


Evolution of Street Art ist eine interaktive Dokumentation von Street Art im Berliner Stadtraum. Mit Blick auf Guerilla-Kunst wie Graffiti und Stencils dokumentiert die AR-Anwendung die ständige Transformation urbaner Orte: Über Nacht ist neue Street Art da, verändert sich oder fällt städtebaulichen Maßnahmen zum Opfer.

In diesem Kontext verfolgt Evolution of Street Art das Ziel einer großflächigen und zugleich vielschichtigen Outdoor-Galerie: Verteilt über verschiedene Spots und Routen, werden die verschiedenen Street-Art-Werke interaktiv erkund- und begehbar. Mithilfe einer interaktiven Karte und GPS werden die BenutzerInnen zu den jeweiligen Spots navigiert und lösen beim Erreichen des Ziels die Augmented-Reality-Inhalte aus. Diese werden dynamisch aus einer externen Datenbank geladen, wodurch die Erweiterung der Anwendung jederzeit möglich ist.

Dokumentarische Film- und Audioaufnahmen entführen die Tour-Teilnehmer/innen auf eine Reise zu Artworks, Artists, Projekten und Locations. Auch erhalten sie Einblicke in Gestaltung, Umsetzung, Geschichte, Aktivismus und Personen rund um die Werke. Foto- und weiteres Bildmaterial macht dabei bereits zerstörte Kunst vor Ort wieder sichtbar.

Evolution of Street Art steht allen Menschen kostenfrei zur Verfügung und ist als wachsende Kunstaustellung angelegt. Geplant ist eine partizipative Erweiterung im Sinne einer Open Plattform. So erhalten Artists die Möglichkeit, selbst ihre Kunst, Performances und Gigs interaktiv zu platzieren oder eine Ausstellung zu organisieren. Der Kreativität sind kaum Grenzen gesetzt und die Berliner Streetart-Szene erhält ein zeitgemäßes Tool zur Dokumentation und Präsenation ihrer Werke.

Text: Maja Stark, Leonid Barsht und Botorius

Kontakt: hey@streetart.motion-graphics.de

CHRISTINA SARLI

Christina Sarli, Señor Pulpo
Chrisitna Sarli, Señor Pulpo, Installationview at Humboldt Universität zu Berlin
PlayPlay
previous arrow
next arrow
 

Señor Pulpo

2020
Hybrides AR Artists’ Book / Zirkuläre Poesie

Supporting developer: André Selmanagić

»Señor Pulpo« ist ein hybrides Artist’s Book von Christina Sarli in zwei Teilen. Diese erzählen die Geschichte eines gewöhnlichen Kraken aus unterschiedlichen zeitlichen Perspektiven. Der erste Teil umfasst visuelle Interpretationen von acht der 73 Haikus – der Haiku ist die kürzeste Gedichtform der Welt – aus Gabriel Rosenstocks Sammlung »The Naked Octopus«. Sie schildern die Fantasien und Abenteuer eines Kraken, der aus dem Meer auftaucht, um seine langjährige Liebe zu einer menschlichen Frau in acht Akten zu vollenden.

Danach tötet und frisst sie ihn grausam. Die Bilder sind mit 3D-Animationen augmentiert, welche die Nahtoderfahrung eines Oktopus in Farbe und Ton interpretieren – je nach Uhrzeit der Interaktion als Tages- oder Nachtversion. Der zweite Teil ist ein Augmented-Reality-Comic, der die Hintergründe der zuvor geschilderten, zentralen Nahtoderfahrung liefert: den Fang und die grausame Bearbeitung des noch lebenden Tieres gemäß real praktizierter Tradition. Diese Story endet mit der letzten Erinnerung unseres Helden Señor Pulpo: dem Erscheinen der schönen Frau des Fischers. In die erweiterte Realität eingebaut ist eine Close-up-Funktion: Je näher man den Bildern mit der Kamera seines mobilen Gerätes kommt, desto mehr digitale Inhalte wird man entdecken – codierte Funktionen, die dazu einladen, das Material partizipativ zu beeinflussen und verborgene Inhalte immer tiefergehend zu entschlüsseln.

Text: Christina Sarli und Maja Stark

christinasarli.com

DAGMAR SCHÜRRER

PlayPlay
Installation view, Videokunstnacht Kleinmachnow Berlin, medienkunstverein, 2020
Installation view, Videokunstnacht Kleinmachnow Berlin, medienkunstverein, 2020
Installation view, Videokunstnacht Kleinmachnow Berlin, medienkunstverein, 2020
Installation view, Videokunstnacht Kleinmachnow Berlin, medienkunstverein, 2020
Installation view, Videokunstnacht Kleinmachnow Berlin, medienkunstverein, 2020
Installation view, Videokunstnacht Kleinmachnow Berlin, medienkunstverein, 2020
Installation view, Videokunstnacht Kleinmachnow Berlin, medienkunstverein, 2020
previous arrow
next arrow

VIRTUALIZED AR

2020
AR-Videoinstallation
Zweiteilig, 10:55 min

Unterstützende Entwickler*innen: Leonid Barsht und Elisabeth Thielen

Dagmar Schürrers zweiteilige Videoarbeit VIRTUALIZED AR besticht durch ihre Materialität, ohne materiell zu sein. Sie verführt durch ihre Haptik, ohne greifbar zu sein. Sie verstört durch organische Formen und Sounds, die größtenteils artifiziell sind. Der Fokus der Künstlerin liegt auf dem Virtuellen, das sie in Übereinstimmung mit dem Philosophen Pierre Levy nicht als Illusion oder Fälschung, sondern als zusätzliche Ebene zum Realen und Aktuellen versteht: ein Zustand des Möglichen, von materieller Präsenz und geografischer Verortung losgelöst – wie Träume oder Erinnerungen ein vages Gefüge vor der eigentlichen Aktualisierung im Realen, ständig im Fluss und vielfach verteilt, schwebend am Übergang und eigenen Gesetzen unterworfen. Virtuos experimentiert die Künstlerin mit Augmented Reality: Ausgelöst durch einzelne Videostills, lässt sie ihre Bildwelten aus den Screens ausbrechen. Man betritt einen virtuellen Raum, eine 3D-Collage aus digitalen objects trouvés und Kreationen der Künstlerin. Hier eröffnet das Changieren zwischen konkret figürlichen und abstrakten Inhalten ein breites Feld von Assoziationsketten, die auf Vertrautes verweisen und zugleich Neues implizieren.

Text: Dagmar Schürrer & Maja Stark

Über die Künstlerin:

Dagmar Schürrer ist österreichische Medienkünstlerin, die in Berlin lebt. Der Fokus ihrer künstlerischen Praxis liegt auf dem Übergang, an dem das Digitale und das Analoge, das Reale und das Virtuelle, sowie das Abstrakte und das Figürliche aufeinandertreffen. In ihren digitalen Arbeiten reflektiert sie über Themen im Zusammenhang mit unserer zunehmenden Bindung an die digitale Technologie und den gesellschaftlichen und individuellen Auswirkungen der Digitalisierung: über neue Konzepte von Raum und Zeit, die Materialität des Digitalen, die Computerisierung von Denkprozessen, über spätkapitalistische Paranoia und projizierte utopische Zukünfte. Sie fügt digital generierte Objekte und Animationen, Text, Zeichnungen und Sound zu komplexen Video-Sound-Montagen zusammen, die an Malerei, Collage oder Poesie erinnern. Sie entfalten sich in immer neuen Variationen und werden auf dem Bildschirm, als Installationen oder in Kombination mit neuen Technologien wie Augmented Reality präsentiert.

Sie hat einen Abschluss in Bildender Kunst vom Central Saint Martin ́s College of Art and Design in London, UK. Ihre Arbeiten wurden international ausgestellt, unter anderem bei den New Contemporaries im ICA London, der Moskau Biennale für junge Kunst, dem Transmediale Vorspiel in Berlin, dem Rencontres International Paris/Berlin im Auditorium des Louvre und am Museum of Waste in Changsha, China. Ihre Videos wurden auf zahlreichen Festivals gezeigt: SUPERNOVA in Denver, das Seattle Film Festival, das Athens Digital Arts Festival, das Horn Experimental Film Festival in Israel, Tricky Women Festival in Wien oder das Diagonale Film Festival in Graz. In den letzten Jahren erhielt sie das Goldrausch-Stipendium des Berliner Senats und war für den Berlin Art Prize und den Tenderpixel Award in London nominiert.

www.dagmarschuerrer.com

DANI PLOEGER

DaniPloeger_WEBMarker
Dani Ploeger Smart Fence
borderfence2
borderfence1
Border Operation
previous arrow
next arrow

SMART FENCE

2019
augmentierter Siebdruck
42 x 59 cm
Unterstützende Entwicklerin: Elisabeth Thielen

Smartphone, Smart Home, Smart Clothes, Smart Water. Der Begriff „Smart“ ist im Marketingjargon zum allgegenwärtigen Buzzword geworden und malt das Bild künstlich intelligenter High-Tech-Produkte zur Alltagserleichterung und gesundheitsoptimierenden Ernährung des fortschrittlichen Menschen. Smarte Objekte trägt dieser in der Hosentasche und auf der Haut, er lässt sie in sein Schlafzimmer und nimmt sie sogar körperlich auf. Doch wie verfährt der fortschrittliche Mensch, wenn er sich jemanden vom Leibe halten will?

Smart Fence ist der Titel einer mehrteiligen Arbeit Dani Ploegers – und dieser Titel ist keine zynische Überspitzung des geschilderten Marketingtrends, sondern die tatsächliche Bezeichnung von Hightech-Grenzzäunen, die an Teilen der Außengrenzen Europas stehen, um Immigrant/innen abzuschrecken und fernzuhalten. Smart Fences sind mit „smarten“ Technologien wie Wärme- und Bewegungssensoren sowie Nachtsichtkameras ausgestattet. Die High-Tech-Ausstattung des Zauns steht dabei in krassem Gegensatz zu ihrem archaischen Zweck angsterfüllter Abschottung. Ploeger schrieb hierzu in einem Interview mit We-make-money-not-art: “[T]heir framing as supposedly clean and precise technologies is symptomatic of a broader cultural practice that uses narratives of technologization to justify means of violence” (http://we-make-money-not-art.com/cutting-through-the-smart-walls-and-fences-of-fortress-europe/). Dass der Einsatz von Smart Fences bisher nur von Ungarn betrieben und auf die „uneuropäische“ Politik des ungarischen Präsidenten Victor Orban zurückzuführen sei, lässt Ploeger nicht gelten, denn: „This perspective ignores that Frontex, the European Border and Coast Guard Agency, is also active at the Hungarian border fence and that Greece, Spain and Latvia, among others, have built or are building similar fences, although these have not received as much media attention. In the end, these fences are quite convenient to many governments across the EU that want to restrict immigration“ (http://we-make-money-not-art.com/cutting-through-the-smart-walls-and-fences-of-fortress-europe/).

Im Zentrum von Ploegers Ausstellung von Smart Fence in der belgischen Bruthaus Galerie 2019 stand ein originales Stück Smart Fence von der Grenze zwischen Ungarn und Serbien – es ist die Trophäe eines nicht ungefährlichen Überraschungsangriffs des Künstlers auf diesen Zaun, der auf Video dokumentiert und online veröffentlicht ist. In seiner AR-Arbeit ist ein Stück dieses Stacheldrahts als papierfarbene Aussparung vor den bleigrauen Hintergrund eines Siebdrucks gesetzt. In Unity wird es nicht als 3D-Objekt, sondern als Grafik repräsentiert und ist zu Beginn der Augmentierung transparent. Sobald man den als Marker dienenden Siebdruck scannt, wird der Alpha-Kanal der Textur und somit die Deckkraft langsam bis auf den Maximalwert erhöht, wobei sich die Textur auf die Kamera und somit den Nutzer bzw. die Nutzerin zu bewegt. Während das rostig gezahnte Stück Metall auf den Nutzer zuschwebt, fängt es langsam an sich zu drehen. Durch eine Drehung des Smartphones, welche über das Accelerometer des Geräts ausgelesen wird, kann dem Objekt nun ein kurzer Drehimpuls gegeben werden, bevor es an der Kamera vorbeischwebt und schließlich verschwunden ist.

Text: Maja Stark und Elisabeth Thielen

Über den Künstler:

Dani Ploeger kombiniert Performance, Video, Computerprogrammierung und Elektronik-Hacking, um die Spektakel der Techno-Consumer-Kultur zu untersuchen und zu untergraben. Seine Arbeit, die alltägliche Geräte umwidmet, missbraucht und zuweilen zerstört, enthüllt scheinbar banale und für selbstverständlich gehaltene Aspekte der digitalen Kultur als Objekte von sowohl physischer Schönheit als auch politischer Macht.

Unter anderem hat er mit traditionellen Metallarbeitern in der Altstadt von Kairo zusammengearbeitet, um Tablet-Computer mit Stahlblech zu verkleiden, an einem Schusswaffentraining in Polen teilgenommen, um mit einem AK47 auf ein iPad zu schießen, eine VR-Installation mit Fronttruppen im Donbass-Krieg gemacht und ist zu Mülldeponien in Nigeria gereist, um Elektronikschrott aus Europa zu sammeln.

www.daniploeger.org

FIELD NOTES

Untitled

field notes
MONAT DER ZEITGENÖSSISCHEN MUSIK

2019
augmentierte Publikationen
Unterstützender Entwickler: Leonid Barsht

field notes ist die Plattform für zeitgenössische Musik und Jazz in Berlin. Das dazugehörige field notes Magazin berichtet alle zwei Monate über aktuelle Entwicklungen und die wichtigsten Veranstaltungen der Stadt. Dank des AURORA-Produktionslabors sind alle Publikationen zum Monat der zeitgenössischen Musik von field notes ab sofort durch Augmented Reality nicht nur sicht-, sondern auch hörbar!

JULIANE WÜNSCHE

Juliane Wünsche, ZITTAU 1999, Trailer
"Zittau 1999", Screen Shot
"Zittau 1999", Screen Shot
"Zittau 1999", Image Marker
"Zittau 1999", Image Marker
"Zittau 1999", Screen Shot
ScreenShotBlaueSteine9
"Zittau 1999", Screen Shot
previous arrow
next arrow
 

ZITTAU 1999

2019/20
Augmented-Reality-Anwendung zum Roman Nationalbefreite Zone
Unterstützender Entwickler: Leonid Barsht

Wie sich Augmented Reality (AR) zur Erweiterung von Literatur einsetzen lässt, zeigt die Autorin Juliane Wünsche mit einer Anwendung zu ihrem Roman Nationalbefreite Zone, der in der ostsächsischen Kleinstadt Zittau spielt und teilweise auf wahren Begebenheiten beruht: In der von Arbeits- und Perspektivlosigkeit geprägten Region lassen die wirtschaftlichen und sozialen Brüche der Nachwendezeit Nationalstolz und Fremdenhass aufbrechen. Die ostdeutsche Studentin Franziska Wendt und der westdeutsche Professor Alexander Harten geraten in die Kämpfe zwischen links und rechts und müssen sich entscheiden: einmischen oder weggucken, kämpfen oder aufgeben, gehen oder bleiben.

Im AURORA-Produktionslabor entstand der Prototyp für eine AR-Anwendung, in der ergänzend zum Romanplot Zeitzeugen aus Zittau zu Wort kommen und Hintergrundwissen vermittelt wird. Hervorgerufen werden die vielfältigen AR-Inhalte – von einer kommentierten AR-Diashow bis hin zum Mundart-Memory – durch ein Kartenset mit Illustrationen zum Roman von Kerstin Welther und Matthias Ries. Diese Marker können teils kombiniert werden, um dadurch insgesamt 12 verschiedene Augmentierungen hervorzurufen. In ihrer experimentellen Multimedialität bildet die Roman-App-Kombination damit ein neuartiges Format, dessen Potenzial zur Vermittlung neuerer Geschichte – etwa für einen interdisziplinären Unterricht an weiterführenden Schulen – auf der Hand liegt.

Text: Juliane Wünsche und Maja Stark


Über die Künstlerin:

Juliane Wünsche, 1974 in Löbau geboren, ist Bloggerin und Autorin. Während ihrer Ausbildung zur Redakteurin und ihres Studiums zur Diplomübersetzerin für Englisch und Tschechisch schrieb sie für die Lokalredaktionen der Sächsischen Zeitung in Löbau und Zittau Reportagen, Porträts und Features über die wirtschaftlichen und gesellschaftlichen Umbrüche in der Oberlausitz nach der Wende. Seit 2003 lebt Juliane Wünsche in Berlin. Auf ihrem Blog www.hungerherz.de rezensiert sie Bücher, Theaterstücke, Ausstellungen und andere Kulturveranstaltungen. Nationalbefreite Zone ist ihr Debütroman.

KATIA SOPHIA DITZLER

PlayPlay
previous arrow
next arrow
 

Lehrsprüche der Bauernschlauen

2022
Poesiezyklus, erweitert durch interaktive AR-Dioramas
Unterstützende Entwickler:innen: Leonid Barsht und Dagmar Schürrer

»du kreatur, sagte sie, ich lade dich ein
einladungen schlage ich nie aus. so beginnt jede geschichte« (K.S. Ditzler)

Lehrsprüche der Bauernschlauen sind eine Einladung zu 12 fantastischen Gedichten der russisch-deutschen interdisziplinären Künstlerin und Autorin Katia Sophia Ditzler. Ihre kraftvolle Poesie scheint von einer surrealen, im besten Sinne skurrilen Welt herüber zu klingen und schreit regelrecht nach einer Visualisierung. In Augmented Reality hat Ditzler zu jedem Gedicht ein interaktives Diorama mit Sound entworfen, das im Stil wunderbar zu ihrer Poesie passt, diese aber nicht direkt interpretiert, sondern ihr eine für das bloße Auge unsichtbare Welt zur Seite stellt, in der sie sich entfalten kann.


 

LANG & LAUBE

Screenshot "Karla"
previous arrow
next arrow
 

Karla – ein Projekt von Urban AR Productions an der Karl-Marx-Allee

2019/20
Augmented-Reality-Inszenierung im öffentlichen Raum

Betreuende Entwicklerin: Elisabeth Thielen

Berlin ist voll von Geschichte.

Wie können wir mit dem Stadtraum literarisch und szenografisch arbeiten und dabei seiner historischen Dimension Rechnung tragen? Wie auf eine Weise erzählen, die den Orten verbunden ist?

Unter ihrem Label Urban AR Productions haben Julia Laube und Olga Bedia Lang eine Antwort darauf formuliert: Augmented Reality (AR) bietet für sie eine interessante Möglichkeit, eine zeitlich-räumliche Zwischenebene im Stadtraum zu etablieren und diese zu bespielen.

Karla ist der Titel einer integrativen theatralen Inszenierung an der Karl-Marx-Allee in Berlin. In der AR-Applikation Urban AR verbinden sich visuelle und auditive Inhalte mit dem Kontext des realen Settings des Berliner Stadtraums.

Sobald die Nutzer/innen sich im entsprechenden GPS-Raum befinden, erhalten sie mittels ihres Smartphones oder Tablets und Kopfhörern Zugang zu den verschiedenen Kapiteln der Geschichte. Diese beginnt vor der ehemaligen Karl-Marx-Buchhandlung und entwickelt sich dramaturgisch über sieben weitere Orte, die von den Nutzer/innen in einem performativen Stadtspaziergang erlaufen werden können.

Karla ist die Geschichte einer Liebesbeziehung im Kontext von politischer Kritik und Widerstand in den 1980er-Jahren in der DDR. Die weibliche Protagonistin führt über das Audio zu den einzelnen Kapiteln und teilt dabei ihre persönlichen Erinnerungen und die Liebesgeschichte ihrer Jugend. Als damals Anfang-20-Jährige auf der Suche nach einer Haltung gegenüber der Welt, lernte sie einen Mann kennen, der im politischen Widerstand aktiv war. Sie fühlte sich ihm durch ihre Liebe, die gemeinsame Vision einer besseren Welt und eine gemeinsame Zukunft verbunden.

Über die Künstlerinnen:

Julia Laube:
Julia Laube studierte Kostümbild und Bühnenbild an der Universität der Künste Berlin, Szenografie an der Kunsthochschule Weißensee sowie Medienkunst an der Hochschule für Gestaltung Karlsruhe. Seit ihrem Diplom im Jahr 2016 hat sie neben eigenen Performances und Theaterarbeiten an verschiedenen Film- und Theaterprojekten mitgewirkt. Sie lebt und arbeitet in ihrer Heimatstadt Berlin.

Olga Lang:
Olga Bedia Lang ist Autorin und arbeitet auch in gemeinsamen Projekten mit anderen Künstler/innen. Sie hat einen Magisterabschluss in Orientalistik, Kunstgeschichte und Germanistik und mehrere Jahre als Vermittlerin zeitgenössischer Kunst gearbeitet. Neben Prosa, Lyrik und Essays schreibt sie szenische Texte und inszeniert diese in Hörspielen.

urban-arproductions.com
Portfolio Julia Laube: cargocollective.com/jila
Portfolio Olga Bedia Lang: olgabedialang.de

MAJA ROHWETTER

previous arrow
next arrow
 

Contingencies

2022, AR-Installation

Über eine installative Collage im realen Raum als Marker wird mit der im Rahmen des Produktionslabors AURORA entwickelten App »Apparition« Maja Rohwetters AR-experience »contingencies« zugänglich. Der Titel verweist auf die Definition von Kontingenz des Soziologen Niklas Luhmann als etwas weder Notwendiges noch Unmögliches. Die stets mitgedacht Möglichkeit, das etwas Gegebenes, zu Erfahrendes, Phantasiertes, immer so, aber auch anders sein kann, verneint eine absolute Wahrheit der Realität.

Im Referenzfeld von digitalen Technologien und Malerei reflektiert Maja Rohwetter die Flüchtigkeit und Konstruiertheit unseres Konzepts von Realität. Inwiefern stellt sich uns der digitale Raum als Realität dar? Wie real ist Realität, die über ein Display wahrgenommen wird? Wo verläuft die Grenze zwischen dem statischem Bild innerhalb des »frames« und seiner zeitlichen Dimension?
Maja Rohwetter untersucht in ihrer künstlerischen Arbeit eine zeitgenössische visuelle Sprache zwischen analog und digital, real und virtuell. Ihre Bildfragmente entwickelt sie in einem wiederholten Medientransfer unterschiedlicher Repräsentationsebenen: malerische Fundstücke, 3D-Renderings, Reproduktionen, Vektorgrafiken, Malerei und freie Pinselgesten formieren sich in einer collagehaften Bildsprache zu Malerei, Collagen, 3D-Animationen.


Ist eine Pinselspur eine freie Geste oder stellt sie etwas dar? Welcher Raum steckt in einer gemalten Oberfläche? Unterschieden sich Farbraum und Objektraum? Welche Zeitdimension verbirgt sich in einem Pinselzug? Wie sieht es im inneren eines Objektes aus? In welchem Zusammenhang stehen Körper und Oberfläche?

In »contingencies« reagieren virtuelle Übersetzungen solcher Malereifragmente als räumliche und flächige 3D-Malereiobjekte mit Animationen auf Annäherung der Nutzer*innen. Jedes Bildelement wurde in Sound übersetzt, der in räumlichem Bezug zum Objekt steht. So entsteht bei Bewegung eine jeweils individuelle Bild- und Soundcollage. Die Nutzer*innen sind also partizipativ in die Bildproduktion eingebunden und können interaktiv und in skalierbaren Dimensionen mit Kompositionen experimentieren, die sich über die App als Screenshot speichern lassen.
Die App kann im Appstore und Playstore frei heruntergeladen werden und der Marker ist als Postkarte und Poster verfügbar: So werden in der Interaktion mit der ortsspezifischen Umgebung der Nutzer*innen unterschiedliche Kontextualisierungen möglich und die Wahrnehmung für die umgebende Realität auf einer rein bildlichen Ebene geschärft.
Die Arbeit fordert dazu auf, den konditionierten Sicherheitsabstand zu Malerei und ihre Verortung im Ausstellungskontext aufzugeben und dabei das eigene Konzept der Weltaneignung und der Realitätswahrnehmung zu hinterfragen.

Konzept und 3D-Animationen: Maja Rohwetter
Ton: Tuomo Väänänen
App-Entwicklung: Artvisity, Aachen
Beratung zu AR Medienproduktion, Konzeption und Markergestaltung: Dagmar Schürrer, AURORA School for ARtists

OKTA COLLECTIVE

previous arrow
next arrow
 

Sublimation

2022, AR-Audio-Walk
Unterstützende Entwickler:innen: Katrina Rizakova and Dagmar Schürrer

Sublimation ist eine einzigartige, spekulative Science-Fiction, die durch Klang und visuelle Bilder die Weltsicht symbiotischer, pflanzenähnlicher Wesen zum Ausdruck bringt und über den Klimawandel und das Zusammenleben auf dem Planeten Erde reflektiert. Der Audiowalk entfaltet die Perspektive des »Anderen« – eines symbiotischen und mutualistischen Lebewesens, das in Symbiose mit den Menschen zusammenlebt. Die Schaffung möglicher Welten und Zukünfte, in denen wir uns neue Formen des Zusammenlebens vorstellen können, ist entscheidend für die Veränderung der Art und Weise, in der wir Menschen täglich mit unserer Umwelt interagieren.

PETER SANDHAUS

Elektra, Screen shot on location
Elektra, Screen shot on location
Elektra, Landmark Elektropolis Schöneweide Berlin
Peter Sandhaus: Elektra
previous arrow
next arrow
 

ELEKTRA.app

2019
AR-Simulation der neuen Landmark für Berlin-Oberschöneweide
Unterstützende Entwicklerin: Elisabeth Thielen

Die Lichtgestalt ELEKTRA von Peter Sandhaus wird bald als neue Landmark auf dem Platz am Kaisersteg in Berlin-Oberschöneweide stehen und befindet sich aktuell in der Vorentwurfsphase. Das kleine in das Kunstwerk integrierte Windkraftwerk wird in Zusammenarbeit mit Prof. Jochen Twele, Fachbereich 1, Erneuerbare Energien, an der HTW Berlin entwickelt. Als Verkörperung der elektrischen Energie ist ELEKTRA eine zeitgenössische Interpretation des berühmten Signets der AEG von 1888. Dieses stellt die “Göttin des Lichts” dar, die lässig auf dem geflügelten Rad des Fortschritts ins Bild schwebt. Die Botschaft dieser Allegorie ist eindeutig: Elektrizität und Licht sind von nun an eine untrennbare Einheit und gleichzusetzen mit Fortschritt. Auch die neue Landmark kündet vom Aufbruch in eine neue Zeit: Sie verbindet die Tradition der Elektroindustrie in Schöneweide mit einem Aufbruchssignal in eine erneuerte Elektropolis, geprägt von regenerativer Energiegewinnung, smarter Elektromobilität und elektronisch virtueller Vernetzung.

Im AURORA-Produktionslabor wurde eine Augmented-Reality-App entwickelt, um das geplante 34 Meter hohe Bauwerk vor Ort als Echtzeit-Simulation erlebbar zu machen. Auch die Beteiligung der Bürger/innen im Vorfeld des Bauvorhabens soll durch die App verbessert werden. Ziel ist es, dass sich die Menschen in Schöneweide das Projekt besser vorstellen und es diskutieren können. Die App INKA AR zeigt das 3D-Modell der Landmark en miniature, ausgelöst durch das AEG-Signet von 1888 als Marker.

Text: Peter Sandhaus


Über den Künstler:

Peter Sandhaus macht Kunst im öffentlichen Raum. Er glaubt dabei immer fest die Chance, vor Ort Sinn und Bedeutung zu konstruieren. Der ursprünglich als Architekt diplomierte Künstler hat bereits etliche Wettbewerbe gewonnen. So wurde z.B. 2017 die Stadionwelle in Erfurt realisiert und im letzten Jahr wurde sein Antikörper an der Uniklinik Regensburg fertig. Aktuell ist er in Schöneweide in direkter Nachbarschaft der HTW Berlin mit der Planung der elektrisierenden Landmark – Lichtgestalt ELEKTRA – betraut.

petersandhaus.blogspot.com

PHYLLIS JOSEFINE

x_handtarget_xx1_1_scaled
Phyllis-Mantel-1
Phyllis-Mantel-2
dvdvdv
previous arrow
next arrow

DVVVDVVV (XR RE_VIVED CLOTHINGPIECES)

2019
reflektierende Farbe auf Kleidung
Dimensionen variabel
Unterstützende Entwicklerin: Denise Bischof

Grafik, elektronische Musik, Gesang, Medienkunst, bemalte Kleidung – das facettenreiche künstlerische Werk von Phyllis Josefine alias dvdv (gesprochen „dada“) verbindet sich zu einem eigenen synästhetischen wie interaktiven Kosmos, in den man beim Besuch ihrer selbst programmierter Website ein Stück weit eintauchen kann. Durch ihre Experimentierfreudigkeit zwischen analoger und digitaler Welt ist die Künstlerin gewissermaßen prädestiniert für Augmented Reality, durch die sie all ihren kreativen Output in einer vielschichtigen Arbeit bündeln kann.

Im Dunkeln getragener Kleidung kommt in Josefines AR-Kunst eine zentrale Rolle zu. Sie lässt an Tanzflächen, Clubsessel und Bars denken, in deren Schatten man sich besonders gut so geben kann, wie man ist oder wie sein will, wo sich Freiheit und Individualismus nicht zuletzt in Form von – mitunter extravaganter bis hin zu künstlerischer – Bekleidung manifestieren. Gleichzeitig verwischen Schatten Konturen und Gesichtszüge, die analoge Realität wird visuell schwieriger erfassbar. In diesem Kontext erweckt Josefine Kleidung zu einem neuen, virtuellen Leben. Drei Mäntel bemalt sie hierfür mit eigens entwickelter reflektierender Textilfarbe. Da AR nur bei guten Lichtverhältnissen funktioniert, wird mithilfe eines Scripts die smartphoneinterne Taschenlampe angeschaltet und auf die Bemalung gehalten. Der Marker reflektiert daraufhin das auftreffende Licht in die dunkle Umgebung – ein Effekt, der in der AR-Anwendung durch Partikeleffekte und Formen überlagert wird, die in Unity erstellt und adaptiert werden können. Darüber hinaus lösen die Marker raumgreifende Animationen und Sounds aus. Zum Auslösen verschiedener Events wurde ein Zeitschalter programmiert, welcher die Dauer und die Position des Markers aufnimmt und dementsprechend verschiedene virtuelle Elemente einblendet. Ebenfalls können verschiedene gleichzeitig erfasste Marker im Zusammenspiel unterschiedliche Ereignisse auslösen, wodurch eine spielerische Form der Interaktivität gegeben ist.

Verstärkt durch die Dunkelheit, die den realen Raum förmlich absorbiert, entfaltet sich die Kleidung durch AR zu einer weiteren, jedoch nun virtuellen, den sie tragenden Menschen teils umgebenden, teils weiterschwebenden Hülle aus individuellen Visuals und Tracks von der unveröffentlichten EP What is the opposite of ambivalence der Künstlerin. Es scheint aber auch, als werde der Kosmos der Künstlerin ins Dreidimensionale übertragen, um hier einen unendlich wirkenden digitalen Raum zu bespielen und mit den Anwesenden zu teilen. Das Materielle tritt dabei in den Hintergrund zugunsten Josefines geistiger Schöpfung, die als ephemeres Spektakel aufscheint, um Betrachtende in eine Trance aus Licht und Musik zu versetzen.

Text: Maja Stark

Über die Künstlerin

Phyllis Josefine aka dvdv ist eine intermediale Künstlerin, Musikerin und Autodidaktin, die sich nur selten auf ein Medium beschränkt. Fokussierte sie sich anfangs auf experimentelle Videos und Grafik, begann sie 2014 Musik zu produzieren, zu singen und ihre eigene Kleidungsbemalung zu entwerfen. 2017 entwickelte sie eine eigene interaktive Webseite für ihr Debütalbum mit dem Alias dvdv. Sie war an der Enstehung des Smart-Films The Future Is Not Unwritten von Susanne Steinmassl beteiligt, einem endlosen und sich selbst generierenden Film über Transhumanismus und Künstliche Intelligenz. Phyllis Arbeiten wurden in zahlreichen Online-Magazinen wie NOWNESS, The Creators, FELT ZINE, AQNB oder The Golden Boy Press veröffentlicht. The Future Is Not Unwritten wurde unter anderem ausgestellt im Goethe Institut in Japan, bei SXSW in Texas und der MCBW – Munich Creative Business Week.

http://www.dvdv.space/

ROBERT SEIDEL

Robert Seidel, Symbolbild
Robert Seidel, Symbolbild
previous arrow
next arrow
 

Glacier

2019/20
Augmented-Reality-Skulptur

Unterstützender Entwickler: André Selmanagić

Die virtuelle AR-Skulptur GLACIER umspannt wie ein riesiger Gletscher die gesamte Erde. Die gefaltete, skulpturale Form entsteht dabei basierend auf den GPS-Koordinaten des Devices und den daraus abgeleiteten Karteninformationen. Im Durchschreiten lässt sich erkennen, dass die Skulptur anfänglich in der lokalen Realität verankert ist, man diese aber durch jeden Schritt weiter hinter sich lässt. So kann man in „Siebenmeilenschritten“ eine umgestülpte Welt durchschreiten, beginnt aber bei jedem Neustart in der unmittelbaren Umgebung. Auf visuelle AR-Marker wird verzichtet, GLACIER setzt sich nur aus den Geolocation-Daten und den Bewegungsmustern des bzw. der Nutzer/in zusammen. In abstrakter Form soll so auf die Zusammenhänge einer globalen Welt hingewiesen werden, in der jeder Bewegung und Information weitreichende Spuren und Reaktionen nach sich zieht.

Aus technologischer Sicht wird die AR-Skulptur aus realen Gebäuden, die sich in der Nähe der geografischen Position des Benutzers befinden, zusammengesetzt. Die Gebäudeinformationen – ihre Positionen, Ausrichtungen und Formen in Form von 3D-Modellen – werden vom Kartendienst MapBox abgerufen. Wenn sich der Benutzer bewegt, ändern seine Bewegungen die Form der Skulptur. Die Montage der Skulptur folgt einem komplizierten Algorithmus, der ungefähr so ​​funktioniert: Die Bewegung des Benutzers wird auf eine kreuzartige Form eines aufgefalteten Würfels abgebildet, die sich über die flache Karte von Gebäuden bewegt. Diese Form wird dann zu einem Gebäudewürfel – der Skulptur – gefaltet, in dem sich der Benutzer befindet. Während sich die Kreuzform über die Karte bewegt, ändert sich der Inhalt der sechs Seiten kontinuierlich. Aus diesem Grund muss jede Seite des Würfels in der Lage sein, die Gebäude mehrerer Kartenfelder anzuzeigen, und hat somit tatsächlich das Vierfache seiner sichtbaren Größe. Das resultierende 3D-Objekt sieht wiederum aus wie ein Würfel mit erweiterten Seiten oder ein 3D-Hash-Zeichen (siehe Bild X). Um dieses Objekt wieder in einen normalen Würfel zu verwandeln, werden die überlappenden Bereiche der Seiten mit einem speziellen Shader visuell abgeschnitten.

Über den Künstler:

robertseidel.com

instagram.com/studiorobertseidel (mit weitere AR-Filtern des Künstlers)

SARAH MÜLLER

previous arrow
next arrow
 

New York, New York

2020
Augmented-Reality-Posterserie

Betreuender Entwickler: Leonid Barsht

» … letztes Jahr im Sommer wollte ich endlich etwas Neues angehen. Gleichzeitig war ich schon immer von New York fasziniert und hatte meine erste Reise dorthin geplant. Also dachte ich, es wäre schön, die Stadt auf eine neue Weise zu visualisieren«, schildert Sarah Müller. Ihr schwebten Poster vor, die in Richtung Illustration gehen sollten – doch mehr stand nicht fest, als sie im Oktober 2019 mit Notizbuch, Kamera und Reiseführer ausgerüstet in die Maschine Richtung JFK Airport stieg.

30 Tage waren geplant – genug Zeit, um alle Stadtteile der Metropole zu erkunden und Eindrücke in Notizen, Skizzen und Fotos festzuhalten. »Auf der Reise habe ich mir ganz viel Inspiration geholt. Ich fand es spannend, dass die Dinge live ganz anders sind, als man sie sich vorgestellt hat. Ich hatte einen ganz anderen Blick auf die Stadt, weil ich zum ersten Mal und so lange dort war«, so die Kommunikationsdesignerin.

Da sie sich schon vor der Reise intensiv visuell mit New York beschäftigt hatte, schaute sich Müller vor Ort alles ganz genau an – Details wie Straßenmarkierungen, die Farben der verschiedenen Viertel oder Architektur: »Die Vielfalt, die Menschen, Farben, Formen, Streetart, ich habe alles extrem wahrgenommen über diesen langen Zeitraum und konnte die Stadtteile vergleichen.«

Zurück in Berlin, hob Sarah Müller ihr Projekt durch Augmented Reality auf eine neue Stufe. Ihre Anwendung sollte mehr können als Animationen abzuspielen. »Ich dachte, das sei zu einfach. Die Leute erwarten mehr, als dass sich so eine Typo dreht, das kennt man schon«, so Müller. Darüber hinaus sollten die geplanten Poster mit 3D-Objekten und verschiedenen Interaktionsmöglichkeiten kombiniert werden.

Im März 2020 startete sie die Umsetzung mit Leonid Barsht – wegen Corona verlief die Zusammenarbeit ausschließlich remote, aber sehr produktiv. So lässt sich in der finalen Anwendung mit bezaubernden Visuals interagieren; Elemente kann man wegwischen und neu zeichnen, es gibt verschiedenen 3D-Objekte zum Skalieren und alle Layer lassen sich verschieben. Eines der Poster von Sarah Müller abstrahiert zum Beispiel eine Vogelperspektive auf die bekannten Stadtcanyons. Zu sehen sind Grundrisse, auf denen 3D-Modelle von Wolkenkratzern in leuchtenden Farben platziert und in ihrer Größe verändert werden können.

Auf diese Weise lässt sich die Stadt neu interpretieren und erleben – durch eine interaktive App, die analoge und digitale Gestaltung verschmelzen lässt.

Wie es weitergeht, steht noch in den Sternen. Eigentlich hatte Müller ab September 2020 einen Platz als freie Mitarbeiterin in einem New Yorker Design-Büro. »Jetzt darf ich gar nicht einreisen. Aber vielleicht klappt es später,« so die Designerin – und plant bereits, die Serie in anderen Städten weiterzuführen.

___

Die Anwendung New York, New York von Sarah Müller wurde ausgezeichnet mit dem Red Dot Award für Kommunikationsdesign 2020. Sie ist Teil der Gratis-App INKA AR, unter der auch weitere AURORA-Ergebnisse zu finden sind. 

Die wunderschönen AR-Poster zu New York sind in Sarah Müllers Online-Store zu erwerben.

Im PAGE Magazin 11.20 erschien ein ausführlicher Artikel zu New York, New York inklusive einem AR-Tutorial von Leonid Barsht, aus dem wir an dieser Stelle Passagen zitiert haben: „Colours of New York“, in: PAGE Magazin, 11/2020 (Ende September), S. 60–68.

Website der Designerin: muellersarah.de

THE SWAN COLLECTIVE

artists-felixkraus_web
Felix_ForcingTuesday_alpha
Forcing Tuesday
previous arrow
next arrow

FORCING TUESDAY

2016/18
augmentiertes Acrylbild
110 x 150 cm
Unterstützende Entwicklerin: Elisabeth Thielen


Das großformatige Akrylgemälde Cutting Sunday von Felix Kraus ist Teil einer ganzen Serie moderner Interieurs, die in ihrer Farbigkeit reduziert und in ihrem Aufbau mitunter so kühn geformt sind, dass sie an den künstlerischen Kosmos von M. C. Escher erinnern. Stets zeigen sie nur einen Ausschnitt einer menschen- und möbelleeren Welt, in der scharfkantiger Beton, bebende Wasseroberflächen und bedacht gesetzte Lichtquellen eine kafkaesk anmutende Stimmung hervorrufen. Die gekonnte naturalistische Wiedergabe nur vermeintlich real existierender Innenräume steht in einer langen kunsthistorischen Tradition. Im Werk des Medienkünstlers Felix Kraus ist sie jedoch nicht das Endergebnis, sondern vielmehr der Anfangspunkt eines vielschichtigen Schaffensprozesses mithilfe digitaler Tools. Dieser Prozess kulminierte zuletzt in der Virtual-Reality-Arbeit des von ihm gegründeten Swan Collective mit dem Titel Here we are von 2018: Elemente seiner analogen Malerei verdichten sich darin zu einer in ihrer beengenden Weite ebenso reizvollen wie verstörenden 360°-Innenarchitektur, in der man sich erst einmal zurechtfinden muss – und dazu trägt nicht unbedingt bei, dass parallel eine Stimme aus dem Off so lapidar wie überzeugend vermittelt, man sei nichts weiter als die geistige Schöpfung des Redners, eine künstliche Intelligenz. Die Kunst der Täuschung wird hier auf hohem literarisch-philosophischem Niveau betrieben – der virtuelle Raum mutiert zur Platon’schen Höhle.

Bewegungen und damit einhergehend die zeitliche Dimension lassen sich in der Malerei derweilen nur unzureichend darstellen – der Akt eine Treppe herabsteigend Nr. 2 von Marcel Duchamp aus dem Jahr 1912 ist das wohl berühmteste Zeugnis künstlerischer Auseinandersetzung mit dieser Problematik: Der Maler zerstückelt die Bewegung in statische Sequenzen, die er simultan auf dem Bildträger festhält. Etwas mehr als einhundert Jahre später bietet die digitale Technik neue Möglichkeiten: Mittels Augmented Reality erweitert Felix Kraus sein Akrylgemälde Cutting Sunday um eine zeitliche Ebene, indem er Licht- und Schattenbewegungen in den dargestellten Innenraum einblendet.

Um diesen Effekt zu erzielen, hat Felix Kraus das Motiv seines Gemäldes mithilfe bildbasierter Modellierung als 3D-Szene in Cinema4D nachgestellt. Nach dem Import in Unity erscheint diese Szene nun, wenn Nutzer/innen sein Gemälde mit der dazugehörigen AR-App scannen. Der fast geisterhafte Effekt wandernder Lichter und Schatten über die Wände der 3D-Szene wird durch einen Unity-Shader erzielt, der die Bewegung von Lichtquellen außerhalb des Raumes simuliert, deren Licht durch die transparenten Fenster in den Raum scheint und die Texturen der Szene an den passenden Stellen aufhellt und abdunkelt.

Text: Maja Stark und Elisabeth Thielen

Über den Künstler:

Felix Kraus ist Initiator des Swan Collective und studierte an der Akademie der Bildenden Künste München und der Hochschule für Gestaltung Karlsruhe. Er erhielt das Stipendium der Studienstiftung des deutschen Volkes. Die Gruppe vermischt unterschiedliche Techniken wie Virtual und Augmented Reality, Malerei, Papierprägung, Literatur und Performance. Werke des Kollektivs wurden in Institutionen wie dem Kunstmuseum Stuttgart, dem Centro Cultural Banco do Brasil in São Paulo, W139 in Amsterdam, dem Kunstmuseum Aalen, der Kunsthalle Schweinfurt oder dem Goethe Institut in Toronto ausgestellt. Zudem hat Felix Kraus als Mitglied des Swan Collective an verschiedenen Screenings und Ausstellungen teilgenommen, darunter in London, Berlin, Hamburg, Bozen, Athen und Tokio. Beim LOOP Festival Barcelona und dem Filmfest Ludwigsburg wurde er für seine Filme mit dem ersten Platz prämiert.

www.felixkraus.com

THERESA REIWER

Avatarbild-Theresa_Farbe
SLOWROOMS_29
SLOWROOMS_57
SLOWROOMS_491
SLOWROOMS_796
SLOWROOMS_802
SLOWROOMS_849
previous arrow
next arrow

TOVIAS

2018/19
augmentierte Rauminstallation
500 x 325 cm
Betreuender Entwickler: André Selmanágić

Theresa Reiwers AR-Arbeit TOVIAS ist Teil eines von der Künstlerin eigens gebauten Narrative Space. Das Narrativ der immersiven Installation besteht darin, dass diese von der fiktive Firma WELCOME HOME in schmerzhaft zugespitztem Marketing-Jargon als Smart-Home-Prototyp der Reihe SLOW ROOMS beworben wird. Beglaubigt wird die Fiktion durch ausdifferenziertes Corporate Identity, Webseite und Social Media-Auftritte sowie durch Print-Broschüren, in denen etwa zu lesen ist: „Egal, ob es um die Wahl der Dinnermusik, das Bild im Flur oder die richtige Lichtstimmung geht: Ihr Ambience Enhancer weiß schon was Sie brauchen, bevor Sie es wissen.“

Der Theatergast wird in dieser Geschichte zum Probewohnen eingeladen. Binnen 20 bis 30 Minuten darf das Smart Home in absoluter Isolation getestet werden. Dadurch, dass die Wohnung nur allein betreten werden kann, wird die gesamte Erfahrung intensiviert und das neue Zuhause kann seine „zertifizierten Entspannungs-Tools“ individualisiert einsetzen. Neuestes Feature der SLOW ROOMS ist das TOVIAS-Paket. Der Name steht dabei für „Tool for Virtual Associate“, ein Add-On, das dem Smart Home Leben einhauchen soll. Mittels entsprechender Technik erfahrbar, sorgt TOVIAS dafür, dass man sich in einem SLOW ROOM niemals alleine fühlt – es sei denn, man möchte dies. Auf Knopfdruck an- und ausschaltbar, vereint er, so die Broschüre, alle positiven Effekte der Gemeinschaft, ohne deren Nachteile mit sich zu bringen. Ob das menschliche Grundbedürfnis nach Gesellschaft wirklich so einfach zu befriedigen ist, gilt es in Reiwers Installation empirisch zu erforschen: Mittels einer HoloLens lässt sich ein leicht geisterhaft wirkender AR-Avatar wahrnehmen, der wie selbstverständlich alltäglichen Beschäftigungen in der Wohnung nachgeht.

Nur oberflächlich übertüncht das Corporate Design der WELCOME HOME dabei mit seinen Pastellfarben eine Dystopie, bei der Selbstoptimierungszwänge und unreflektierte Technikbegeisterung im Mittelpunkt stehen und in der das vermeintlich traute Heim zur fremdbestimmten Isolationszelle mutiert. Die Arbeit Theresa Reiwers steht damit in einer Tradition nicht unrealistischer Zukunftsvisionen, die von George Orwells 1984 über Juli Zehs Corpus Delicti bis hin Fernsehserie Black Mirror reichen. Der technische Fortschritt im Zuge der Digitalisierung ist atemberaubend – und dies kann, so verdeutlicht Reiwers Narrative Space, bei mangelnder Reflexion und Rückkopplung mit den Werten einer freien Gesellschaft durchaus wortwörtlich verstanden werden.

Theresa Reiwers Anwendung wurde mithilfe einer Microsoft Hololens umgesetzt, die dem Nutzer einen hohen Grad an Immersion und freie Hände während des Augmented Reality Erlebnisses erlaubt. Der virtuelle humanoide Mitbewohner wurde mithilfe von Adobe Fuse in 3D modelliert und mittels dem Online-Tool Mixamo mit einigen grundlegenden Animationen (wie etwas für Gehen, Sitzen oder Auf-dem-Smartphone-Tippen) versehen. Die verschiedenen Animationsstadien und damit die unterschiedlichen Handlungen des virtuellen Mitbewohners werden durch eine Utility-basierte Künstliche Intelligenz kontrolliert, wie sie etwa von Computerspielen wie Die Sims bekannt ist. Dabei hat der Mitbewohner eine Reihe verschiedener Bedürfnisse (Hunger, Müdigkeit, Langeweile, …), deren Variablen sich durch vergehende Zeit und andere Handlungen stetig ändern. Der humanoide Charakter handelt schließlich stets nach dem aktuell dringlichsten Bedürfnis, während er sich durch die Wohnung bewegt.

Text: Theresa Reiwer, Maja Stark und Elisabeth Thielen

Über die Künstlerin:

Theresa Reiwer studierte Theater und Film an der Freien Universität Berlin und der Bilgi Üniversitesi in Istanbul. Für ein anschließendes Studium in Bühnen- und Kostümbild an der Kunsthochschule Berlin Weißensee erhielt sie das Mart Stam Stipendium. Sie arbeitete für die Performance-Gruppe Showcase Beat Le Mot und realisierte mehrere eigene Projekte, etwa im bat-Studiotheater in Berlin und im Gauß-Theater Hamburg. Der Spielfilm Jibril, für den sie das Produktionsdesign entwarf, wurde im Rahmen der offiziellen Auswahl der Berlinale 2018 gezeigt und erhielt den Preis des Studio Hamburg als „Bester Film“. Als Fotografin hat sie Arbeiten in Gruppenausstellungen gezeigt und Music Artwork gestaltet. Als Lichtdesignerin realisierte sie darüber hinaus mehrere Multimedia-Installationen. Derzeit befasst sie sich mit digitaler Medienkunst einschließlich Augmented Reality.

www.theresareiwer.de

ULRIKE SCHMITZ

Marker Ulrike Schmitz
The lizards are not what they seem
previous arrow
next arrow

THE LIZZARDS ARE NOT WHAT THEY SEEM

2019
augmentierter Tintenstrahldruck
60×40 cm
Unterstützender Entwickler: Leonid Barsht

Seit den Anfängen der Wissenschaft zieht der Mensch Bilder, Grafiken und Modelle heran, um Theorien zu untermauern und Thesen zu stützen. Nicht erst seit der Perfektionierung digitaler Bildbearbeitung sind dabei »Fake Views« (Zitat) mächtige Werkzeuge zur unabsichtlichen wie auch zur gezielten Realitätskonstruktion. In der visuellen Kunst wird diese Konstruktion seit der Antike ganz bewusst betrieben, etwa um die technische Virtuosität Kunstschaffender und die Täuschbarkeit des menschlichen Auges zu demonstrieren. In der Wissenschaft jedoch geht mit jeder bildhaft bewiesenen These ein Wahrheitsanspruch einher, der in krassem Widerspruch zur willentlichen Täuschung steht. Hier ist diese kein goutierter Kunstgriff, sondern ein gegen den Wissenschaftsethos verstoßendes Tabu, das die Suche nach der Wahrheit bis hin zu deren ideologischen Verschleierung verfälscht.

Mit den Grenzen zwischen wissenschaftlichen und ideologischen Visualisierungen befasst sich die Künstlerin Ulrike Schmitz in ihrer mehrteiligen AR-Arbeit The lizards are not what they seem. Hierzu greift sie auf zwei ganz unterschiedliche Wirklichkeitserzähler zurück, deren Thesen jedoch beide um die Frage nach genetischer Determination des Menschen kreisen: Auf der einen Seite der Wiener Zoologe Paul Kammerer (1880–1926), der Anfang des 20. Jahrhunderts an Feuersalamandern und letztlich mit manipulierten Fotografien beweisen wollte, dass unsere Gene durch gesellschaftliche Lebensumstände verändert werden können. Auf der anderen Seite der britische Verschwörungstheoretiker David Icke (* 1952), der mithilfe fragwürdigen Bildmaterials die Existenz sogenannter Lizard People zu untermauern versucht. Laut Icke ist die Menschheit eine unterjochte Züchtung dieser Reptilien-Aliens. Prominente wie Queen Elizabeth, George W. Bush oder die Clintons sind laut Icke allesamt Lizard People – eine Theorie, an die in den USA immerhin 4 % der Bevölkerung glauben.

Wie in einer Petrischale mit Kontrastmittel versehen und mikroskopisch vergrößert, zeigt die Künstlerin hier zwei maskenartige Menschenkopfmodelle, die einer blauverwaschenen Lösung zu entschweben scheinen. Eine zellähnliche Struktur am rechten unteren Bildrand verstärkt den Eindruck eines unheilvollen mikrobiologischen Experimentes. Das grünlich fluoreszierende Profil im Hintergrund scheint eine Metamorphose zur Echse zu durchlaufen – die Umrisslinie ist wie von unsichtbarer Hand gezeichnet, jedoch noch nicht vollends ausgefüllt. Oder führt sie als nachträglich ergänzte Linie erst den manipulierten Beweis des Echsenseins? Wer sich mit der Lizard-People-Theorie David Ickes und ihren Bezügen zum Dunstkreis Barack Obamas auseinandersetzt, wird das umrissene Profil in der dazugehörigen Ikonografie wiederfinden.

Durch Augmented Reality setzt sich die vordere Maske in Bewegung und zeigt sich wie eine vollplastische Skulptur aus verschiedenen Perspektiven. Es wirkt, als sei sie die modellierte Vorstufe einer wissenschaftlichen Züchtung oder gar Mutation zur – um Icke zu zitieren – „reptiloiden Rasse“. Dabei lässt sich in Hinblick auf die zentrale Thematik nicht zuletzt eine bewährte Faustregel ableiten: Vermeintliche Rassenmerkmale werden immer ein untrügliches Merkmal zur Unterscheidung von Täuschung und Wahrheit, von Ideologie und Wissenschaft bleiben.

Im Rahmen der technischen AR-Entwicklung von besonderer Bedeutung war die stetige Veränderung der zu augmentierenden Elemente in Hinblick auf deren Position, Rotation und Größe. Zunächst schien daher die Erzeugung von Animationen innerhalb von Unity nahe zu liegen. Letztendlich war es jedoch sinnvoller, zur Veränderung der genannten Eigenschaften wiederverwendbaren Code zu implementieren. In Form verschiedener Skripte wird dieser den einzelnen zu augmentierenden Elementen zugewiesen. Somit kann etwa schnell eingestellt werden, auf welcher Achse und wie schnell ein Element rotieren soll.

Text: Maja Stark und Leonid Barsht

Über die Künstlerin:

Ulrike Schmitz lebt in Berlin. Nach Jurastudium und Promotion hat sie im Jahre 2012 ihren Abschluss an der Ostkreuzschule für Fotografie in Berlin gemacht. Aktuell arbeitet sie an ihrer Abschlussarbeit im postgraduierten Masterstudiengang Art in Context an der Universität der Künste Berlin bei Prof. Dr. Heiser. In ihren künstlerischen Arbeiten setzt sie sich mit Phänomenen der Wissenschaft und deren Wechselwirkung mit gesellschaftlichen Strukturen und Wertungen auseinander.

Im Jahre 2015 wurde sie zu dem fünfjährigen weltweiten Ausstellungsprojekt reGeneration3 des Musée de l’Elysée, Lausanne, Schweiz eingeladen und zu PLAT(T)FORM 2016 des Fotomuseum Winterthur, Schweiz. 2018 war sie Teil des Residenzprogramms von WINZAVOD Center for Contemporary Art in Moskau. In 2019 war sie Teil des Unlearning Place im Rahmen der Eröffnungstage von The New Alphabet im HKW in Berlin. Ihre Arbeiten wurden vielfach in Deutschland und international ausgestellt, etwa im Benaki Museum in Athen, im Centro Nacional de las Artes in Mexiko-Stadt, Lishui Art Museum galleries in China, Art Foundation metamatic:taf in Athen und im Museum De Buitenplaats in Groningen, Niederlande.

www.ulrike-schmitz.com