Mars is stupid

“Mars ist doof” – Eine Lektüre auf dem Mars von Skip Mantletons “Mars is stupid” (1974), vorgelesen vom Sprachroboter Brian.
Er liest die Paragraphen des Buches in zufälliger Reihenfolge vor, wodurch sich 5,443449391×10⁹² verschiedene Szenarien ergeben, jede mit einer Lesezeit von circa 13 Minuten.

Walter Giers – Kleiner Stern (1990) – Digitales Replikat

Beschäftigung mit der Frage wie und ob man elektronsiche Kunst (digital) reproduzieren kann, was ein Replikat überhaupt ist, und wie es wirkt. Zu sehen ist das dabei entstandene Nebenprodukt in JavaScript.

ESKIN5 Basel

Wir erweiterten die Kommunikationspotentiale sehbehinderter Partizipienten durch technische Prothesen, durch welche sie ihre Körper als Licht- und Klanginstrumente einsetzen konnten.
Hierbei kamen ein Armband mit Gestenerkennung der Hände, Beschleunigungs- und Gyrosensor, eine in der Hand zu haltende Kugel mit Gyro- und Magnetfeldsensor und eine Kinect zum Einsatz.
Mit quadrophonem Audiosetup und Max/MSP stellten Vanessa Barrera Giralda und ich hiermit eine für die Blinden interaktive Klangsphäre her. Andrew Quinn und Davide Santini nutzten TouchDesigner um die Bewegungen der Teilnehmer erweiterten visuellen Einfluss auf einer Leinwand nehmen zu lassen. Auch der Klang wirkte auf die Bilder.
Dr. Daniel Bisig stattete zudem die Direktorin des Projektes Jill Scott mit elektronischen Schuhen aus, welche bei jedem Auftritt Klänge von lautem Stampfen ansteuerten, sinnbildlich für den ökologischen Fußabdruck 🙂
Mit den fünf Teilnehmern wurde im Untergeschoss des Hauses der elektronischen Künste Basel von den beiden Choreographen Dominique Cardito und Tommi Zeuggin im Verlauf einer Woche eine Tanzperformance erarbeitet.

Die ganze Performance im Video:

Alumni. Prof. Dr. Jill Scott arbeitet als Künstlerin und Wissenschaftlerin mit den Sinnen.
Ihre Frau Alumni. Prof. Marille Hahne fragte mich, ob ich nicht etwas Max/MSP programmieren wolle für ein Projekt, welches inklusiv für Sehbehinderte wirkt, den Seh-, Hör- und Tastsinn erforscht und den Klimawandel thematisiert.
Das Ergebnis wurde ein Controller zur Soundsteuerung (Sampling, Synthese, Effekte) durch Armbewegungen und Handgesten, welche durch MYO-Armbänder erfasst wurden, welche von jedem Akteur getrugen und deren Bedienung erprobt wurde.


MAX/MSP Audio-Controller für sechs MYO-Armbänder, 4 Tonspuren, 2 Effekte pro Spur (Code auf Anfrage)


Ein MYO-Armband (Stock Photo)

Einladung vom Haus der elektronischen Künste Basel:

ESKIN 5 Basel ist ein inklusives Medienkunstprojekt zum Thema Klimawandel unter der Leitung der schweizerisch-australischen Medienkünstlerin Jill Scott. Während einer Workshop-Phase wurden unter Einbezug von Klangobjekten, tragbaren Technologien, interaktiven Grafiken und real-time Computerinteraktionen gemeinsam fünf Szenen auf einer neuartigen Medienkunstbühne erarbeitet. Unter der Kollaboration von fünf Darsteller*innen, zwei Choreograf*innen, sechs Medienkünstler*innen und zwei wissenschaftlichen Berater*innen ist eine spektakuläre audiovisuelle Performance entstanden, die einen emotionalen Dialog zwischen den Darstellern  und den Zuschauern schafft.

Die fünf Szenen in ESKIN 5 Basel haben folgende Inhalte: Landleben, Stadtleben, Flüsse, Wälder und nachhaltiges klimabewusstes Leben. Einzelne Informationen und Bildmaterialien wurden vom Crowther Lab an der ETH Zürich und dem Atmospheric Sciences Meteorology Institute für Klimatologie an der Universität Basel zur Verfügung gestellt. Diese Informationen und persönliche Erfahrungen werden kreativ von der ESKIN Gruppe zu einer 40-minütigen interaktiv gesteuerten audiovisuellen Aufführung verwoben.

ESKIN will das Publikum ermutigen proaktiv zu werden für den Erhalt unserer Natur und dazu beizutragen, die menschlichen Einwirkungen auf unsere Umwelt zu reduzieren. Im Anschuss an die Vorführungen gibt es Publikumsgespräche mit allen Beteiligten.

Regie: Jill Scott

Choreographie: Dominique Cardito und Tommi Zeuggin

Teilnehmer*innen mit Sehbeeinträchtigung: Roberto Collidoro, Pina Dolce, Daniel Fernandes, Leila Grillo, Nicole Sourt Sánchez

Medienkunst Team unterstützt von: Hahne/Scott AIL Production, Zürich

Bühnenbild, Ton, Visuals, Programmierung, Film:  Marille Hahne, Koordination, Bühnenbild, Dokumentation  /  Andrew Quinn, Interactive Graphics  /  Vanessa Barrera Giraldo, Sound Interaction Design  /  Victor Giers,  Interactive sound customization  /  Olav Lervik, Electronic Music  /  Scene 5 by Daniel Fernandes  /  Daniel Bisig, Wearable shoes.

Vermittlung: Lucie Bader Promotion

Beschreibungstext von Jill:

IDEA OF ESKIN at HeK ( In English) 

Eskin is a performative tribute to nature and to the re-wilding or re-design of our local environments. It is based on a technical platform that encourages local empowerment for those who want to be included in the cultural debate on climate change and speak out about pollution and energy use.  Eskin in Basel, is the second collaboration with visually impaired persons that gives them a chance to be included in this debate. Alongside choreographers, scientific consultants and artists, these participants work in this project, one that was initiated by Swiss Australian media artist Jill Scott.  The participants will perform five interlinked scenes on a unique stage with customized sound objects, interactive graphics, dancers, computer interaction and wearable technologies. The aim is to educate the audience and encourage them to be pro-active about climate change.

 

THE 5 SCENES OF ESKIN 

Scene 1. Homeland and the Farm

This scene is based on the healthy memories we have from childhood about the farmland around us. The sound of cows and other animals and the land itself as well as the tastes from local food that grows on it. These tactile pleasures and sound sensations from our own childhood memories of the Swiss landscape illustrate how our changes in temperature are shifting these memories.

Scene 2. Our energy use and the City

This scene maps the energy use in our cities as seen from an aerial perspective. It uses satellite data from Basel to create an impression of how the distribution of our energy from industries and pollution from our activities such as commuting and industrial production will affect our physical health.

Scene 3. River and Pollution

This scene compares the beauty of abundant Swiss river water with the effect on water quality of our own waste and agricultural and glacial run-off. Also, micro-plastic waste is featured here as an analogy and its effect on life under the water and our drinking water.

Scene 4. Forest and Extinction

This scene shows the relation between climate change and the effects on biodiversity. It features the affects of higher temperature levels and how predator-prey relationships are already changing and may shift again in the future.

Scene 5. Mitigation and Adaptation

This scene is a call to the audience to get up, demonstrate and be engaged in the improvement of local conditions. It features action based on teamwork as a necessary element to look at the problems of adaptation and encourage mitigation. Mitigation (auf Deutsch: Eindämmung des Klimawandels) is the acceptance of climate change with the need for our action to lessen the future climatic effects of it.

 

Additional posters in the theater space: We plan to exhibit five relevant posters featuring related solutions in the space.

http://www.pinadolce.com/projekte/

Deaths

Visualisierung der Sterberate realer Menschen im Vergleich zur Sterberate virtueller Humanoider.
Szenewechsel durch Klicken.
Das Problem am vielen virtuellen Sterben der virtuellen Humanoiden: Das Sterben erscheint viel gewöhnlicher, als es in Wahrheit ist. Durch das Erleben überproportional häufigen Sterbens nimmt es Normalität ein – man stumpft ab.
Beispielhafte Datenvisualisierung als Zeiger auf die Verzerrung der eigenen Wahrnehmung durch medialen Einfluss.

Overdose

Online Gallerie für non-narrative Ausstellungen (Zufallsreihenfolge).

Hydromatrix Controller

100 virtuelle Fontainen (Blender-Partikelsysteme) in der Mitte eines virtuellen Wasserbeckens werden per Tiefenkarte (schwarz/weiß-Video) in ihrer Höhe gesteuert. Jede Fontaine wird von einer virtuellen RGB-LED (Blender-Spotlights) beleuchtet, welche per Farbkarte (farbiges Video) in ihrer Farbe und Helligkeit gesteuert werden.

Blender wird als Server von einem Clientprogramm, geschrieben in Java, angesteuert, um 3D Animation per Video zu steuern.

Es ergaben sich Schwierigkeiten einen TCP-Server in Blender Python, welcher Parameter sowie Viewport von Blender ansteuert, in einem seperaten Thread von Blenders Python-Runtime stabil laufen zu lassen – der Server “überlastete” schnell.
Das Experiment war also in der Hinsicht erfolgreich, als dass es die Grenzen des mir Möglichen aufwies – Blenders Threading umzuprogrammieren war mir für dieses Experiment nicht möglich.

Babylon Pogo

 

“Silent Speech Interfaces, Mind Uploading, Hochleistungsprothesen und Unsterblichkeitsgene – die Möglichkeiten, Geist und Körper, Kommunikation und Arbeitswelt zu optimieren, sind heute so radikal wie nie zuvor. Während die einen vom Übermenschen träumen, fürchten die anderen den Untergang der Menschheit. Stehen wir wirklich vor einer neuen Stufe der Evolution? Wieviel Möglichkeit oder Absurdität steckt in der Beziehung zwischen Mensch und Technik? Ein Theaterprojekt über den Traum von der Perfektion und die Sehnsucht nach Unsterblichkeit.”

Konzeption / Textcollage: Nina Schopka, Gregor Wickert, Grigory Shklyar
Schauspiel / Textcollage: Nina Schopka, Kathrin Flüs, Nicolas Marchand, Elodie Brochier, Elfie Elsner, Markus Müller
Design / Ausstattung: Gregor Wickert
Visuals: Grigory Shklyar

Die szenische Umsetzung erarbeiteten wir im kollektiven Prozess.

in Kooperation mit Victor Giers und dem xm:lab./HBKsaar
Koproduzent Compagnie TGNM/Forbach

Lichtdesign: Krischan Kriesten
Ton: Marco Tiziano Alleata, Tobias Paulus

Regieassistenz: Sue Franz
Ausstattungsassistenz: Isabella Dahm
Dramaturgische Beratung: Nicola Käppeler

Technische Produktionsleitung: Christian Held
Presse und Öffentlichkeitsarbeit: Stephanie Thielebörger
Social Media Support: Monika Swatkowska
Ticketing Support: Aysel Kahraman
Hospitanz: Teresa Esser, Mirka Borchardt
Finanzen: Josephine Kretschmer
Grafik: Ilka Fugmann

Premiere fand am 2. Dezember 2017 im Garelly-Haus Saarbrücken statt.
Eingeladen zum 41. Festival Perspectives.

Schacht und Heim - Animationsvideo für Bergmannsausstellung

Auf Einladung des Deutschen Zeitungsmuseums begann eine studentische Arbeitsgruppe der Hochschule der Bildenden Künste im Frühjahr 2016, sich mit der Zeitschrift „Schacht und Heim“, Werkzeitung der Saarbergwerke, zu befassen.

In einer 270° Bildschirmkammer in der Ausstellung “Schacht und Heim” wurde die virtuelle “Schachtfahrt, die 3D Renderings unseres Ateliers, präsentiert.

Kooperation des Deutschen Zeitungsmuseums mit der Hochschule der bildenden Künste Saar.

https://www.schachtundheim.de/information
https://www.schachtundheim.de/schacht-heim-projekt-ansehen/schachtfahrt

Vergleich zwischen künstlicher und realer Intelligenz

In der performance “Learning” werden die Handlungspotenziale von realer und künstliche Intelligenz miteinander verglichen, indem ein Schauspieler und ein 3D-Charakter (räumlich visualisiert durch Pepper’s Ghost-Effekt) in äquivalenten Räumen parallel agieren.
Beide sind zunächst unfähig zu stehen und versuchen, dies während der Dauer der Performance zu erlernen. Die Akteure fallen hierbei immer wieder zu Boden und versuchen aus ihren Fehlern zu lernen.
Der digitale Charakter ist mit einem genetischen Algorithmus, einer programmierten Intelligenz, ausgestattet, der reale Charakter verfügt über ein organisches Gehirn.
Der Avatar erlernt das Stehen schneller als der Mensch, wirkt jedoch zugleich in seinen unkoordinierten Handlungsabläufen lächerlich und offenbart hierdurch die Distanz der digitalen Technologie zum wirklichen Menschen.
Der Mensch hingegen erzeugt in seinem körperlichen Schmerz und in seinen verzweifelten Versuchen zu stehen eine emotionale Anteilnahme beim Betrachter.

Andreas Bayer

Video des Arbeitsprozesses, wie die KI stehen lernte:

Video-Faceswap

Gesichtsausdrücke zweier Videos werden verglichen, die Ähnlichsten werden getauscht.
Gesichtseigenschaften aus zwei Videos mit einem Gesicht habe ich mathematisch ausgewertet und die Bilder herausgeschnitten, durch euklidische Distanzberechnung werden die ähnlichsten Gesichtsausdrücke gefunden, in das andere Video hineingeschnitten und farblich korrigiert.
Ähnliches Prinzip wie Deepfake, aber ohne Software zur Errechnung “fehlender” Bilder.