Vogt

Unter dem Pseudonym Vogt produziere ich Klangsphären, Noise, Ambient, Techno und Breakbeats für Drum’n’Bass und Hip Hop.
Das Studio besteht aus dem Synthesizer KORG MS20, dem Sampler Teenage Engineering K.O. II (EP-133), dem Mischpult Soundcraft Signature 12 MTK, den MIDI-Controllern Novation Launchpad, M-Audio Oxygen8 sowie KORG nanoKONTROL 2, die verwendete Software ist Ableton Live mit den VSTs ROLI Studio und Cyberdrive und dem Interface Max/MSP.
Gerne verwende ich auch Kunstobjekte von Walter Giers für seltene analoge Klänge.

Vogt · Braunes Rauschen / reisevorbereitungsprokrastination

Mars is stupid

“Mars ist doof” – Eine Lektüre auf dem Mars von Skip Mantletons “Mars is stupid” (1974), vorgelesen vom Sprachroboter Brian.
Er liest die Paragraphen des Buches in zufälliger Reihenfolge vor, wodurch sich 5,443449391×10⁹² verschiedene Szenarien ergeben, jede mit einer Lesezeit von circa 13 Minuten.

ESKIN5 Basel

Wir erweiterten die Kommunikationspotentiale sehbehinderter Partizipienten durch technische Prothesen, durch welche sie ihre Körper als Licht- und Klanginstrumente einsetzen konnten.
Hierbei kamen ein Armband mit Gestenerkennung der Hände, Beschleunigungs- und Gyrosensor, eine in der Hand zu haltende Kugel mit Gyro- und Magnetfeldsensor und eine Kinect zum Einsatz.
Mit quadrophonem Audiosetup und Max/MSP stellten Vanessa Barrera Giralda und ich hiermit eine für die Blinden interaktive Klangsphäre her. Andrew Quinn und Davide Santini nutzten TouchDesigner um die Bewegungen der Teilnehmer erweiterten visuellen Einfluss auf einer Leinwand nehmen zu lassen. Auch der Klang wirkte auf die Bilder.
Dr. Daniel Bisig stattete zudem die Direktorin des Projektes Jill Scott mit elektronischen Schuhen aus, welche bei jedem Auftritt Klänge von lautem Stampfen ansteuerten, sinnbildlich für den ökologischen Fußabdruck 🙂
Mit den fünf Teilnehmern wurde im Untergeschoss des Hauses der elektronischen Künste Basel von den beiden Choreographen Dominique Cardito und Tommi Zeuggin im Verlauf einer Woche eine Tanzperformance erarbeitet.

Die ganze Performance im Video:

Alumni. Prof. Dr. Jill Scott arbeitet als Künstlerin und Wissenschaftlerin mit den Sinnen.
Ihre Frau Alumni. Prof. Marille Hahne fragte mich, ob ich nicht etwas Max/MSP programmieren wolle für ein Projekt, welches inklusiv für Sehbehinderte wirkt, den Seh-, Hör- und Tastsinn erforscht und den Klimawandel thematisiert.
Das Ergebnis wurde ein Controller zur Soundsteuerung (Sampling, Synthese, Effekte) durch Armbewegungen und Handgesten, welche durch MYO-Armbänder erfasst wurden, welche von jedem Akteur getrugen und deren Bedienung erprobt wurde.


MAX/MSP Audio-Controller für sechs MYO-Armbänder, 4 Tonspuren, 2 Effekte pro Spur (Code auf Anfrage)


Ein MYO-Armband (Stock Photo)

Einladung vom Haus der elektronischen Künste Basel:

ESKIN 5 Basel ist ein inklusives Medienkunstprojekt zum Thema Klimawandel unter der Leitung der schweizerisch-australischen Medienkünstlerin Jill Scott. Während einer Workshop-Phase wurden unter Einbezug von Klangobjekten, tragbaren Technologien, interaktiven Grafiken und real-time Computerinteraktionen gemeinsam fünf Szenen auf einer neuartigen Medienkunstbühne erarbeitet. Unter der Kollaboration von fünf Darsteller*innen, zwei Choreograf*innen, sechs Medienkünstler*innen und zwei wissenschaftlichen Berater*innen ist eine spektakuläre audiovisuelle Performance entstanden, die einen emotionalen Dialog zwischen den Darstellern  und den Zuschauern schafft.

Die fünf Szenen in ESKIN 5 Basel haben folgende Inhalte: Landleben, Stadtleben, Flüsse, Wälder und nachhaltiges klimabewusstes Leben. Einzelne Informationen und Bildmaterialien wurden vom Crowther Lab an der ETH Zürich und dem Atmospheric Sciences Meteorology Institute für Klimatologie an der Universität Basel zur Verfügung gestellt. Diese Informationen und persönliche Erfahrungen werden kreativ von der ESKIN Gruppe zu einer 40-minütigen interaktiv gesteuerten audiovisuellen Aufführung verwoben.

ESKIN will das Publikum ermutigen proaktiv zu werden für den Erhalt unserer Natur und dazu beizutragen, die menschlichen Einwirkungen auf unsere Umwelt zu reduzieren. Im Anschuss an die Vorführungen gibt es Publikumsgespräche mit allen Beteiligten.

Regie: Jill Scott

Choreographie: Dominique Cardito und Tommi Zeuggin

Teilnehmer*innen mit Sehbeeinträchtigung: Roberto Collidoro, Pina Dolce, Daniel Fernandes, Leila Grillo, Nicole Sourt Sánchez

Medienkunst Team unterstützt von: Hahne/Scott AIL Production, Zürich

Bühnenbild, Ton, Visuals, Programmierung, Film:  Marille Hahne, Koordination, Bühnenbild, Dokumentation  /  Andrew Quinn, Interactive Graphics  /  Vanessa Barrera Giraldo, Sound Interaction Design  /  Victor Giers,  Interactive sound customization  /  Olav Lervik, Electronic Music  /  Scene 5 by Daniel Fernandes  /  Daniel Bisig, Wearable shoes.

Vermittlung: Lucie Bader Promotion

Beschreibungstext von Jill:

IDEA OF ESKIN at HeK ( In English) 

Eskin is a performative tribute to nature and to the re-wilding or re-design of our local environments. It is based on a technical platform that encourages local empowerment for those who want to be included in the cultural debate on climate change and speak out about pollution and energy use.  Eskin in Basel, is the second collaboration with visually impaired persons that gives them a chance to be included in this debate. Alongside choreographers, scientific consultants and artists, these participants work in this project, one that was initiated by Swiss Australian media artist Jill Scott.  The participants will perform five interlinked scenes on a unique stage with customized sound objects, interactive graphics, dancers, computer interaction and wearable technologies. The aim is to educate the audience and encourage them to be pro-active about climate change.

 

THE 5 SCENES OF ESKIN 

Scene 1. Homeland and the Farm

This scene is based on the healthy memories we have from childhood about the farmland around us. The sound of cows and other animals and the land itself as well as the tastes from local food that grows on it. These tactile pleasures and sound sensations from our own childhood memories of the Swiss landscape illustrate how our changes in temperature are shifting these memories.

Scene 2. Our energy use and the City

This scene maps the energy use in our cities as seen from an aerial perspective. It uses satellite data from Basel to create an impression of how the distribution of our energy from industries and pollution from our activities such as commuting and industrial production will affect our physical health.

Scene 3. River and Pollution

This scene compares the beauty of abundant Swiss river water with the effect on water quality of our own waste and agricultural and glacial run-off. Also, micro-plastic waste is featured here as an analogy and its effect on life under the water and our drinking water.

Scene 4. Forest and Extinction

This scene shows the relation between climate change and the effects on biodiversity. It features the affects of higher temperature levels and how predator-prey relationships are already changing and may shift again in the future.

Scene 5. Mitigation and Adaptation

This scene is a call to the audience to get up, demonstrate and be engaged in the improvement of local conditions. It features action based on teamwork as a necessary element to look at the problems of adaptation and encourage mitigation. Mitigation (auf Deutsch: Eindämmung des Klimawandels) is the acceptance of climate change with the need for our action to lessen the future climatic effects of it.

 

Additional posters in the theater space: We plan to exhibit five relevant posters featuring related solutions in the space.

http://www.pinadolce.com/projekte/

Find the Door

Für den “Fun Palace” am Rundgang 2017 an der HBKSaar im Medientheater; Erstellung eines Protokolls zur Kommunikation zwischen Processing und Unity und eines Mappings von VR-Controller-Daten auf das Medientheater.

Laserharfe

Ein MIDI-Controller in Form eines runden Käfigs aus Lasern, ausgestattet mit 32 Dioden und Photoresistoren, acht Ultraschallsensoren und Surround-Sound.
Wenn man einen Laserstrahl durchbricht erklingt ein Ton, ähnlich dem Zupfen einer Saite. Je nachdem auf welcher Höhe man einen Laser “zupft”, variiert die Anschlagstärke.
Wenn man das Instrument begeht, befindet man sich sichtbar erhöht auf einem Podest. An der Decke befindet sich der Empfänger für das Lichtsignal. Dieser kann in beliebiger Höhe aufgehangen werden. Die Laser werden durch Nebel sichtbar gemacht. Die Signale werden von Arduino an den Computer gegeben wo sie mit PureData verarbeitet werden.

Visualizr

Eine Interaktive Tanzfläche, realisiert mit Beamern in einem medialen Theaterraum, Kinects an der Decke, Processing & OpenCV.

Partizipienten waren durch rhythmische Musik und Grafik dazu angehalten zu tanzen. Die Tanzenden konnten durch Bodenprojektion vorgegebene Bewegungen folgen, um spielerisch & tanzend die generative Musik & Grafik mitzugestalten und zu verändern.