Interaktive Medien

Glitch Art

Farbenfrohe, abstrake Texturen, erzeugt durch absichtlich herbeigeführte Fehler in digitaler Bilddarstellung.

Aktuell
Zur Projektseite der Ausstellung “Buntes Rauschen” geht es >hier<

Hintergrund

10/2015 trat ich der Facebookgruppe des Glitch Artist Collective bei, so wie deren Untergruppe Glitch//Request, wo Photos von Personen (meistens Selfies) von Glitchkünstlern verfremdet werden. Der rege Austausch hier gab mir den Anstoß selbst Glitch Art zu machen.
Seitdem programmiere und implementiere ich Fragmentshader und Controller in Processing zur künstlichen Erzeugung von Bildfehlern (Glitches).
Diese nutze ich um völlig neue abstrakte Bilder zu erschaffen (nicht zur Bildbearbeitung).
Ursprungsbilder dienen als Datenquelle. Ergebnisse dieser Überverfremdung haben eigenen Charakter, sie ähneln weder Resultaten reiner Bildbearbeitung, noch dem, was 100% generative Shader erzeugen.

Gerkzeuk
Ebenfalls 2015 stellte ich einen Computer namens “Gerkzeuk” her, einen künstlichen Künstler.

Gerkzeuk

Die Maschine ist in der Lage eigenständig (automatisch) Glitch Art zu produzieren. Projektseite
Im Namen dieser Maschine stellte ich anfang 2016 mehrere Drucke in Saarbrücken aus.
(Leider kein gutes Bild der Ausstellungssituation verfügbar)

Objekte, von der virtuellen Person “Iris”, “lebend” auf dem Computer “Gerkzeuk” geschaffen

Zwischenzeitlich richtete ich die Maschine so ein, dass sie automatisch auf Instagram, Twitter und teia (damals “hicetnunc”) NFTs publizierte. Auf Teia sind diese Digitalbildschnipsel immernoch zum Kauf angeboten.

Virtuelle Humanoide stellten sowohl das Thema meiner Bachelorarbeit wie auch meiner Masterarbeit dar.
Heute identifiziere ich nicht mehr die Maschine sondern mich selbst als den Künstler, und bevorzuge reale Ausstellungen gegenüber virtuellen.

Arbeitsprozess

Die Softwareeinheit “Manglr”, eine Eigenkreation mit welcher ich die Bilder erzeuge, funktioniert wie ein Compositor für 2D-Shader. (Link zur Arbeitsablage).
Per Drag & Drop schiebe ich eine Bild- oder Videodatei hinein und bestimme anschließend welche Shader mit welchen Parametern dieses Bild verändern sollen.
Diese Auswahl kann auch automatisch / zufällig getroffen werden. Ebenfalls können die Parameter der Shader sich über Zeit langsam verändern. Die Shader sind dann animiert.
Ich beobachte diesen Autopilot-Modus oder bearbeite die Controller manuell, bis mir eine Komposition gefällt. Dann speichere ich Bilder.
Die Auflösung ist hierbei variabel. Maximal stelle ich die größere Seitenlänge auf 20.000 Pixel, was bei 300 DPI Druckschärfe ca 1,70m entspricht. Je nach Shader nimmt das dann etwas mehr Rechenzeit in Anspruch. Kleinere Bilder (bis 20centimer) können in Echtzeit animiert generiert werden (24 Bilder pro Sekunde oder mehr). Bei einigen der Bilder ist Pixelästhetik gut, was die Skalierung von Bildern mit geringer Auflösung auf große Größe erlaubt.
Es folgt ein Selektierungsprozess, in welchem ich noch einmal in alle gespeicherten Bilder hineinfühle, und die Spreu vom Weizen trenne.