Interaktive Medien

Glitch Art

 

10/2015 trat ich der Facebookgruppe des Glitch Artist Collective bei, so wie deren Untergruppe Glitch//Request, in der es darum geht, dass Leute Photos (meistens Selfies) posten, welche dann von den hiesigen Glitchkünstlern verfremdet werden. Der rege Austausch hier gab mir den Anstoß Glitch Art zu machen.
Seit dem programmiere und implementiere ich Fragmentshader und Controller in Processing zur künstlichen Erzeugung von Bildfehlern (Glitches).
Diese nutze ich um völlig neue abstrakte Bilder zu erschaffen (nicht zur Bildbearbeitung).
Ursprungsbilder dienen als Datenquelle. Ergebnisse dieser Überverfremdung haben eigenen Charakter, sie ähneln weder Resultaten reiner Bildbearbeitung, noch dem, was 100% generative Shader erzeugen.

Gerkzeuk
Ebenfalls 2015 stellte ich einen Computer namens “Gerkzeuk” her, mit der Intention hiermit einen künstlichen Künstler zu schaffen.

Gerkzeuk

Die Maschine war in der Lage automatisch zufällige Glitch Art zu erstellen. Projektseite
Im Namen dieser Maschine stellte ich anfang 2016 mehrere Drucke in Saarbrücken aus.
(Leider kein gutes Bild der Ausstellungssituation verfügbar)

Objekte, angeblich von der virtuellen Person “Iris”, “lebend” auf dem Computer “Gerkzeuk” geschaffen

Ich konnte einen Käufer gewinnen, welcher ca 20 Exklusivdrucke auf Aluminiumdibond aufgezogen erwarb.

Zwischenzeitlich richtete ich die Maschine so ein, dass sie automatisch auf Instagram, Twitter und teia (damals “hicetnunc”) NFTs publizierte. Auf Teia sind diese Digitalbildschnipsel immernoch zum Kauf angeboten.

Virtuelle Humanoide stellten sowohl das Thema meiner Bachelorarbeit wie auch meiner Masterarbeit dar.
Heute identifiziere ich mich selbst als den Künstler, nicht mehr die Maschine, und möchte lieber selbst Ausstellungen in der Realität machen / erleben.

Arbeitsprozess

Die Softwareeinheit “Manglr”, eine Eigenkreation mit welcher ich die Bilder erzeuge, funktioniert wie ein Compositor für 2D-Shader. (Link zur Arbeitsablage).
Per Drag & Drop schiebe ich eine Bild- oder Videodatei hinein und bestimme anschließend welche Shader mit welchen Parametern dieses Bild verändern sollen.
Diese Auswahl kann auch automatisch / zufällig getroffen werden. Ebenfalls können die Parameter der Shader sich über Zeit langsam verändern. Die Shader sind dann animiert.
Ich beobachte diesen Autopilot-Modus oder bearbeite die Controller manuell, bis mir eine Komposition gefällt. Dann speichere ich Bilder.
Die Auflösung ist hierbei variabel. Maximal stelle ich die größere Seitenlänge auf 20.000 Pixel, was bei 300 DPI Druckschärfe ca 1,70m entspricht. Je nach Shader nimmt das dann etwas mehr Rechenzeit in Anspruch. Kleinere Bilder (bis 20centimer) können in Echtzeit animiert generiert werden (24 Bilder pro Sekunde oder mehr). Bei einigen der Bilder ist Pixelästhetik gut, was die Skalierung von Bildern mit geringer Auflösung auf große Größe erlaubt.
Es folgt ein Selektierungsprozess, in welchem ich noch einmal in alle gespeicherten Bilder hineinfühle – welche Bilder resonieren mit mir? Was wirkt gut?
Was könnte noch etwas Nachbearbeitung (mit GIMP) gebrauchen?

Galerie