電子アート(デジタル)の再現性、すなわち「レプリカ」とは何か、またそれがどのように作用するのかという問いに取り組みました。その試みの副産物として、JavaScriptによる作品が生み出されました。
電子アート(デジタル)の再現性、すなわち「レプリカ」とは何か、またそれがどのように作用するのかという問いに取り組みました。その試みの副産物として、JavaScriptによる作品が生み出されました。
量子コンピュータ(仮想)のためのパンチカード生成ツールです。
このツールは、古典的なビットと量子ビット(キュービット)の比較を通じ、キュービットのインターフェースについて実践的な検討を行っています。論理や計算が、3Dベクトルを用いて理解できるという考えに基づいています。
【操作マニュアル】
• 左側の球体はビットを表しています。
クリックすることで、その「状態」を切り替えることができます。
• 右側の球体はキュービットを表しています。
内側の球体に対して、ドラッグ&ドロップ(x軸およびy軸)やマウスホイール(z軸)を用いることで、その「状態」を3D空間内で操作できます。
• 小さな球体を操作することで、パンチカード出力を切り替えることが可能です。
人間同士の相互作用の機能をNPCに応用する試みです。
2つのグループが対峙し、それぞれ異なる色で表現されています。
どちらか一方のグループを選んでください。
原案のコンセプトは、いわば「弁証法」に基づくものでした。
仮想の水盤の中央に配置された100本の噴水(Blenderのパーティクルシステム)が、深度マップ(白黒動画)によってその高さが制御されます。各噴水は、仮想のRGB LED(Blenderのスポットライト)により照明され、カラーマップ(フルカラー動画)でその色と明るさが制御されます。
このプロジェクトでは、Blenderをサーバーとして、Javaで実装されたクライアントプログラムから3Dアニメーションを動画で制御する仕組みを構築しました。
実装過程では、BlenderのPython環境内でTCPサーバーを別スレッドで安定的に動作させ、Blenderのパラメータやビューポートを操作することに困難を感じました。サーバーはすぐに負荷がかかり、安定動作が難しい状況に陥りました。
この実験は、Blenderのスレッディングの限界を露呈したという意味で成功と言えるでしょう。ただし、今回の実験において、Blenderのスレッディングを改変することは実現できませんでした。
このウェブサイトでお名前を入力すると、そのお名前が次の鑑賞者へのポジティブなメッセージの送信者として登録されます。そして、その後にご自身のアファメーション(肯定の言葉)が表示されます。
これは、C++およびJavaで実装された、街頭で「こんにちは」と挨拶することを奨励するアファメーションプログラムです。
シミュレートされたバーチャルな市民は、色付きの円として表現され、昼間は街を歩きながら互いに挨拶し、色を交換します。互いにコミュニケーションする市民の色が混ざり合い、グループを形成していく様子が描かれます。
夜になると、市民たちはランダムに割り当てられた家に帰宅し、そこでそれぞれの色を再生(リジェネレーション)します。
鑑賞者は、シミュレーションを観察するだけでなく、実際に市民の一人を操作して、遊び感覚でその挙動をコントロールすることも可能です。
さらに、Linuxターミナル向けの小規模な3Dエンジンが、クライアントとして本プログラムに接続し、家々をレンダリングすることで、特定の市民の一人の主観視点を(市民選択機能やミニマップ機能付きで)表示することもできます。
ロールプレイングゲームにおける性別選択を、より流動的で自然なものにするための提案です。
パフォーマンス「Learning」では、実在知能と人工知能の行動の可能性を比較しています。俳優と、ペッパーズ・ゴースト効果によって空間的に表現された3Dキャラクターが、同等の空間で並行して活動します。
両者は初め、立つことができず、パフォーマンスの間にその習得に挑戦します。何度も倒れながら、失敗から学んでいく様子は、見る者に新たな発見をもたらします。
デジタルキャラクターには、遺伝的アルゴリズムというプログラムされた知能が搭載されており、実在の俳優は有機的な脳を持っています。アバターは人間よりも速く立つ方法を学習しますが、その不器用な動きはどこか滑稽で、デジタル技術と人間の真の姿とのギャップを露呈します。一方で、人間は身体的な痛みと、必死に立とうとする姿勢を通して、観る者に深い感情的共感を呼び起こします。
Andreas Bayer
作業プロセスのビデオ
― 人工知能がどのように立つことを学んだか ―
2つの動画の中で、それぞれの顔の表情を比較し、最も類似した表情同士を交換します。
具体的には、1つの顔を持つ2つの動画から顔の特徴を数学的に解析し、各フレームを切り出しました。その後、ユークリッド距離の計算により、最も類似した顔の表情を検出し、もう一方の動画に差し替え、色調補正も施しています。
Deepfakeと似た手法ですが、欠損画像を生成するための専用ソフトウェアは使用していません。
これは、視覚的錯覚とヒューマン・マシン・インタラクションの分野における継続的な研究プロジェクトです。
仮想空間、インタラクティブなメディア、そして3Dオブジェクトのショーケースとして機能します。
このプロジェクトでは、ゲアクツォイク「Gerkzeuk」 を擬人化するために、できる限り説得力のある人間らしい機械とのインタラクションを創出することが求められました。Pepper’s Ghost 効果による(疑似)ホログラフィックな表現はその一端を担っており、クリスタル自体にはカメラ、マイク、スピーカー、マイクロコンピュータが搭載されています。
2015年から取り組んできた人工知能に関する人間の外見やインタラクションのシミュレーションへの考察が、このサブプロジェクトでの技術的実装を通じて、最も具体的かつ集中的な形で具現化されました。
また、バーチャルヒューマノイドの頭部を、ゲアクツォイク「Gerkzeuk」 のペルソナとして、そしてクリスタルに接続された形で表現したものが、展示「ALLEZ ALLEZ」で公開されました。
ソフトウェア実験としては、以下の技術を活用しました:
• OpenFace – 顔認識。ディープラーニングを用いて、コンピュータが顔を識別し、区別し、名前を割り当て、記憶する技術。
• Affdex – 表情認識。7つの基本感情に基づき、観客の顔の表情を解析。
• SpeechRecognition – 音声認識。キーワード検出や自然言語ツールキットを用いた文法解析の実験。
• ChatterBot – 機械学習を活用した対話システム。観客の言葉遣いを学習し、対話で再現。
• Watir Webdriver – コンピュータが自律的にインターネットを利用するためのツール。Google Translate を介してテキスト読み上げプログラムと連携。
• Unity – これらのモジュールを統合するためのゲームエンジン。
その他、制作プロセスから生まれたデザインのアイデア:
クッキーが保存されました。名前は「lang」、サイズは6バイト、保存期間は3日間で、どの言語を希望するかを記憶するために技術的に必要です。優しくしてね!