Der Trog

„Der Trog“ ist ein kontaktloses Atem-zu-Wasser-Interface, das mithilfe von Computer Vision den Atem trackt. Die:der Nutzer:in nähert sich einem mit Wasser gefüllten Objekt, nimmt auf einem Stuhl Platz und beginnt zu atmen: Das Wasser reagiert mit einer wellenförmigen Bewegung. Eine Thermalkamera neben dem Objekt erkennt dabei kleine Temperaturunterschiede auf der Haut der*des Nutzer*in und leitet daraus kontaktlos Atemrhythmus und -intensität ab.

“Der Trog“ ist eine Haltung zur ganzheitlichen Anwendung von Computertechnologie. Wie fügt sich kontaktlose Sensorik, durch die der Körper jederzeit erreich- und übersetzbar ist, in eine Zukunft ein, in der digital und physisch nicht mehr abzugrenzen sind? Wie verändert sich die Wahrnehmung unserer Umgebung, wenn wir eine verkörperte Verbindung zu Material und Objekt herstellen können? Wie kann AI die Interaktion zwischen Mensch zu Maschine und Mensch zu Mensch erweitern?

EXPLORER

Jede*r hat sicherlich schon einmal mit dem Mechanismus eines Kugelschreibers gespielt oder mit einem Stift auf andere Gegenstände getrommelt. Aber was passiert, wenn diese alltäglichen Interaktionen zu einem Werkzeug für die Musikproduktion werden?
“Explorer“ kombiniert analoge Prinzipien der Klangerzeugung mit digitaler Verarbeitung, um ein hybrides Sounddesign-Tool für das Sammeln musikalischer Ideen unterwegs zu schaffen. Das Ergebnis ist ein Werkzeug, das die Qualitäten eines Stifts nutzt, um die Eigenschaften verschiedener Oberflächen in einzigartige Klänge zu verwandeln, die in kurzen Loops aufgenommen und überlagert werden können. Auf diese Weise schafft das Projekt einen neuen Charakter für Sounddesign und eine neue Wertschätzung für die Objekte in unserer alltäglichen Umgebung. “Explorer” ermöglicht es professionellen Anwender*innen, besonders innovative Klänge zu kreieren, während Anfänger*innen durch die intuitive Stiftinteraktion ein neuer Zugang zur Musikproduktion ermöglicht wird.

Lass mich dich berühren

Wie lange ist es her, dass du berührt wurdest? Wie lange ist es her, dass du jemanden berührt hast?

Berührungen geben nicht nur psychische, sondern auch emotionale Befriedigung. Dabei ist nicht nur die Berührung selbst wichtig, sondern auch die Haptik. Materialien wie Kunststoff oder Plastik werden eher negativ wahrgenommen, während Materialien, die weich und menschenähnlich sind, als positiv empfunden werden. Die Idee des Soft Roboters ermöglicht ein interaktives Produkt. Das Silikonmodell imitiert menschliche Verhaltensweisen wie das Atmen, indem es sich aufbläht und wieder entleert. Durch die Verformung des Silikonmodells wird Druck auf die menschliche Haut ausgeübt, wodurch ein echter menschlicher Kontakt imitiert werden soll. Die Oberfläche des Silikons ist der menschlichen Haut nachempfunden. Das Silikon wurde außerdem mit einem leitfähigen Material kombiniert, damit es die Berührung durch den Menschen erkennen und darauf reagieren kann.

RAM

Das Projekt RAM erforscht auf innovative Weise die Verschmelzung von Daten und Interaktionsdesign. Eine Sandbox als Schnittstelle lädt dazu ein, verschiedene Facetten der dynamische Beziehung zwischen Mensch und Maschine spielerisch zu ergründen, in dem eine breite Palette von Interaktionen ermöglicht wird. Dieses einzigartige Produkt öffnet die Türen zu verschiedenen Bereichen von projizierten Inhalten, die unser tägliches Leben prägen. Von Architektur über Unterhaltung bis hin zu Bildung bietet RAM eine Spielwiese für haptische Erkundungen. Mit RAM können Nutzer*innen die Qualitäten des Sandes nutzen und so entdecken, entspannen, ausdrücken, verinnerlichen und erforschen, wie er gemeinsam das Gewöhnliche in das Außergewöhnliche verwandeln kann, indem er die Kluft zwischen Technologie und menschlicher Interaktion auf unterhaltsame und kreative Weise überbrückt.

Tunemate

„Tunemate„ ist ein interaktives, modulares Produkt, das für junge Klavierschüler*innen entwickelt wurde und ein innovatives Klavierübungserlebnis bietet. Das Design bleibt in das physische Klavier integriert und zielt darauf ab, die Übungsmotivation durch ein Level-System zu erhöhen. Durch das modulare Design verbessert „Tunemate“ das Engagement und die Spielbarkeit und ermöglicht es den Benutzern, ihre Lernreise individuell zu gestalten. Eines der Hauptmerkmale von „Tunemate“ sind die zwei Modi: Solo- und Matching-Modus. Im Matching-Modus können Spieler*innen aus der Ferne miteinander verbunden werden, was ein gemeinsames Musizieren über räumliche Grenzen hinweg ermöglicht. Im Solo-Übungsmodus verwendet „Tunemate“ eine eingebettete Kamera zur Erfassung der Handbewegungen, um Echtzeit-Feedback und Korrekturen zu liefern, so dass die Benutzer ihre Technik effektiv verfeinern können.

Ecolab

Ecolab ist eine Sammlung von interaktiven VR-Minigames, die verschiedene Aspekte der Nachhaltigkeit im Möbelkonsum auf innovative und fesselnde Weise beleuchten. Die ausgearbeiteten Spiele behandeln die Themen Mikroplastik im Meer und CO2-Speicherung in Wäldern und zielen darauf ab, die Nutzer*innen auf spielerische und experimentelle Weise für diese wichtigen Themen zu sensibilisieren. Die Spiele sind immersiv und explorativ, was die Spieler*innen dazu ermutigt, verschiedene Ansätze auszuprobieren, um ein besseres Verständnis für die Herausforderungen und Lösungen in Sachen Nachhaltigkeit im Möbelkonsum zu gewinnen.

reACT

Bei immersiven Theaterinszenierungen und Kunstinstallationen wird die klassische Trennung von Bühne und Zuschauerraum aufgehoben. Die Besucher*innen nehmen aktiv am Handlungsgeschehen teil und erkunden eigenständig den Bühnen- bzw. Ausstellungsraum. 

Die Realisierung interaktiver Raumerlebnisse erfordert in der Regel eine tiefergehende Auseinandersetzung mit Programmierung und Elektronik. Dies kann durchaus ein Hindernis darstellen. 

Das modulare System „reACT“ ermöglicht es Kreativen ohne technische Kenntnisse, selbstständig interaktive Räume zu gestalten. reACT besteht aus verschiedenen Sensor-Modulen, die mithilfe eines simplen App-Interfaces mit bestehender Bühnenbeleuchtungstechnik verbunden werden können. Bewegungen und Positionen im Raum werden durch das System erfasst und induzieren entsprechend den in der App vorgenommenen Einstellungen Veränderungen der Raumbeleuchtung. Der Raum ist nicht mehr nur Handlungsschauplatz, sondern wird selbst zum Spielpartner.

LIFT

„LIFT“ ermöglicht es den Nutzer*innen, durch direkte Steuerung des Lichts, Räume und ihre Nutzung flexibel anzupassen. Besonders in begrenzten Raumsituationen kann Beleuchtung dabei helfen, Bereiche zu strukturieren und verschiedene Aktivitäten visuell voneinander zu trennen.

LIFT unterstützt Nutzer*innen dabei, Wohnräume durch die Lichtstimmung aktiv auf die eigenen Bedürfnisse abzustimmen. 

Durch eine vertikale „Aufziehbewegung“ wird die Leuchte aktiviert, werden Lichtstärke und Farbtemperatur gesteuert. Zunächst wird auf der Rückseite warmes atmosphärisches Licht auf die Wand abgegeben. Je weiter die Leuchte wie ein Teleskop ausgezogen wird, desto stärker wird der Anteil von kaltweißem Tageslicht, das als „skylight“ an die Decke gestrahlt wird.

Info-Motion

„Info-Motion“ ist ein Projekt, das die Nutzung von Pflanzenbewegungen zur Gestaltung interaktiven Feedbacks erforscht, um Interaktionen natürlicher und intuitiver zu gestalten. 

In einer Welt, in der wir von digitalen Geräten umgeben sind, deren Anzeigen ständig von ablenkenden Benachrichtigungen überflutet werden, strebt Info-Motion danach, die Interaktion durch die Integration physischen, dynamischen Feedbacks in Produkte zu verbessern. Dabei werden die Zustände und Daten von Computern bis hin zu Haushaltsgeräten nachgebildet. Durch subtile, periphere und unaufdringliche Erinnerungen ermöglicht es Info-Motion, uns vorübergehend von der Last digitaler Nachrichten zu befreien. 

Info-Motion besteht aus fünf physischen Objekten, von denen jedes zwei bis drei Arten von dynamischem Feedback bietet und kontextabhängige Informationen vermitteln kann. Durch Gesten oder Berührung können Nutzer*innen direkt mit den Informationen interagieren.

TactKit

„TactKit“ ist ein Toolkit zur Entwicklung von taktilem Feedback für Wearable-Geräte. Es besteht aus Hardware-Modellen und Code zur Modulation taktiler Muster. Unser Tastsinn ist außergewöhnlich und multimodal. TactKit geht über Vibrationen hinaus und nutzt die taktilen Fähigkeiten der Haut. Um eine breitere Palette taktiler Feedback-Muster in Wearable-Geräte zu integrieren, lässt es sich von taktilen Gesten zwischen Menschen inspirieren. 

TactKit dient auch als Online-Plattform, auf der Nutzer*innen Hardware-3D-Modelle herunterladen und voreingestellte Muster-Codes testen können. Sie können das Toolkit verwenden, um taktiles Feedback für ihre Projekte zu entwerfen und zu testen – oder einfach, um mit neuen taktilen Feedbacks zu experimentieren. Auf der Grundlage des Toolkits können aber auch neue Wege zur Entwicklung taktiler Muster entworfen und neue Ideen in die Community eingebracht werden.