Musikinformatik

Musikinformatik ist ein interdisziplinäres Arbeitsfeld, das mit algorithmischen Prozessen experimentiert und sie in den Kontext von Installationen, Kompositionen, Programmen und theoretischen Überlegungen einbettet. Projekte in diesem Bereich können sich mit künstlerischen wie wissenschaftlichen Fragestellungen beschäftigen sowie andere Module ergänzen. Zur Zeit teilt sich am IMM teilt die Musikinformatik in folgende Bereiche ein: Algorithmische Akustik (Algorithmische Klangsynthese, Sonifikation, Philosophie der Informatik, SuperCollider), Hybrid Sound Computing / Erweiterte Systeme (Live Elektronik, Tangible Auditory Interfaces, Halbanaloge Klangsynthese), sowie grafische Programmierung (PureData, Max/MSP). Die Lehrveranstaltungen leben von der Verbindung von praktischer Abstraktion und theoretischer Arbeit am Material.

 

Rhythmische Theorie | Fragmentierte Stimme | Konzeptionelle Tanzmusik

Die Bachelorarbeit von Lukas Truniger (Studiengang Musik und Medien) dreht sich um drei Themenfelder: Stimme, Theorie und elektronische Tanzmusik. Die Verbindungen zwischen den drei Aspekten bilden das Gerüst für die Komposition von elektronischen Stücken. Stimme wird entweder als Klangmaterial stark verfremdet und konkret für das Einsprechen von eigenen Texten verwendet. Es kommen Markov-Ketten als algorithmische Kompositionstechnik und zur Fragmentierung der Texte zum Einsatz. Dabei entstand eine EP mit vier Tracks, welche im Rahmen der Ausstellung Prozess & Reflexion am 25. Juli 2013 in der Betonbox in Düsseldorf in Form von Hörstationen gezeigt wurden. In der Ausstellung waren die Texte zum jeweiligen Stück als generative Visualisierungen zu sehen. Sie enstanden zusammen mit dem Basler Programmier Fabian Frei.

 

#movements

Wie entwickeln sich gesellschaftliche Bewegungen und deren Handlungsstrategien? Und was habe ich eigentlich damit zu tun?

Inspiriert von der Occupy-Bewegung entstand diese audiovisuelle, interaktive, teils in Stereoskopie umgesetzte Installation von Michael Eßer.

Die Erfahrungen, welche die BesucherInnen in der Installation machen sind dabei keinesfalls gleich.

#movements entstand im Rahmen der Fachprüfungen Bild 2 und Ton 2, betreut von Prof. Dr. Heike Sperling und Prof. Julian Rohrhuber.

 

Translokales RundFunkOrchester

Das Translokale RundFunkOrchester ist ein Ensemble für manipulierte Radios, die über DIY-Controller-Schnittstellen in ein drahtloses Computer-Netzwerk integriert sind. Durch die Verschmelzung analoger Klangübertragung, digitaler Netze und Hardware-Programmierung entsteht ein Gefüge aus Technologien, die fast ein ganzes Jahrhundert umspannen. Dies führt zu Fragestellungen zum Verhältnis zwischen den Medien, Produzenten und Konsumenten bzw. Sendern und Empfängern. Das Ensemble versucht auf spielerische-musikalische Weise zu Antworten zu gelangen: In einer improvisierten Klangkunstperformance eines wahrhaft "radiophonen" Orchesters werden die ausrangierten Radioempfänger zu neuen Instrumenten.
Die Gruppe entstand im Jahr 2009 am Institut Für Musik und Medien (zunächst unter dem Namen IMM-Rundfunkorchester) während der Lehrveranstaltung Hybrid Sound Computing von Dozent Hannes Hoelzl.

 

Klangpendel

Die Installation Klangpendel von Maurice Braun und Tom Orr wurde im November 2011 im Deutzer Zentralwerk der Schönen Künste im Rahmen der Kölner Langen Nacht der Museen ausgestellt. Gemeinsam mit Arbeiten von Lukas Truniger und Gerrit Kress, ebenfalls Studierende am IMM, hauchten die acht pendelnden Lautsprecher einer Halle der ehemaligen Motorenwerke Deutz neues Leben ein. Die von Prof. Phillip Schulze betreute Arbeit entstand als Fachprüfung Ton 2 im Schwerpunkt Musikinformatik und wurde unter anderem im Experimentallabor entwickelt. Für Deutz erarbeiteten die beiden Studierenden Algorithmen zur Erzeugung generativer Klangflächen, die sich aus einzelnen Sinus-Tönen und gefiltertem Rauschen zusammensetzten. Eine Dokumentation des gesamten Entwicklungsprozesses ist im Videoblog über die Klangpendel zu finden.

 

Vomvomzum

Analog, digital – egal; auf den Sound kommt es an. Florian Zeeh programmierte in MaxMSP ein Programm, dass verschiedene Parameter (z.B. Frequenz, Lautstärke und Transienten) des live gespielten Saxophons analysiert und synthetisiert.