Offene Lehrveranstaltungen

Das ICEM bietet regelmäßig Lehrveranstaltungen zu Themen der Computermusik und Medienkunst an. Die Module sind für einige Studiengänge Pflichtmodule, jedoch in der Regel offen für alle Studiengänge und im Rahmen des Optionalbereichs des jeweiligen Studiengangs belegbar.

Die Lehrveranstaltungen beginnen immer zum Wintersemester.
Termine und Orte werden zu Beginn der Vorlesungszeit im Wintersemester bei der  Semestereröffnung besprochen, und werden dann im Stundenplan veröffentlicht.

Der Termin zur Semestereröffnung wird unter „Termine“ auf dieser Website bekannt gegeben

Die Seminare im Einzelnen:

Analyse elektronischer Musik (Pfeifer)

Elektronische Musik existiert in der Regel nicht als Partitur. Wie kann man trotzdem etwas darüber herausfinden, wie sie gemacht wurde, und welche Gestaltungsprinzipien die Komponisten eingesetzt haben?

Digital World (Pfeifer)

Welche Geheimnisse verbergen sich in meinem Rechner? Was ist dieses UNIX? Was heisst es, wenn Rechner vernetzt sind? Welche merkwürdigen kostenlosen Programme gibt es? Wie kann ich das alles so miteinander verbinden, das mir der Computer bei der Arbeit hilft, statt mich durch dauerndes Mailen, Chatten und Facebooken von ihr abzuhalten?

Notation (Pfeifer)

Wie schreibe ich welche Musik richtig auf und wie kann mich der Computer dabei unterstützen? Wie schaffe ich es, das die Programme die Partitur so setzen, wie ich es will und nicht ich meine Partitur so setzen muss, wie das Programm es will?

Geschichte der elektronischen Musik (Reith)

Vom Telharmonium zur Musik im Netz ist die Geschichte der E.M. immer auch Kultur- und Technologiegeschichte. In keinem anderen Gebiet sind die Wechselwirkungen zwischen Technik und Ästhetik so nachvollziehbar wie hier.

Musik ohne Computer (Reith)

An Hand des letzten funktionierenden Großsynthesizer SYNLAB lernt man auf ganz analogem Wege musikalische Strukturen und Klänge zu erstellen und diese klassisch auf Mehrspurband zu montieren und zu mischen. Ganz ohne Computer, die das alles immer simulieren wollen. Hier ist das Original!

Tonstudiotechnik (Reith, auch Jogerst, Preu)

Wofür sind eigentlich die vielen Knöpfe? Was ist eine „Record Chain“? Wie ging (früher mal) der Bandschnitt? Welches Mikrophon nehme ich für welches Instrument? WIe nehme ich Sprache richtig auf? Wie findet sich das klassische Tonstudio im Computer als „Digital Audio Workstation“ wieder? Was ist nicht-linearer Schnitt? Auch enthalten ist ein Praxisseminar zur Beschallung, damit auch ausserhalb der Hochschule und ohne fremde Hilfe nur das aus den Boxen kommt, was man will.

Dieser Kurs gilt als „Studioführerschein“.Wer diesen Kurs erfolgreich bestanden hat, darf selbstständig in den elektronischen Studios arbeiten.

Musikalische Akustik und Instrumentenkunde (Reith)

Warum klingt meine Stimme auf manchen Bühnen so seltsam? Und was kann ich dagegen tun? Wieso klingt mein Instrument überhaupt? Warum singe ich so gerne in der Badewanne? Wie stelle ich den Chor am besten auf? Worauf muss ich in den verschiedenen Konzerträumen achten? Warum kann eine Klarinette Dinge, die eine Posaune nicht kann (und umgekehrt?)

Medientheorie (Hahne)

Nahezu alle Bereiche des modernen gesellschaftlichen Lebens sind von Medien begleitet und durchdrungen. Welche gesellschaftliche, kulturelle und letztlich auch ästhetische Veränderungen hat dies in der Vergangenheit bewirkt und welche Veränderungen kann man in der Zukunft erwarten? Und wie können wir, als Künstler, unsererseits an diesen Prozessen teilnehmen und sie vielleicht sogar aktiv mitgestelten?

Film- und Medienanalyse (Hahne)

Film- und Medienkunst sind, wie Musik, Zeitkünste und ihre Kompositionen können gleichermassen analysiert werden. Dabei treten sowohl Vergleichbarkeiten als auch Unterschiede zwischen den einzelnen Kunstformen hervor.

Kamera und Optik (Schlappa)

Mit dem Handy kann man Filme machen. Mit einer guten Kamera, und dem Wissen, wie man sie richtig benutzt kann man bessere Filme machen. Wenn man dann noch weiss, warum das eine besser und das andere schlechter ist, kann man noch bessere Filme machen. Nicht nur für Familienfeiern und im Urlaub, sondern auch für Bewerbungsvideos und sogar in der Kunst

Musikinformatik (Neuhaus)

Viele Computerprogramme schreiben dem Benutzer vor, wie sie zu benutzen sind. Bessere Computerprogramme geben dem Benutzer die Möglichkeit, mehr oder weniger selbst zu bestimmen, was man eigentlich will. Sie sind per Script steuerbar oder bieten gleich eine Schnittstelle zur eigenen Programmierung. 
Nur schade, dass man nicht programmieren kann! Programmieren heisst, das was man von dem Computer will in einer formalen Sprache (die der Computer dann schlußendlich verstehen kann) auszudrücken. Hier kann man es lernen.

Klangsynthese (Neuhaus)

Im Computer sind alle Klänge nur lange Reihen von Zahlen, die dann (von D/A Wandlern übersetzt) wieder in die analoge Welt zurückübertragen werden. Wie kann man solche Sequenzen im Computer erzeugen? Und wie werden daraus dann nicht nur Klänge sondern sogar interessante Klänge? Wie kann ich einen Klang (der vielleicht mit einem Mikrophon aufgenommen wurde) so verändern, dass ein neuer (interessanterer?) Klang entsteht?

Live Elektronik (Neuhaus)

Instrumente, Stimmen, Bewegungen, Objekte interagieren mit einem Klang- oder Bilderzeugenden Computersystem. Klänge werden verfremdet, aufgezeichnet und wiedergegeben. Tänzerische Gesten steuern musikalische Gesten. Objekte werden zu Interfaces für virtuelle Instrumente.
Wie geht das? Wir probieren es aus.
Je mehr unterschiedliche künstlerische Disziplinen sich in dieser Arbeit beteiligen, desto spannender die möglichen Projekte, die daraus entstehen können.

Sonderseminare und LABS

Informationen dazu werden gesondert bekannt gegeben.