Der KI-Synthesizer macht es möglich, den Content von electronic ID kreativ mit und durch diverse KI-Module zu verbinden. Das Material kann so z.B. durch Motion-Tracking gesteuert und generative KI-Outputs erforscht werden. Die generativen Outputs entstammen neuronalen Netzen, die mit dem eID-Content der letzten Jahre trainiert wurden.
In den vergangenen Jahren ist die Realisation traditioneller Konzertformate nicht einfach gewesen. Für electronic ID wurden die Umstände zur Chance und unsere ohnehin ständig stattfindende Suche nach neuen Konzert- und Aufführungsformaten rückte in den Fokus einer breiten Öffentlichkeit. Wir suchten nach einem diskursiven Bindeglied plattformübergreifender Online-Konzerte.
Wir wollten eine neue und bisher nicht dagewesene Verbindung zwischen Zeitgenössischer Musik und Zuschauer*innen im digitalen Raum schaffen. Diese Verbindung sollte gleichzeitig die Einladung an das Publikum sein, selbst aktiv zu werden. So soll die Einbahnstraße digitaler Kommunikation und Vermittlung aufgelöst werden.
Bei der Entwicklung des KI-Synthesizers wurde Wert auf ein offenes Framework gelegt, das sich problemlos mit neuen Modulen erweitern lässt. Geplant ist mittelfristig, dass der Synthesizer als Open-Source-Projekt zur Verfügung gestellt wird, in der Hoffnung, dass wir auch weiterhin starke Partner*innen finden, mit denen wir die Idee weiter vorwärts bringen können. Durch die Möglichkeit, stets neue Module einzubauen, sind die künstlerischen Möglichkeiten des Synthesizers beinahe grenzenlos.