30. Mai 2023

0 Kommentare

Künstliche Intelligenz in Lehre und Unterricht: Interview mit Pascal Kaeser, Dozent für Musik

Künstliche Intelligenz in Lehre und Unterricht: Interview mit Pascal Kaeser, Dozent für Musik

Künstliche Intelligenz kreiert auf Befehl Texte, Übersetzungen, Bilder und … Musik. Welche Impulse kann dies Lehre und Unterricht geben? Darüber sprechen wir mit Dozierenden aus verschiedenen Fachbereichen. Im letzten Teil der Serie: Ein persönliches Gespräch mit Pascal Kaeser über Musik, Künstliche Intelligenz und die Veränderung des Digitalen im Allgemein. 

Digital Learning Base:  Kannst du kurz erklären, wer du bist und welche Funktion du an der PHBern hast?  

Ich bin Pascal Kaeser, Fachteamverantwortlicher und Dozent für Musik am Institut Sekundarstufe I der PHBern. Ich unterrichte vor allem zwei Bereiche, "Aktuelle Musik" sowie "Musik und Medien". Gerade dieser letzte Bereich ist im ständigen Wandel. 

Aber ich bin generell sehr interessiert an der Frage, was uns in der (digitalen) Zukunft erwarten wird – an der Pädagogischen Hochschule, aber auch im Hinblick auf die Volksschule. Als Fachteam investieren wir viel Zeit in entsprechende Reflexionen.  

Was auffällig ist: Wenn es um Text und Bild geht, ist generative künstliche Intelligenz – also solche, die Bilder oder Text erstellt – erst mit ChatGPT Ende 2022 wirklich in der breiten Masse angekommen. Anders bei der Musik: Bereits in den 60ern gab es Programme, die die Musik schreiben und analysieren konnten. OpenAI, die hinter ChatGPT stehen, haben mit Jukebox vor vier Jahren ein Modell zur automatischen Generierung von Musik entwickelt. Und vor Kurzem machten Tracks die Runde, in denen mit KI-Hilfe die Stimmen bekannter Künstler wie Drake täuschend echt nachgeahmt worden sind. Ist das Thema für dich also ein alter Hut? 

Nun, im Bereich Musik muss man unterscheiden zwischen der allgemeinen technologischen Entwicklung bis hin zu den digitalen Mitteln, die uns momentan zur Verfügung stehen und der künstlichen Intelligenz, die eine völlig neue Dimension mit sich bringt.  

Wir erleben im Moment mit dem Aufkommen von KI in der Musik einen "Napster-Moment", also einen Moment in Anlehnung an die Schockwelle, welche die erste digitale Musik-Tauschbörse Anfang der 2000er ausgelöst hat. Die Plattenfirmen reagieren im Moment dementsprechend mit Klagen.  
 
Es ist richtig, dass wir in der Musik schon früh die Folgen der digitalen Entwicklung spüren durften. Die trägen Plattenfirmen hatten ihre Mühe, mit den neuen Auswüchsen des Internets klarzukommen – ganz im Gegenteil zu den Konsumentinnen und Konsumenten. Erst in den letzten Jahren wurde mit dem Streaming endlich wieder das grosse Geld gemacht. Und nun kommt der nächste Paukenschlag...  
 
Die Themen, die mit der allgemeinen Digitalisierung zu tun haben, sind daher eher "ein alter Hut" als die neuen Entwicklungen im Bereich der künstlichen Intelligenz.  

Du bist nicht nur Dozent, sondern auch professioneller Musiker. Hast du bereits experimentiert mit den Möglichkeiten von KI bei der Musikproduktion? 

Ja, aber ich muss ehrlich sagen, dass ich eine etwas gespaltene Haltung zum Thema habe.  

Wir von der Fachschaft Musik halten immer Ausschau nach neuen Entwicklungen und probieren auch Dienste wie Boomy oder Musenet aus. Diese generieren KI-unterstützt Musik, man kann dazu auch singen. Das Ergebnis kann man auf Wunsch veröffentlichen und sogar Tantiemen dafür erhalten.


Drei KI-generierte Bilder von Robotern, die ein Konzert spielen.

Bild: Erstellt mit dem KI-Bildgenerierungstool Midjourney. Vorgabe: a band of robots doing music live on stage, excitement

Das ist unbestritten faszinierend: Man kann innerhalb von wenigen Sekunden ganze Songs produzieren. Gegenwärtig sind diese qualitativ noch schlecht, aber es ist eine Frage der Zeit, bis dies besser wird.  

Mein Zwiespalt kommt dagegen von einer gewissen Angst, dass die Leute irgendwann KI-produzierte Musik nicht mehr von menschengemachter unterscheiden können. Da drängt sich auch aus Schüler:innensicht die Frage auf: Warum soll ich noch lernen, Musik zu machen, wenn der Computer (vordergründig) dasselbe machen kann? Und auf der anderen Seite muss man sich fragen: Was soll man als Musiklehrer, als Dozent eigentlich noch unterrichten?  

Es gibt diese Hoffnung, dass die KI uns primär Dinge abnimmt, die eher trivial waren. Dadurch könne man, so das Versprechen, vielleicht höhere Kompetenzniveaus erreichen, als dies ohne KI-Unterstützung möglich wäre. Ist so etwas im Bereich Musik auch denkbar?  

So etwas kann man normalerweise genau dann machen, wenn man schon eine hohe Kompetenz erreicht hat. Wenn einem aber die Entwicklung dieser Kompetenz abgenommen wird, ist die Frage, ob man wirklich weitergekommen ist. 

Bei der Musik geht das noch weiter: Wenn man nur noch Sachen entwickeln lässt, anstatt dies selbst zu tun, fehlt irgendwann auch die Kompetenz, Musik einschätzen zu können: Was höre ich eigentlich? Was ist die Arbeit, die Intention, hinter der Musik? Und falls dies wegfällt, stellt sich auch die Frage: Verändert sich durch KI unser Konzept von Musik als Kunst? 

Es ist ja leicht vorstellbar, dass Assistenz etwa beim Autofahren helfen kann, weil die KI dem Fahrer Aufgaben abnimmt. Im Bereich Musik ist aber die Haptik zentral. Und ich beobachte, dass sich da gerade massiv etwas verändert.

Bild: Erstellt mit dem KI-Bildgenerierungstool Midjourney. Vorgabe: a k-pop group as holograms, anime style

Bei Konzerten gibt es Leute im Publikum, die keine Ahnung davon haben, was auf der Bühne eigentlich passiert. Ich spiele Bass – ein sehr traditionelles Instrument, verglichen mit KI. Mit schwingenden Saiten, mein Gott! [lacht] Aber auch eines, das mehr Druck hat als vieles, was digital daherkommt. Wenn das Schlagzeug "brätscht", wenn die Verstärker schwingen, spürt man diesen Druck. Ich bemerke zunehmend, dass junge Menschen manchmal überfordert und baff sind, dass Live-Musik so physisch ist. Das ist spannend. 

Im Musikunterricht geht es nicht nur ums Musikmachen, sondern auch ums Verstehen. Habt ihr Lerngelegenheiten, in denen die Reflexion über Aspekte der Musik – etwa auch Veränderungen, die mit KI kommen – Platz finden? 

Musik und Digitalität ist immer wieder ein Thema in den Lerngelegenheiten.  

Die Diskussion findet allerdings vor allem im Bereich der Fachdidaktik statt. Im fachlichen Bereich geht es eher um die Entwicklung der musikalischen Kompetenzen der Studierenden. Da fehlt zugegebenermassen öfters ein wenig die Zeit, um weitergehende Aspekte zu behandeln. Aber es gilt auch: Die Studierenden müssen zuerst erfahren, was sie selbst machen können. Erst dann können sie anfangen, dies zu reflektieren.  

Doch auch im fachlichen Bereich gibt es vielversprechende Entwicklungen. Musescore etwa ist ein digitales Notationsprogramm, mit dem sie arbeiten. Bei Licht betrachtet ist es ja fast "primitiv", Noten selbst aufschreiben zu müssen. Es ist sehr gut möglich, dass sehr bald KI die digitale Notation übernimmt. Wenn die KI einem diese "Fleissarbeit" abnimmt, wieso nicht? 

Entscheidend ist dabei aber immer, dass wir die Studierenden sensibilisieren. Sie müssen lernen sich zu fragen: Was bedeutet all dies für mich? Und was bedeutet es für meinen Unterricht? 

Machen wir den Sprung zur Schule. Kannst du sagen, ob KI oder digitale Tools dort bereits angekommen sind?  

Einerseits sind sehr viele Investitionen getätigt worden, Computer, iPads und so weiter. Damit wäre im Bereich der Komposition, der Analytik, der Produktion und so weiter vieles möglich. 

Andererseits braucht es auch die passenden Kompetenzen. Die fachlichen, damit man mitkommt mit den Entwicklungen. Und die fachdidaktischen, um die Werkzeuge sinnvoll einzusetzen. Immer zu wissen, wie man die neuesten Trends nutzt, ist eine Herausforderung.  

Und dann folgt noch der grössere Bereich, mit dem wir uns an der PH immer auch beschäftigen: Also die Frage, was diese Entwicklungen für die Musik allgemein bedeuten -- und auch für den Musikunterricht.  

Wenn ich KI in den Unterricht integriere, gibt es sicher positive Auswirkungen – die Möglichkeit, damit aktiv zu arbeiten. Aber es gehen auch Dinge verloren, die in den letzten Jahrzehnten gepusht worden sind: Die Arbeit mit diversen Instrumenten, vielleicht sogar das Musizieren als Band. Und die stets befürchtete Frage: „Warum soll ich lernen Musik zu machen, wenn ich gar nicht Musiker werden will?“ wird, wie gesagt, durch KI noch verschärft.  

Im ersten Interview der Serie hat BG-Dozent Jonas Etter betont, dass in seinem Fach das Produkt weniger wichtig geworden ist und der Prozess im Vordergrund steht. Aus dieser Perspektive kann KI einen Platz im Unterricht haben. Ist dies auch ein Weg für den Fachbereich Musik? 

Im Prinzip ist es schön zu denken, dass der Weg das Ziel ist. Aber das löst aus Sicht der Schülerinnen und Schüler das Motivationsproblem nicht. Es braucht ein Ziel, um motiviert zu sein, wie zum Beispiel: "Du kannst danach einen Song spielen auf dem Klavier!"  

Das ist toll, wenn man es erst einmal beherrscht. Dieses Gefühl, tatsächlich selber etwas verstehen oder sogar kreieren zu können. 

Bild: Erstellt mit dem KI-Bildgenerierungstool Midjourney. Vorgabe: a comic splash page of robots gangsta rappers, in the action of a rap battle 

Aber da ist der Blick immer noch auf ein Ziel, eine Anwendung gerichtet. Und wenn mich die künstliche Intelligenz darin links überholt, ist die Frage eben schon: Was motiviert mich, den Weg trotzdem zu gehen? Es gibt mögliche Antworten darauf: Man will vielleicht etwas "echt" machen. Man will etwas "Menschliches" erstellen, das KI nicht produzieren kann. Aber nicht alle Schülerinnen und Schüler sprechen auf so etwas an, respektive haben diese Erfahrung gar nie gemacht und fühlen sich ganz wohl in der reinen Konsumentenrolle.  

Die alte Motivation der "Bühnenpräsenz", die das Dasein als "Star" mit sich bringt, genügt nicht mehr? 

Auch das hat an Bedeutung verloren. In Japan gibt es Stars, die nur Hologramme sind. Es gibt auch Spotify-Partys, bei denen keine DJs oder Musiker präsent sind. Und es gibt dafür einen Markt. Bei so etwas ist nicht unbedingt die Musik im Zentrum, sondern das Happening. 

Neben der Musik besteht ein Entwicklungsfeld der KI-Assistenz im Bereich Audio in der Umwandlung von gesprochener Sprache in schriftlichen Text und umgekehrt. Hast du damit bereits auch Erfahrungen gemacht? 

Ich hab ehrlich gesagt eher beschränktes Interesse daran, meine Stimme künstlich reproduzieren zu lassen. Oder höchstens in dem Sinn, dass ich einmal schauen möchte, was dabei passiert. Aber wenn ich mit meiner Stimme arbeiten will, mache ich das lieber "klassisch" selber.  

Was ich spannender finde, ist der Bereich des "Metaverses". Also die Frage, was für eine Rolle meine Stimme, meine Persönlichkeit in einem solchen Raum für Möglichkeiten hat.  

Grundsätzlich denke ich, dass man immer die grössere Perspektive einnehmen muss. Wenn man nur auf die Details schaut – Voice-to-Text, Musikgenerierung und so weiter – dann verpasst man etwas Wichtiges. Nämlich, wie sehr all diese Dinge miteinander verhängt sind. Wie sehr das lineare, punktuelle Denken in der Digitalität schon abgelöst worden ist durch die Vernetzung. Das ist vielleicht auch, was einem letztlich etwas Angst macht und polarisiert: Wenn ich überlege, dass wir in ein paar Jahren vielleicht als Musiker präsenter sind in Metaverses, ist das irritierend. Musik wird eine andere Form von Präsenz haben. Auch was ein "Star" ist, wird sich verändern. 

Bild: Erstellt mit dem KI-Bildgenerierungstool Midjourney. Vorgabe: a dancefloor, everyone is wearing headphones, no dj visible

Ich geniesse das Haptische, das Physische bewusst noch, solange es existiert. Dass das nostalgisch ausgedrückt ist, ist mir bewusst. Weil ich denke, dass etwas stattfindet, wenn ich "selber" Musik schreibe, wenn ich "selber" Musik mache. Da passiert im Hirn etwas und es ist letztlich nachhaltiger für mich, als wenn die KI alles für mich macht. 

Der Aspekt der "Convenience". 

Genau. Alles, was "convenient" ist, wird in Zukunft auch automatisiert. Und da sehe ich eine Gefahr. Wenn alles, was "gäbig" ist, automatisiert und alles Mühsame übersprungen wird, dann findet vieles nicht mehr statt, das ganz wichtig ist. Nicht nur in meinem Leben, sondern auch für die Musik.  Wer nicht übt, wird nicht besser. Und das ist doch genau das, was relevant ist: Man hat sich Zeit genommen zum Üben. Das ist wertvoll. Weil es einem geholfen hat, zu verstehen, was man eigentlich macht und "in der Musik zu sein". 

Wenn die KI dies abnimmt, denke ich, dass dieser Prozess abhandenkommt. Und dass dann nur noch ein simples Konsumieren übrigbleibt. Man hört Musik zwar noch. Aber man versteht sie vielleicht nicht mehr. 

Vielen Dank für das Gespräch!

Links


{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}
Insert Content Template or Symbol
>