Von Benjamin Fischer
Künstliche Intelligenz wird niemals menschliche Kreativität ersetzen, denn ihr wird immer dieser unentbehrliche Funken fehlen, der es den talentiertesten Künstlern ermöglicht, ihre besten Werke zu erschaffen – die Intention.“ Das sagt Lucian Grainge, Chef des weltgrößten Musikkonzerns Universal Music, und ist Teil eines Beitrages im Blog von Youtube, in dem Musik- und Tech-Konzerne erklären, gemeinsam an KI-Tools rund um Musik arbeiten zu wollen. Die Partnerschaft ist ein Beispiel von vielen für die zweigleisige KI-Strategie der Musikindustrie. Natürlich pocht sie vehement auf den Schutz und die Durchsetzung von Urheber- und Persönlichkeitsrecht. Aber gleichzeitig gibt es kaum eine Wortmeldung eines Musikunternehmens oder einer Verwertungsgesellschaft ohne den Hinweis auf Chancen, neue Möglichkeiten für Musiker und potentielle Geschäftsmodelle durch den Einsatz von KI. Klare Regeln ja, aber bloß nicht als purer Blockierer dastehen, lautet die Devise.
Und so mangelte es eine Zeit lang nicht an Absichtserklärungen, Partnerschaften, ersten Tools oder Songs mit mal mehr, mal weniger KI-Beteiligung. Youtube beispielsweise startete im Winter 2023 „Dreamtrack“. Gespeist mit der Musik von neun Künstlern, liefert das KI-Modell einer Testgruppe aus amerikanischen Nutzern kleine Songschnipsel. Auf Befehl singt etwa ein KI-generierter John Legend ein paar Zeilen über einen sonnigen Morgen am Strand.
Bewusst als „erstes Experiment“ gelabelt, war zuletzt von „Dreamtrack“ nicht mehr viel zu hören. Einen breiteren Ansatz wählte Sony Music: Rund um das aktuelle Album der Elektro-Gruppe The Orb und David Gilmour konnte, wer auch immer wollte, seine eigenen Albumcover und Remixe erstellen, anpassbar nach Stimmung und Tempo, aber eben ohne Gesang. 10.000 Stunden Material seien so entstanden, sagte Sony-Music-Digitalchef Dennis Kooker im April der F.A.Z.
Drake ließ einen KI-Tupac-Shakur rappen
Sind manche Musiker eher skeptisch, so experimentieren andere mit diversen Tools herum, wie es in der Geschichte mit neuer Technik immer schon der Fall war. Als Helfer im Hintergrund, in der Produktion oder als kreativer Sparringspartner beim Songwriting, erregt KI allerdings viel weniger Aufmerksamkeit als in Form von Tools, die ganze Songs erstellen. Geht es um neue, alte Beatles-Werke, sieht das natürlich anders aus: Mithilfe von KI ließ sich auf einer alten Aufnahme John Lennons Stimme von der Klavier-Spur trennen, Paul McCartney und Co steuerten die Musik bei, fertig war „Now And Then“.
Zu hören ist so der echte John Lennon, keine KI-generierte Stimme. Ein nicht zu unterschätzender Unterschied, denn anders gelagerte Fälle sorgten schon für reichlich Ärger, allen voran der Song „Heart On My Sleeve“. Geschrieben von einem anonymen Musiker, waren auf ihm vermeintlich die Superstars The Weeknd und Drake zu hören. Gut ein Jahr später, im April dieses Jahres, ließ dann ausgerechnet Drake einen KI-Tupac-Shakur rappen. Dessen Nachlassverwalter drohten umgehend mit einer Klage.
Einige findige Künstler wie die Kanadierin Grimes versuchen aus dem Verleihen ihrer Stimme derweil ein Geschäftsmodell zu machen. Gegen 50 Prozent der Tantiemen können Musiker ihre Songs seit einiger Zeit von einer KI-Grimes singen lassen. Allzu viel Geld wird angesichts der überschaubaren Streamingzahlen allerdings (noch?) nicht zusammenkommen. Und auch Grimes geht lieber auf Nummer sicher: Alle Songs mit ihrer KI-Stimme nimmt ihr Team vor Veröffentlichung ab.
Die große Streitfrage für Kreativ- und Medienschaffende
Die Sorge vor Deep-Fakes und gerade dem Missbrauch der eigenen Stimme ist groß in der Musikwelt. Aber während bahnbrechende Entwicklungen auf sich warten lassen, überschattet zunehmend noch ein anderes Thema die potentiell vielleicht einmal möglichen Vorzüge: das Training der KI-Modelle. Es ist die große Streitfrage für Kreativ- und Medienschaffende unterschiedlichster Couleur. Udio und Suno heißen die zwei Start-ups, die mit Blick auf Musik besonders im Fokus stehen. Einerseits, weil ihre Modelle im Stile von ChatGPT auf Knopfdruck komplette Songs mit Instrumenten, Text und Gesang ausspucken, und das in erstaunlich guter Qualität. Andererseits, weil der amerikanische Dachverband der Musiklabels mit Klagen gegen sie Präzedenzfälle erwirken will.
Beide Unternehmen machen mittlerweile keinen Hehl mehr daraus, dass ihre Modelle mit urheberrechtlich geschützter Musik trainiert wurden, ohne die Erlaubnis der Rechteinhaber einzuholen und folglich auch ohne dafür etwas zu zahlen. Der Grund für diese sehr selbstbewusste Haltung ist eine amerikanische Besonderheit: die Rechtsdoktrin „Fair Use“. Sie besagt, dass eigentlich geschütztes Material unter bestimmten Voraussetzungen frei genutzt werden kann, sofern die Nutzung etwa der öffentlichen Bildung oder der „Anregung geistiger Produktion“ dient.
Die KI-Modelle lernten lediglich die Grundmuster der musikalischen Genres, ganz so wie auch Menschen Musik hörten und vielleicht später eigene Songs schrieben, argumentieren die Start-ups entsprechend. Bloße Kopien des Trainingsmaterials zu produzieren sei nicht der Sinn der Modelle, es gehe vielmehr um neue, eigene Musikstücke. Es ist im Kern die Argumentation, wie sie diverse Tech-Unternehmen anführen – eine Sicht der Dinge, mit der sich die Musikindustrie, wenig verwunderlich, in keiner Weise anfreunden kann. So liegen der Klage diverse KI-Songs bei, die bekannten Vorbildern stark ähneln, und auch Informationen darüber, mit welchen Befehlen sie generiert wurden. Hinzu komme: Die KI-Werke träten in direkte Konkurrenz zu den Songs, auf deren Basis das Modell trainiert wurde, und machten ihnen so auf den Streamingdiensten Tantiemen streitig. Außerdem lerne KI ja mit dem Verschlingen von Massen an Songs beileibe nicht wie ein Mensch, von „Fair Use“ könne also keine Rede sein.
Das prominente KI-Tool Boomy
Die USA sind der mit Abstand größte Musikmarkt der Welt, seine Bedeutung für die Tech-Branche ist ebenso unstrittig. Folglich dürften viele Parteien – die Musikindustrie, Tech-Unternehmen sowie ihre Investoren – sehr genau verfolgen, wie das „Fair Use“-Prinzip in diesem Fall letztlich interpretiert wird. Auf den Streamingdiensten finden sich ohnehin längst KI-Songs verschiedenster Art. Rund 120.000 neue Werke werden täglich auf Spotify und Co hochgeladen. Wie viele davon komplett oder in Teilen KI-generiert sind, ist nicht bekannt. Dass ihre Zahl aber zunehmen wird, liegt auf der Hand, zu einfach lassen sie sich mit ein paar Klicks erstellen und hochladen. Und so braucht es gar keine großen KI-Hits, die man bislang ohnehin vergeblich sucht, um finanzielle Fragen aufzuwerfen. Die schiere Masse genügt und schürt aufseiten der Musikbranche die Sorge vor einer Verwässerung des Tantiemenpools. Dabei muss es nicht einmal um Werke gehen, die mit KI-Modellen geschaffen wurden, für deren Training womöglich urheberrechtlich geschützte Werke genutzt wurden, wie ein aktueller Betrugsfall aus den USA demonstriert. Mehr als 10 Millionen Dollar soll ein Mann seit 2017 mithilfe von Hunderttausenden KI-Songs eingenommen haben, indem er sie mit Tausenden Bot-Accounts rauf und runter streamte. Erstellt hatte er die Songs mutmaßlich über Boomy, ein weiteres prominentes KI-Tool. Im Gegensatz zu Suno und Udio steht Boomy nicht im Verdacht, Urheberrecht zu verletzen. Es liefert auch keine kompletten Songs, sondern lässt Nutzer mit einem breiten Baukasten an Basismaterial eigene Stücke produzieren.
Das Problem ist also nicht Boomy als solches. Das Unternehmen hat für einzelne Künstler, die mit dem KI-Tool arbeiten, sogar einen Vertriebsvertrag mit Warner Music ausgehandelt, immerhin dem drittgrößten Musikkonzern der Welt und Teil der Klage gegen Udio und Suno. Doch auch für potentielle Betrüger, die nicht mit KI-Hilfe an eigener Musik feilen, sondern nur zu gerne massenhaft und schnell Instrumental-Songs oder bloßes Rauschen auf die Streamingdienste werfen, sind Tools wie Boomy eben hochattraktiv.
Gesonderte Regeln für KI-Songs bislang nicht etabliert
Wahrscheinlich wird gerade auch KI im Kampf gegen diese neue Art des Betrugs helfen. Die ersten Änderungen am Auszahlungsmodell adressieren ebenfalls nicht zuletzt dieses Problem: White Noise wird in der Abrechnung von Spotify schlechter gestellt als Musik, und bevor ein Song Tantiemen einstreichen kann, muss er mindestens 1000 Mal innerhalb von zwölf Monaten gestreamt werden.
Gesonderte Regeln für KI-Songs haben die Streamingdienste bislang nicht etabliert. Abseits von Verletzungen des Urheber- oder Persönlichkeitsrechts wird es aber auch schnell kompliziert. Sollten KI-Songs behandelt werden wie solche, die ohne KI entstanden sind? Wie viel KI-Anteil ist zu viel, und wie lässt sich überhaupt erkennen, was KI-generiert ist und was nicht? Wahrscheinlich wird spätestens der Ausgang des Streits mit Udio und Suno erste Konsequenzen haben.
Einsatz von KI rund um Musik auf anderen Ebenen
Viele dieser Fragen sind direkt verknüpft mit Lizenzmodellen, die rund um Tools wie „Dreamtrack“ oder so weitreichenden Anwendungen wie Udio und Suno entstehen dürften. Denn wenn Kreative und ihre Partner an den Einnahmen aus KI-Songs, die auf Basis ihrer Arbeit entstehen, beteiligt werden, wird das Interesse vielerorts groß sein. Noch gibt es solche Lizenzdeals aber nicht, und ihre Ausgestaltung wird dauern. Denn Plattformen, Kreative und Rechteinhaber haben gewöhnlich sehr unterschiedliche Vorstellungen von einer gerechten Verteilung von Einnahmen.
Schneller wird es mit dem Einsatz von KI rund um Musik auf anderen Ebenen gehen. Die Administrierung von Songs, das Nachverfolgen der Nutzungen auf den zahllosen Kanälen, das korrekte Einsammeln der Tantiemen und die schnellere Ausschüttung an die unterschiedlichsten Rechteinhaber – all diese Felder erscheinen angesichts der riesigen Datenmengen wie gemacht für die Anwendung von KI.
Das gilt wohl auch für Hintergrundmusik fürs Fernsehen, Werbeclips oder soziale Medien. Hier besteht für Urheber das größte Risiko, von komplett KI-generierten Inhalten ersetzt zu werden, konstatierte Anfang des Jahres auch eine Studie im Auftrag der Verwertungsgesellschaften GEMA und Sacem. Ob sich in Zukunft massenhaft Hörer für reine KI-Pop-, -Rock- oder -Rap-Songs begeistern, steht auf einem ganz anderen Blatt. Die emotionale Verbindung zwischen Werk und Künstler, die Inszenierung und die Geschichten hinter allem, die die Faszination von Musik eben auch ausmachen, wird KI jedenfalls kaum ersetzen können.