Problemfall KI-Musik: Was tun Streaming-Dienste, was kann man selbst tun?
KI-generierte Musik flutet – vielfach unbemerkt – den Markt und Tantiemen fließen in unbekannte Kanäle. Hier erfahren Sie, was Streaming-Dienste dagegen tun und wie Sie sich selber sensibilisieren.

Die Lieblingssongs und -alben kann man nie oft genug anhören, doch auch Neues entdecken macht großen Spaß. Wer dazu Streaming-Plattformen nutzt, hat es hier besonders einfach, da Algorithmen dem individuellen Geschmacksprofil entsprechend neue Vorschläge machen. So weit, so gut – wenn es nicht immer wahrscheinlicher würde, dass man hierbei ungewollt mit KI-generierter Musik in Berührung kommt.
Streaming-Marktführer Spotify warnte jüngst auf seiner Website vor „den schlimmsten Auswüchsen generativer KI“, die ‘Schund’ ins Ökosystem spülen und authentische Musikschaffende bei der Entwicklung ihrer Karrieren behindern“ würden, indem Sie Streams und damit Tantiemen abgreifen. Die französische Plattform Deezer veröffentlichte jüngst Zahlen, nach denen 34 Prozent aller Einreichungen dort inzwischen vollständig KI-generiert sind, also mehr als ein Drittel.

Willkommen in der Gegenwart, in der KI-Modelle in Minuten ganze Alben-Kataloge erzeugen können – und Content-Farmen die Streaming-Portale mit unerwünschtem Material fluten.
Was ist „KI-Musik“ überhaupt?
Doch was heißt das eigentlich, „KI-generierte Musik“? Der Begriff kann mehrere Dinge bedeuten: Zum einen hat die KI, wie in vielen Bereichen, auch in der Musikproduktion Einzug gehalten. Der Einsatz von KI für Schlagzeug, Sounddesign oder Mastering-Vorschläge ist heute nichts Ungewöhnliches mehr. Dies setzt sich fort über hybride Anwendungs-Formen – mit menschlichem Songwriting, das mittels KI-Stimmen und -Klangbibliotheken umgesetzt wird – bis hin zur vollsynthetischen Variante: Befehls-Textzeile rein, Track raus. Plattformen wie Suno oder Udio machen dies möglich. Wir haben es mit Suno einmal ausprobiert (s. Bild unten).

Auf der Website des Start-ups aus dem US-Bundestaat Massachusetts kann man sich kostenfrei anmelden, dann steht die „Create“-Funktion zur Verfügung, die nach einer simplen Text-Eingabe Songs ausspuckt, die in vielen Fällen wie auch dem Unsrigen „irgendwie nach…“, etwa Amy Winehouse, Adele, Neil Young, Sting oder AC/DC, klingen, dabei aber eben vollständig vom Computer generiert sind. Probieren Sie es gerne selber mal aus, um zu sehen, wie niedrigschwellig das Ganze ist.
Für die meisten schwer erkennbar
Laut dem Newsportal Heise Online arbeitet auch OpenAI, das Unternehmen hinter ChatGPT, an einer KI, die Songs aus Text- oder Audiobefehlen erzeugen soll. In Blindtests ist KI-Musik für viele Hörerinnen und Hörer schwer erkennbar. Laut einer STEREO vorliegenden Umfrage, die die eingangs erwähnte Plattform Deezer zusammen mit dem Marktforschungsinstitut Ipsos mit 9.000 Teilnehmenden in acht Ländern durchgeführt hat, erkennen 97 Prozent der Befragten nicht den Unterschied zwischen KI-generierten und „handgemachten“ Songs. Wer mag, mache einmal einen Selbstversuch, zum Beispiel mit „The Velvet Sundown“ oder „Xania Monet“. Beide zählen zu den aktuell meistgehörten KI-Acts – wobei die Profile aktuell bei Spotify als „verifiziert“ angezeigt werden. Monet ist aber auch auf Apple Music zu finden (s. untenstehendes Bild). Doch dazu gleich mehr.

Die Möglichkeiten des Einsatzes Künstlicher Intelligenz umschließen mittlerweile auch sogenannte „Stimmenklone“, die vorgaukeln, einem bestimmten Künstler oder der Lieblingskünstlerin zuzuhören. Ein Beispiel, das jüngst Aufsehen erregte, ist der TikTok-Nutzer Ghostwriter977, der mit geklonten Versionen von Drake oder The Weeknd viral ging. Solche Stimmenklone sind nur zulässig, wenn die betroffene Künstlerstimme autorisiert wurde. Das war hier nicht der Fall, weswegen der Ghostwriter977-Track von Plattformen schnell wieder entfernt wurde.
Vielfach unklar, wer dahintersteckt
Wer findet es schon in Ordnung, wenn er oder sie vorsätzlich getäuscht wird? Ganz abgesehen davon, dass solcherlei „Acts“ damit auch Vergütungen für sich abzweigen und damit „rechtschaffenden“ Kreativen das Geld abgraben. Wer daran verdient, ist vielfach gar nicht ohne Weiteres nachzuvollziehen.
Der NDR stellte diesbezüglich in einem Online-Beitrag Mitte Juli fest: „Es ist wie bei Banksy – nur zum Hören: Niemand weiß, wer dahinter steckt.“ Dies verhält sich etwa bei zuvor erwähnten The Velvet Sundown so. In anderen Fällen geben sich reale Akteure hinter KI-Avataren auch zu erkennen. So steht hinter Xania Monet die 31-jährige Amerikanerin Telisha „Nikki“ Jones als Texterin, die den Gesang und die Musik mithilfe von Suno generiert haben soll.
Neben dem rein ethischen Aspekt gibt es hier auch rechtliche Belange: Rein maschinell erzeugte Werke sind in vielen Jurisdiktionen nicht schutzfähig. Gleichzeitig wurden Suno und Udio angeklagt, zum Training ihrer Modelle rechtlich geschütztes Material verwendet zu haben. Auch OpenAI hat jüngst vor dem Landgericht München einen wichtigen Prozess gegen die deutsche Verwertungsgesellschaft GEMA verloren, weil das Unternehmen unrechtmäßig urheberrechtlich geschütztes Liedtext-Material verwendet hat.
KI-Musik: „Ein doppeltes Übel“
„Menschliche Kreativität ist nichts, was wir anstreben sollten zu ersetzen“, kommentiert dies Alexander James Vaughan. Er ist nicht nur als Komponist ein direkt Betroffener, sondern setzt sich auch im Rahmen seines Lehrauftrags an der Hochschule für Musik Franz Liszt in Weimar mit KI auseinander.
Das Vorgehen von Plattformen wie Suno, Udio und OpenAI verurteilt Vaughan scharf: „Es ist ein doppeltes Übel. Man stiehlt die Musik von jemandem, um seine Maschine zu trainieren, die diese Person dann möglicherweise aus der Branche drängt.“ Die Musikindustrie sei vorher bereits eine schwierige Branche gewesen, sagt Vaughan – doch aktuell werde es „jeden Tag unmöglicher für aufstrebende Künstler, inmitten all des Lärms gefunden und gehört zu werden.“

Er selbst verwende beim Komponieren „niemals KI, es sei denn, es handelt sich um ein ganz spezifisches KI-thematisches Projekt – und selbst dann wird es meine eigene KI sein, die ich selbst trainiert und von Hand gebaut habe“, so Vaughan. Anderen Musikschaffenden rät er, „weiter dagegen zu protestieren. Sie sollten ihre Stimmen hörbar machen und sie sollten einfach weiterhin versuchen, die bestmögliche Musik zu produzieren.“ Dem räumt er gegenüber KI-generierter Musik langfristig bessere Chancen ein..
Was Streaming-Anbieter zu KI-Musik sagen
Wie halten es die Streaming-Dienste, wo heutzutage das Musikhören primär stattfindet? Die großen Anbieter sehen das vermehrte Aufkommen von Künstlicher Intelligenz im Musikbereich durchaus als Problem an. KI könne „von böswilligen Akteuren und Content-Farmen eingesetzt werden, um Hörer zu verwirren oder zu täuschen […] Solche schädlichen KI-Inhalte verschlechtern das Nutzungserlebnis der Hörer und versuchen oft, Tantiemen an Täter umzulenken“, ist sich etwa Marktführer Spotify bewusst.
Spotify gibt an, in den letzten 12 Monaten – einer Phase, die von der Explosion generativer KI-Tools geprägt war – über 75 Millionen spammige Tracks von seiner Plattform entfernt zu haben. Wir schickten eine Anfrage an das schwedische Unternehmen, um in Erfahrung zu bringen, warum KI-Acts auf der Plattform – wie oben erwähnte The Velvet Sundown oder Xania Monet – bislang nicht als solche gekennzeichnet werden.
Spotify will künftig KI-Musik kennzeichnen
Die zuständige Presseagentur antwortete uns: Spotify werde in Kürze beginnen, „KI-Einsatz in den Musik-Credits von Tracks anzuzeigen – basierend auf dem branchenweiten Metadaten-Standard, der aktuell über DDEX [eine Organisation, die diesbezügliche Standards definiert] erarbeitet wird“, heißt es dazu.

Die Einführung soll schrittweise in den kommenden Monaten erfolgen, „sobald Labels, Distributoren und weitere Partner diese Metadaten bereitstellen“, wie Spotify angibt. Hiernach soll klar ausgewiesen sein, wie KI zum Einsatz kam – etwa bei KI-generierten Stimmen, Instrumenten oder in der Postproduktion.
Den Nutzern eigene, aktive Filteroptionen für KI-Inhalte zur Verfügung zu stellen, plant man bei Spotify derzeit nicht – mit der Begründung, dass „ein einfacher Filter der Vielfalt der kreativen Prozesse nicht gerecht würde.“
Gleichwohl führt Spotify nach eigenen Angaben aktuell ein neues Filtersystem zur Erkennung von Musik-Spam ein, das darauf abzielt, Spam-Taktiken zu identifizieren und entsprechend gekennzeichnete Inhalte aus Empfehlungen und algorithmischen Playlists wie „Dein Mix der Woche„ oder „Release Radar„ auszuschließen.
Davon soll auch der Vergütungsschlüssel profitieren: Da das neue Musik-Spam-Filtersystem laut Spotify „darauf ausgelegt ist, böswillige oder qualitativ minderwertige Uploads zu stoppen, die versuchen, Auszahlungssysteme auszunutzen“, sollen dadurch die Einnahmen legitimer Musikschaffender geschützt werden..
Qobuz setzt auf Manpower beim KI-Monitoring
Da durch KI nicht nur die Musik selbst, sondern auch die Zahl der Streams beeinflusst werden kann, bedient man sich bei der Streaming-Plattform Qobuz „an Machine-Learning-Mechanismen, um durch KI erzeugte Streams aufzudecken“, wie uns die Country-Managerin DACH Mareile Heineke auf Anfrage erklärte.
„Diese fallen dann, mit Einverständnis der jeweiligen Labels, aus unseren Statistiken und Reportings raus, so dass die wirklich getätigten Streams nicht darunter leiden – und damit auch nicht die Künstlerinnen und Künstler der Musik, die von echten Menschen gestreamt werden“, sagt Heineke.

Ansonsten setzt die französische Plattform zur Bekämpfung von KI-Spam auf einen redaktionellen Ansatz. „Wir haben auf allen Apps immer die musikalische Auswahl unserer Redaktion im Fokus.“ Um sicherzugehen, dass sich bei Funktionen, die durch Algorithmen kreiert werden, keine KI-Musik einschleicht, würden bei Qobuz hier nur Empfehlungen von Artists und Labels auftauchen, die als offiziell angesehen werden. Dies ist der Fall, wenn sie bereits in der einen oder anderen Form von Qobuz gefeatured wurden, so Heineke.
Die Pressestellen von US-Unternehmen wie Apple Music, Amazon Music und Tidal ließen unsere Anfrage zu ihrem Umgang mit KI-Musik unbeantwortet. Während die anderen sich in Schweigen hüllen oder noch darüber diskutieren, macht Deezer als bisher einzige Plattform KI-Musik bereits bei sich kenntlich (s. Screenshot weiter unten). Mehr dazu in untenstehendem Interview mit Manuel Mousallam, dem Research Director von Deezer.
KI-Musik durch genaueres Hinschauen erkennnen
Aber auch, wer Deezer nicht nutzt, kann einiges tun, um sich und sein Nutzerprofil vor ungewolltem KI-Spam zu schützen. Bis zur Einführung eindeutiger Labels bei den anderen Anbietern – nach Vorbild von Deezer und bald dann auch Spotify – kann man bei neuen Künstlern und Künstlerinnen, die Algorithmen vorschlagen, nachschauen, ob sie etwa in einem kurzen Zeitraum eine unnormal hohe Anzahl von Alben veröffentlicht haben.Um nochmals das populäre Beispiel The Velvet Sundown heranzuziehen: Dieser „Act“ hat dieses Jahr allein bis Oktober drei komplette Alben mit bis zu 13 Stücken veröffentlicht.

Auch bei den jeweiligen Covern hat man sich in diesem Falle nicht wirklich Mühe gegeben, den Eindruck zu erwecken, dass sie von Menschenhand und nicht durch KI entstanden wären. Ebenfalls kann man sich bei allen Streaming-Diensten Informationen zu Titel und Künstler oder Künstlerin anzeigen lassen. Wie man hier Hinweise findet, um echt von KI-generiert zu unterscheiden, zeigen Ihnen als Beispiel die untenstehende Abbildung.

Dies ist natürlich kein Ausschlusskriterium. Aber wenn kein Komponist, kein Produzent und kein veritables Label in den Song-Credits genannt werden, ist dies oft ein deutlicher Hinweis. Solche Infos lassen sich bei allen Anbietern abrufen. Musikschaffende aus Fleisch und Blut haben überdies auch oft eigene Web-Präsenzen oder Social-Media-Kanäle. Hier einfach mal eine Suchmaschine zu bemühen, kann ebenfalls Aufschluss geben. Wenn Sie auf die eine oder andere Art KI-generierte Musik identifizieren, die Sie nicht weiter vorgespielt bekommen wollen, können Sie sie aus ihrem Geschmacksprofil ausschließen. Auch dies geht meist mit wenigen Klicks.
Wie man KI-Musik entgehen kann
Warum man das tun sollte, liegt auf der Hand: „Kreative Berufe sind Traumberufe für unzählige Menschen in der Gesellschaft. Der Traum war, KI zu haben, die die banalen, schmerzhaften und gefährlichen Arbeiten erledigt – warum sollten wir wollen, dass sie unsere Kunst erschafft?“ zitieren wir hier noch einmal Alexander James Vaughan.

Die Ergebnisse eingangs erwähnter Umfrage geben ihm recht. Dort gaben 45 Prozent der befragten Musikstreaming-Nutzenden an, dass sie KI-generierte Musik aus den Suchergebnissen ihrer Musik-Streaming-Plattform herausfiltern möchten. Und 40 Prozent würden die KI-generierte Musik gar vollständig überspringen, ohne sie überhaupt anzuhören (s. obenstehende Grafik). Dies belegt, was Vaughan als Trend ausmacht: „Das Blatt wendet sich allmählich. Die Menschen haben die Nase voll von KI-Hype und KI-Features.“
Dass sich KI im Musik-Kontext auch auf weniger fragwürdige Art einsetzen lässt, zeigt ein Forschungsprojekt der Hochschule für Musik „Franz Liszt“ in Weimar, an dem Vaughan mitwirkt. „KI lässt sich als eine Art kultureller Spiegel verwenden, der dabei helfen kann, sich selbst und das eigene Handwerk zu verstehen“, erklärt er. „Das Ziel unserer KI ist es, Wege zu finden, Menschen stärker in Musiktheorie und Komposition einzubinden, um selbst mehr kreativ tätig zu werden.“
Wie Deezer KI-Musik bei sich kennzeichnet
STEREO sprach mit Manuel Mousallam, Research Director bei Deezer, über KI-Filter und -Kennzeichnung der Streaming-Plattform.
Was hat Deezer zu dem Alleingang veranlasst, KI-generierte Musik für Abonnenten zu kennzeichnen?
Wir dachten uns schon vor ein paar Jahren, dass wir hier ein Problem haben werden, weil Tools für alle zugänglich werden, mit denen ohne Kosten der Prozess menschlichen Komponierens nachgeahmt werden kann: mit Software, die ziemlich einfach zu nutzen ist. Und ich würde sagen, es ist auch eine Art Positionierung: Wir haben uns in die Lage unserer Kunden versetzt und gedacht: wenn wir an ihrer Stelle wären, würden wir das wissen wollen. Deshalb wollten wir beizeiten an dem Problem arbeiten, diese Art von Inhalten bei uns zu finden und sie zu separieren..
Wie genau arbeitet der KI-Filter bei Deezer?
Es ist ein automatisiert arbeitendes Detektion-Tool. Wir waren in der Versuchsphase positiv überrascht von seiner Fähigkeit, diese Inhalte zu entdecken. Natürlich arbeitet es nicht komplett fehlerfrei und kann nicht wirklich alle KI-Musik entdecken – oder es identifiziert umgekehrt manchmal etwas zu Unrecht als KI-Musik. Es hat zwar eine relativ niedrige Fehlerquote, aber wir beschäftigen uns trotzdem damit.

Kann das überhaupt funktionieren? Sicher versuchen KI-Spammer, solche Detektion-Tools zu umgehen.
Das Grundlegende, worauf diese generativen Modelle basieren, verändert sich nicht so schnell. Es ist nicht so einfach, ein gesamtes Musikstück zu generieren. Man braucht dafür recht große Computer, um das System zu trainieren. Das schränkt die Zahl der Akteure ein, die aktuell in der Lage sind, ein konsistentes generatives KI-Modell zu schaffen. Diese wenigen Fälle haben wir im Auge.
Was genau unternimmt Deezer hier?
Wir tun zweierlei Dinge. Erstens entfernen wir alle KI-Inhalte aus unseren Empfehlungen und der Editorial Playlist. So sinkt die Streamingrate und Entsprechendes wird auf unserer Plattform quasi nicht mehr wahrgenommen.

Und der zweite Punkt ist, dass wir etwa Alben mit einem entsprechenden Hinweis versehen, wenn wir denken, dass das betreffende Album mit KI-Tools generiert wurde – gänzlich oder Teile davon (s. Bild oben). Dann kann man selbst entscheiden, ob man es sich anhören will oder nicht.
Wer denkt, dass er KI-generierte Musik entdeckt hat, die dem Deezer-Detektion-Tool entgangen ist: kann der eine Nachricht senden?
Ja, das ist möglich. Das haben Nutzerinnen und Nutzer in Vergangenheit auch schon getan.
