In den letzten Jahren haben Anwendungen künstlicher Intelligenz in kreativen Bereichen explosionsartig zugenommen. Eine neue Generation von Bild-und Textgeneratoren liefert beeindruckende Ergebnisse. Jetzt hat KI auch Anwendungen in der Musik gefunden.
Letzte Woche veröffentlichte eine Gruppe von Forschern bei Google MusicLM – einen KI-basierten Musikgenerator, der Textansagen in Audiosegmente umwandeln kann. Dies ist ein weiteres Beispiel für das rasante Innovationstempo der kreativen KI in den unglaublichen Jahren.
Da sich die Musikindustrie immer noch auf die durch das Internet und Streaming-Dienste verursachten Störungen einstellen muss, besteht großes Interesse daran, wie KI das bewirken könnte verändern die Art und Weise, wie wir Musik erstellen und erleben.
Musikerstellung automatisieren
Mit einer Reihe von KI-Tools können Benutzer jetzt automatisch Musiksequenzen oder Audiosegmente erstellen. Viele sind kostenlos und Open Source, wie z. B. das Magenta-Toolkit von Google.
Zwei der bekanntesten Ansätze bei der KI-Musikerzeugung sind: 1. Fortsetzung, bei der die KI eine Folge von Noten oder Wellenformdaten fortsetzt, und 2 Harmonisierung oder Begleitung, bei der die KI etwas erzeugt, um die Eingabe zu ergänzen, beispielsweise Akkorde, die zu einer Melodie passen.
Ähnlich wie text-und bildgenerierende KI können Musik-KI-Systeme auf eine Zahl trainiert werden verschiedener Datensätze. Sie könnten zum Beispiel eine Melodie von Chopin mit einem System erweitern, das im Stil von Bon Jovi trainiert wurde – wie schön in OpenAIs MuseNet demonstriert.
Solche Tools können eine große Inspiration für Künstler mit dem „Leerseiten-Syndrom“ sein. , auch wenn die Künstler selbst den letzten Anstoß geben. Kreative Stimulation ist heute eine der unmittelbaren Anwendungen kreativer KI-Tools.
Aber wo diese Tools eines Tages noch nützlicher sein könnten, ist die Erweiterung musikalischer Expertise. Viele Menschen können eine Melodie schreiben, aber weniger wissen, wie man Akkorde geschickt manipuliert, um Emotionen hervorzurufen, oder wie man Musik in einer Reihe von Stilen schreibt.
Obwohl Musik-KI-Tools einen langen Weg vor sich haben, um dies zuverlässig zu tun Arbeit talentierter Musiker entwickelt eine Handvoll Unternehmen KI-Plattformen zur Musikgenerierung.
Boomy geht den minimalistischen Weg: Benutzer ohne musikalische Erfahrung können mit wenigen Klicks einen Song erstellen und ihn dann neu arrangieren. Aiva hat einen ähnlichen Ansatz, ermöglicht aber eine feinere Steuerung; Künstler können die generierte Musik Note für Note in einem benutzerdefinierten Editor bearbeiten.
Es gibt jedoch einen Haken. Techniken des maschinellen Lernens sind bekanntermaßen schwer zu kontrollieren, und das Generieren von Musik mit KI ist derzeit ein Glücksfall. Sie könnten gelegentlich auf Gold stoßen, wenn Sie diese Tools verwenden, aber Sie wissen vielleicht nicht warum.
Eine ständige Herausforderung für Menschen, die diese KI-Tools entwickeln, besteht darin, eine präzisere und bewusstere Kontrolle darüber zu ermöglichen, was die generativen Algorithmen produzieren.
p>
Neue Möglichkeiten, Stil und Klang zu manipulieren Musik-KI-Tools ermöglichen es Benutzern auch, eine Musiksequenz oder ein Audiosegment zu transformieren. Die Differentiable Digital Signal Processing-Bibliothekstechnologie von Google Magenta beispielsweise führt eine Klangfarbenübertragung durch.
Klangfarbe ist der Fachbegriff für die Textur des Klangs – der Unterschied zwischen einem Automotor und einer Pfeife. Mithilfe der Klangfarbenübertragung kann die Klangfarbe eines Audiosegments geändert werden.
Solche Tools sind ein großartiges Beispiel dafür, wie KI Musikern helfen kann, reichhaltige Orchestrierungen zu komponieren und völlig neue Klänge zu erzielen.
Beim ersten AI Song Contest, der 2020 stattfand, verwendete das in Sydney ansässige Musikstudio Uncanny Valley (mit dem ich zusammenarbeite) die Klangfarbenübertragung, um singende Koalas in den Mix zu bringen. Klangfarbentransfer hat sich einer langen Geschichte von Synthesetechniken angeschlossen, die selbst zu Instrumenten geworden sind.
Musik auseinandernehmen Musikerzeugung und-transformation sind nur ein Teil der Gleichung. Ein seit langem bestehendes Problem in der Audioarbeit ist das der „Quellentrennung“. Dies bedeutet, dass Sie eine Audioaufnahme eines Tracks in seine einzelnen Instrumente aufteilen können.
Obwohl es nicht perfekt ist, hat die KI-gestützte Quellentrennung einen langen Weg zurückgelegt. Seine Verwendung wird wahrscheinlich eine große Sache für Künstler sein; Einige von ihnen werden es nicht mögen, dass andere ihre Kompositionen „knacken“ können.
In der Zwischenzeit erhalten DJs und Mashup-Künstler eine beispiellose Kontrolle darüber, wie sie Tracks mischen und remixen. Das Start-up-Unternehmen Audioshake zur Quellentrennung behauptet, dass dies neue Einnahmequellen für Künstler erschließen wird, die es ermöglichen, dass ihre Musik einfacher angepasst wird, beispielsweise für Fernsehen und Film.
Künstler müssen möglicherweise akzeptieren, dass die Büchse der Pandora geöffnet wurde , wie es der Fall war, als Synthesizer und Drumcomputer zum ersten Mal aufkamen und unter bestimmten Umständen in bestimmten Kontexten die Notwendigkeit von Musikern ersetzten.
Aber achten Sie auf diesen Bereich, denn Urheberrechtsgesetze bieten Künstlern Schutz vor unbefugter Manipulation ihrer Arbeit. Dies wird wahrscheinlich zu einer weiteren Grauzone in der Musikindustrie, und die Regulierung könnte Schwierigkeiten haben, Schritt zu halten.
Neue musikalische Erfahrungen Die Popularität von Playlists hat gezeigt, wie sehr wir gerne Musik hören, die einen gewissen „funktionalen“ Nutzen hat B. zum Fokussieren, Entspannen, Einschlafen oder Trainieren.
Das Start-up Endel hat KI-gestützte funktionale Musik zu seinem Geschäftsmodell gemacht und unendliche Streams geschaffen, um bestimmte kognitive Zustände zu maximieren.
Endels Musik kann mit physiologischen Daten wie der Herzfrequenz eines Zuhörers verbunden werden. Sein Manifest stützt sich stark auf Praktiken der Achtsamkeit und macht den kühnen Vorschlag, dass wir „neue Technologien nutzen können, um unseren Körpern und Gehirnen zu helfen, sich an die neue Welt anzupassen“, mit ihrem hektischen und angstauslösenden Tempo.
Andere beginnen-ups erforschen auch funktionale Musik. Aimi untersucht, wie einzelne Produzenten elektronischer Musik ihre Musik in unendliche und interaktive Streams verwandeln können.
Aimis Hörer-App lädt Fans ein, die generativen Parameter des Systems wie „Intensität“ oder „Textur“ zu manipulieren oder zu entscheiden, wann a Tropfen passiert. Der Zuhörer beschäftigt sich mit der Musik, anstatt passiv zuzuhören.
Es ist schwer zu sagen, wie viel schwere KI in diesen Anwendungen leistet – möglicherweise wenig. Trotzdem lenken solche Fortschritte die Visionen der Unternehmen, wie sich Musikerlebnisse in der Zukunft entwickeln könnten.
Die Zukunft der Musik wie wir Musik erstellen und teilen.
Werden die Urheberrechtsgesetze verschärft, um sicherzustellen, dass Unternehmen, die KI-Systeme für die Werke von Künstlern trainieren, diese Künstler entschädigen? Und wofür wäre diese Entschädigung? Gelten neue Regeln für die Quellentrennung? Werden Musiker, die KI verwenden, weniger Zeit damit verbringen, Musik zu machen, oder mehr Musik machen als je zuvor? Wenn eines sicher ist, dann ist es Veränderung.
Während eine neue Generation von Musikern mit den kreativen Möglichkeiten der KI aufwächst, werden sie neue Wege finden, mit diesen Tools zu arbeiten.
Solche Turbulenzen sind nichts Neues in der Geschichte der Musiktechnologie, und weder leistungsstarke Technologien noch bestehende Konventionen sollten unsere kreative Zukunft diktieren.
Affiliate-Links können automatisch generiert werden – Einzelheiten finden Sie in unserer Ethikerklärung.