KI im Musikstudio: Ein Gespräch mit Rich Keller und David Ronan

02.03.2026
Die intelligentesten Menschen im Raum
KI im Musikstudio: Ein Gespräch mit Rich Keller & David Ronan
Moderiert von Tom Truitt, Turnkey ZRG
Was passiert, wenn ein Grammy-prämierter Hip-Hop-Toningenieur mit 30 Jahren Erfahrung im Studio sich mit dem CEO eines führenden Unternehmens für KI-gestützte Musikbegleitung zusammensetzt? Sie bekommen ein ehrliches Gespräch über die Rolle von KI in der Musikproduktion.
David Ronan, CEO von RoEx, war zu Gast bei Rich Keller im Podcast „Die intelligentesten Menschen im Raum“ von Tom Truitt, um über unterstützende KI, die Ursprünge der Technologie von RoEx, räumlichen Audio, Urheberrecht im Zeitalter der generativen KI und warum keiner von beiden die Musik aufgeben würde… selbst wenn sie im Lotto gewinnen würden, zu sprechen.
Hier ist das Transkript von diesem Podcast:
Tom: Willkommen bei den intelligentesten Menschen im Raum. Wir freuen uns, dass Sie hier sind, und allein durch Ihr Erscheinen zeigen Sie bereits Ihre eigenen Fähigkeiten. Heute freue ich mich, zwei äußerst erfolgreiche Musik-Executives vorzustellen, deren Arbeit hauptsächlich in den Trenches stattfindet, sprich im Studio. Wir werden tief eintauchen, wie KI ihre Geschäfte beeinflusst, und mehr darüber erfahren, was sie momentan und in Zukunft tun. Und ich verspreche Ihnen, dass Sie hier intelligenter und erleuchtet verlassen werden, als Sie angekommen sind.
Tom: Bevor wir beginnen, lassen Sie mich einige Dinge erledigen. Zunächst, an das Publikum, fühlen Sie sich frei, sich im Chatfenster vorzustellen. Der Grund, warum wir diese Webinare durchführen, ist zweifältig. Erstens möchten wir wirklich intelligente Menschen und die bemerkenswerte Arbeit, die sie tagtäglich in der Musikbranche leisten, präsentieren. Aber der zweite Grund ist ein bisschen nuancierter. Viele von Ihnen wissen, dass ich Headhunter in der Musikbranche bin. Ich führe die Musikpraxis bei Turnkey ZRG und platziere Musik-Executives in verschiedenen Rollen in der Branche. Folglich helfe ich durch Definition und Funktion Menschen, sich mit Unternehmen zu verbinden. In dieser Serie ist es mein Ziel, Ihnen zu helfen, mehr Verbindungen herzustellen, und ich lade Sie ein, diese Gelegenheit voll auszuschöpfen.
Tom: Konkret lade ich Sie ein, sich mit den Rednern und den anderen Teilnehmern im Zoom-Chat auszutauschen. Bitte stellen Sie sich vor, teilen Sie Ihr LinkedIn-Profil, grüßen Sie Ihre Freunde und schließen Sie neue Bekanntschaften, und stellen Sie Fragen an unsere Redner. Außerdem ist das sehr wichtig. Bitte stellen Sie sicher, dass Ihr Chat an alle gerichtet ist, nicht nur an den Gastgeber und die Redner.
Tom: Ich möchte unseren Programmsponsoren danken, denn ohne ihre Unterstützung könnten wir dies nicht kostenlos anbieten. Ein spezieller Dank geht an MedJet, Turnkey ZRG, die Tennessee Entertainment Commission, Tennessee Brew Works und Better Than Booze.
Tom: Nun, lassen Sie uns zur Sache kommen. Heute begrüßen wir Rich Keller. Er ist ein hochqualifizierter und erfahrener Toningenieur, bekannt dafür, das Beste aus den Auftritten seiner Künstler herauszuholen. Mit einem tiefen Verständnis der technischen Aspekte des Recordings und Mischens ist Rich in der Lage, einen polierten und professionellen Klang zu erzeugen, der die Musik auf ein neues Level bringt. Er hat mit einer Vielzahl erfolgreicher Rap- und Hip-Hop-Künstler zusammengearbeitet, darunter DMX, Swizz Beatz, De La Soul, Nipsey Hussle, Nas, Miles Davis, Alicia Keys, Lil Wayne, Mariah Carey, Method Man, Jadakiss, The LOX, Snoop Dogg, Chris Brown, Rick Ross, Ja Rule und vielen anderen. Wow, das ist ein Hall of Fame-Menü, Rich. Unglaublich.
Tom: Richt Hells Karriere erstreckt sich über die Breite des Hip-Hop seit 1992, was ihm einen offiziellen OG-Status einbringt. Willkommen, Rich. Es ist mir eine Freude, Sie heute hier zu haben.
Rich: Hey, Tom. Wie geht's dir? Danke, dass du mich da hast, Mann.
Tom: Großartig.
Rich: Ich werde allein schon müde, wenn ich die Liste höre.
Tom: Und auch dabei ist David Ronan. Er ist Gründer und CEO von RoEx, einem bahnbrechenden Musiktechnologieunternehmen, das die Kreativindustrie mit KI-gestützten Misch- und Masterlösungen neu gestaltet. Seine Mission ist es, die Audioproduktion zu demokratisieren und professionelle Audioqualität für Kreative aller Erfahrungsstufen zugänglich zu machen. Als Leiter der KI-Musiktechnologie hat David zuvor als Forschungsleiter bei AI Music gedient, wo er die Entwicklung von Infinite Music, einem adaptiven KI-Musikgenerierungssystem, leitete, das Millionen von Tracks in verschiedenen Stilen produzierte. Diese Innovation trug zur Übernahme von AI Music durch Apple im Jahr 2022 bei. David hat einen Doktortitel in Elektronik und Informatik von der Queen Mary University in London, wo seine Forschung sich auf intelligente Audioproduktionstools konzentrierte, einschließlich vollautonomer Mehrspur-Mischsysteme. Seine Expertise umfasst digitale Signalverarbeitung, maschinelles Lernen und Softwareentwicklung mit früheren Rollen bei Native Instruments, Northrop Grumman und einem anderen Unternehmen, das ich nicht aussprechen kann. Mein Fehler. Leidenschaftlich an der Schnittstelle zwischen Kreativität und Technologie interessiert, ist David bestrebt, Musikschaffende zu empowern und die Zukunft der Audioproduktion neu zu definieren. Es ist mir eine Freude, diese beiden Rockstars heute auf unserer Plattform willkommen zu heißen. Legt los, Jungs.
David: Cool. Danke, dass wir hier sein können, Tom.
Rich: Ja.
David: Prost. Alles klar, Rich. Wie geht’s dir?
Rich: Mir geht's gut. Es ist schon eine Weile her, aber schön, dich wiederzusehen, David. Ja, wir haben tatsächlich schon lange nicht mehr gesprochen. Es ist immer gut, sich wieder auszutauschen.
David: Genau. Ja. Ich denke, es wäre gut, zu besprechen, wie wir uns kennen. Möchtest du mit dem anfangen?
Rich: Ja. Du weißt, ich denke, das lag alles an mir. Aber bevor ich darauf eingehe, muss ich sagen, dass es keinen Druck gibt, einen Titel wie „Der Intelligenteste im Raum“ zu tragen und dann mit all deinen Doktortiteln und dem ganzen Brimborium vorgestellt zu werden, während ich nur sage, warte, ich mische nur Hip-Hop, weisst du, und mache Musik. Du hast die Liste der… Also, na ja, ich werde versuchen, ... je älter ich werde, desto mehr weiß ich, dass ich nichts weiß. Also wird es immer schwieriger, intelligent zu sein, verstehst du.
Rich: Aber das beiseite – ja, ich mische seit über 30 Jahren jetzt, mische Platten für Hip-Hop, für Def Jam und Sony und UMG, alle großen Label. Und durch das habe ich mich immer weiterentwickelt mit der Technologie und ich war immer Teil des nächsten großen Dings. Weißt du, ich habe angefangen, professionell Bass zu spielen, als ich nach New York kam, und dann bin ich in das Programmieren von Synthesizern übergegangen, als der DX7 auf den Markt kam, zusammen mit den großen analogen Synthesizern. Dann war da noch Digidesign, das jetzt Avid ist, richtig? Es war zuerst, und es war nur der Stereo-Editor.
Rich: Es war 1992, und mein Kumpel Adam nutzte es, um Flüche aus Hip-Hop-Songs zu entfernen, und das war meine erste Einführung in das Digitale. Dann bekamen wir unser erstes Album, das wir mit ihm mischen sollten, und synchronisierten ein 1-Zoll-16-Spurband mit DBX Typ 1, was einmal mehr neue Technologie war. Wir hatten einen Mac SE, der Vision synchronisiert hatte, und das über ein 1-Zoll-Band und eine automatisierte Konsole - noch eine weitere neue Technologie. Also, jeder Schritt in meiner Karriere, und das ist nur der Anfang. Ich könnte noch lange weiterreden. Ich meine, das ist '92. Ich könnte dich durch das Museum, die Evolution der Audiotechnologie führen.
Rich: Aber lass uns von damals auf ein paar Jahre ago vorrücken. Ich habe angefangen – ich schätze, vielleicht um 2020, 2021, so ungefähr. Als Apple Spatial Audio ins Leben rief, konnte ich an vielen Projekten dafür teilnehmen, als es zuerst der Öffentlichkeit vorgestellt wurde. Und schnell genug fanden wir heraus, dass wir einige Tools brauchen, um Audio zu trennen – wenn du nicht die Multitrack hast, wie wirst du… also ohnehin, das ist der Punkt, an dem ich ins Spiel kam und sagte: „Hey, lass uns all diese Plattformen ansehen.“ Und es gab nur ein paar am Anfang, die das tun konnten – die Stems oder einen Teil der Musik trennen, das Reverb oder etwas in dieser Art entfernen. Im Grunde genommen KI nutzen, um den Klang zu manipulieren. Und das war meine erste Schnittstelle mit KI.
Rich: Und dann war es mein Verständnis – sobald ich sah, dass es besser und besser wurde – wurde mir klar: „Wow, warum kann ich…“ Und die LLMs brachen durch, und ich sah GPT 3.0. Ich war einfach baff.
David: Ja, ja, ja.
Rich: Ein Wendepunkt.
David: Ich meine, die ganze Welt, richtig? Wir alle dachten, „Was passiert hier?“
Rich: Aber in Kurzform, so habe ich meinen Fuß in die AI gesetzt. Das hat mich letztendlich zu David gebracht, weil ich folgenden Gedanken hatte - ich wollte eine KI von mir schaffen. Ich wollte einen Rich Keller KI-Mischer haben. Ich wollte ihn trainieren, wachsen lassen und es zu meinem Geheimrezept für Mischungen machen. Und durch ein Projekt, an dem ich für das De La Soul-Projekt von Reservoir Media arbeitete - und die Jungs aus der Band…
Rich: Ich arbeitete mit Jessica von AudioShake, der CEO, und sie ist eine großartige Person.
David: Ja, nicht wahr? Sie ist brilliant. Ja. Sie ist großartig.
Rich: Ja, sie ist sehr aufrichtig, sehr hilfsbereit und hat ein tolles Produkt. Also fragte ich sie, ob sie sich engagieren und so etwas aufbauen will. Und sie antwortete: „Weißt du was? Ich habe den richtigen Typen für dich.“
David: Ja.
Rich: David, das ist Davids Gebiet. Er kümmert sich darum und er ist der Beste darin. Also, hier, macht einfach. Und das war's. So haben wir uns getroffen.
David: Ja, ich erinnere mich, weil wir uns persönlich auf der AES-Show in New York getroffen haben und zu Flux Studios gingen, Fab's Ort, eigentlich. Und wir haben uns einfach eine Weile unterhalten.
Rich: Ja. Das war auch die richtige Arbeit, die wir gemacht haben.
David: Ja. Wir haben im Grunde besprochen, wie wir zusammenarbeiten könnten und herausfinden könnten, wie wir ein System aufbauen, das die Arbeit, die du gemacht hast, im Grunde genommen modelliert und das gute Mischen, das du tun kannst. Und ja, ich schätze, der Rest ist Geschichte. Ich würde aber auch interessieren, sozusagen, weil du offensichtlich eine lange Geschichte in der Musikproduktion hast und KI jetzt offensichtlich das neue Ding ist, aber abgesehen von der Quelltrennung, wie hast du KI noch in deinem Arbeitsablauf verwendet? Und ich würde auch gern wissen – arbeiten all die Künstler, mit denen du jetzt zusammenarbeitest, mit ihr? Nutzen sie sie? Haben sie Angst davor?
Rich: Die Produktionen, mit denen ich zu tun hatte - zum Beispiel bei der TV-Show Godfather of Harlem. Wir hatten einige Probleme. Die Produzenten nutzten KI nur für einige der Samples, nur für Teile. Anstatt aus einer Platte zu sampeln, für die du bezahlen musst, erstelle ein Sample mit KI und füge es ein. So verwenden sie es, das ist ein großes Anwendungsbeispiel, das gerade im Gange ist. Und viele der Musikunternehmen springen auf dieses Format auf, weil es nicht wirklich einen neuen Song schafft, es wird nur ein Klang erzeugt, richtig? So umgeht man die ganzen Urheberrechtsprobleme.
Rich: Das beiseite - jetzt, auf eine Weise, wie ich das, was von der KI erzeugt wird, benutze: Es gibt ein paar bekannte Produzenten, die KI als Tool verwenden, um einen Track zu schreiben. Sie entwickeln die Produktion und das Songwriting entweder innerhalb von Suno oder Udio. Die meisten Jungs, die ich kenne, verwenden Udio.
David: Sehr interessant.
Rich: Und was du bekommst, ist ein Track, der einen Geschmack hat, einen Klang hat, aber irgendwie fehlen bestimmte Elemente, vielleicht, oder die Klänge sind nicht ganz so gut, aber die Stimmung – es ist das Demo. Es ist das Grobe. Und meine Karriere bestand immer darin, dem Groben nachzujagen. Ich habe immer dem Groben mit jedem hinterhergejagt. Alle sagen: „Ich will Rich - das ist der grobe Mix. Ich will, dass es wie ein richtiges Record klingt, aber ich will, dass es wie mein grober Mix klingt. Ich will die gleiche Präzision und die gleiche Energie und die gleiche Präsenz.“
Rich: Also, was ich gemacht habe - die Produzenten spielen den Track neu. Also wird die KI für die Komposition und die Entwicklung des Produktionsprozesses verwendet und was immer gut wird, wenn sie die Produktion überbaut, finde ich immer, dass ich hineingehen muss und dinge wie den Bass-Sound isolieren muss. Die Repetition ist einfach nicht gut. Also muss ich da reingehen und das trennen und dann hinzufügen. Ich ziehe tatsächlich Elemente aus dem Groben heraus, genau so, wie ich es bei einem groben Mix tun würde.
Rich: Ich habe viele Male erlebt, dass mir die Multitrack vorgelegt wurde. Sie hatten ein Grobexemplar auf Kassette und dann ein Multitrack auf der Disc, und sie haben die Snaredrum verloren. Also haben sie sie durch eine ersetzt, die sehr nah dran war, und sie sagen mir, dass es die gleiche Trommel ist. Ich sage: „Ja, Kumpel. Ist es nicht.“ Lass mich nicht verarschen. „Du kannst Mariah sagen, dass es die gleiche Trommel ist.“ Und sogar sie sagte: „Es ist nicht das Gleiche. Was ist anders?“ Ich bin da und schaue dich an, wie „Kumpel, das ist nicht die gleiche Trommel.“
Rich: Also musste ich in diesem Fall tatsächlich einsamples von der Kassette machen, wo es einen Drop gab, bei dem die Snare allein spielte, und ich habe es in die Aufnahme eingeflogen. Und es war einer dieser „Tag gerettet“-Momente, weißt du? Aber ich schweife ab.
Rich: Also, unterschiedliche Möglichkeiten, wie ich die KI in meiner Arbeit benutze - manchmal werde ich einfach einige Sounds stehlen. Sagen wir es so. Ich werde Sounds stehlen, die die KI erschaffen hat und die so perfekt und richtig sind. Ich werde sie einfach verwenden und auslösen.
David: Also verwendest du sie sehr assistiv.
Rich: Ja.
David: Nicht in einer ersetzenden Weise. Und ich denke, das ist wahrscheinlich die beste Art und Weise, das derzeit zu nutzen.
Rich: Ich meine, ich habe viele der Plugins – ich habe drei verschiedene AI-Plugins. Ich bin mir nicht sicher, ob sie wirklich KI sind oder was – weißt du, dieser Begriff. Ich meine, tatsächlich wollte ich dich dazu etwas fragen. Könntest du darüber reden – gib uns einfach einen kleinen Überblick? Denn es gibt KI, und dann gibt es neuronale Netze und dann gibt es Lernen, und dann gibt es … aber einige Dinge sind nicht gelernt. Ich verstehe den Unterschied nicht. Ich bin verwirrt, wenn ich AI höre. Was bedeutet das wirklich? Lernt es? Erklär, wie die verschiedenen Arten von KI funktionieren, und ich werde meinen Mund halten.
David: Ja. Ich meine, KI ist wie der große Oberbegriff - der Oberbegriff, sollte ich sagen. Und dann hast du sozusagen maschinelles Lernen, das ist, wo es tatsächlich mit Daten trainiert wird. Du hast große Datensätze und du hast einen Algorithmus, der die Verteilung der Daten lernt und Vorhersagen darüber machen kann. Du kannst ihm etwas geben und es kann dir den Unterschied zwischen bestimmten Dingen sagen – ob es ein Katze oder ein Hund ist, Bilder, solche Sachen.
Rich: Ist das, was ein LLM ist? Ist das wie ChatGPT?
David: Nein. Das ist eine Art generativer KI. Das ist wie die Evolution davon. Als KI vor 15 Jahren in der akademischen Welt begann, bevor sie Mainstream wurde, wurde sie stark dafür genutzt, Dinge zu klassifizieren. So wie in selbstfahrenden Autos, da sagen sie: „Das ist ein Stoppschild, das ist ein Fußgänger, das musst du nicht überfahren.“ Aber generative KI ist das, was wir jetzt sehen, wo sie aus dem Nichts etwas generieren kann. Du kannst ChatGPT sagen: „Okay, schreibe mir eine Geschichte über einen Mischingenieur, der Hip-Hop macht“, und es wird dir etwas geben.
Rich: Aber lernt das? Lernt es von uns? Wenn ich mit ChatGPT tippe, wird mein Input dann sozusagen im Nebel da oben vereint?
David: Ja. Einige Modelle tun das. Ich meine, ein LLM ist wie ein Autocomplete im Steroiden, im Grunde. Es wird auf so viele Daten trainiert, dass es vorhersagen kann, basierend darauf, was du geschrieben hast, was als Nächstes passieren wird. Aber dann gibt es das verstärkende Lernen, wo es praktisch von dir lernt. Du sagst: „Okay, erzähle mir eine Geschichte über was auch immer“, und du sagst: „Okay, das gefällt mir wirklich“, und es lernt auch davon.
Rich: Also gibt es offensichtlich unterschiedliche Arten von KI, die sich unterscheiden – sie lernen nicht immer. Vielleicht war die Annahme, die ich hatte, wenn auch möglicherweise falsch, dass sie immer lernen, immer Wissen aufsaugen.
David: Nicht unbedingt. Nein. Einige von ihnen sind einfach bereits trainiert und das war's. Sie erledigen einfach ihren Job. Und dann, wenn die Person, die sie erstellt hat, einmal mehr Daten erhält, könnte sie es neu trainieren und verbessern. Und das könnte manchen Nutzer von einer App oder so gelernt haben. Du kannst das tun. Im Wesentlichen, so funktioniert ein Großteil der Dinge, würde ich sagen.
Rich: Nun, danke, dass du das erklärt hast. Klärt es für mich. Es ist immer ein großes, schattiges Ding, weißt du.
David: Ja. Ich schätze, wenn es auf Audio angewendet wird, ist es etwas komplizierter. Nun, Audio und Musik – weil Musik einfach so subjektiv ist und Emotionen hat. Es ist witzig, als ich anfing, all diese KI-Maschinen-lernen-Sachen zu machen, analysierten wir die Signale mathematisch und fütterten sie einem Algorithmus, um Vorhersagen zu treffen. Und dann begannen wir tatsächlich damit, Bilder von Klang zu füttern, und dann traf er Entscheidungen darüber, was ich ziemlich interessant fand.
Rich: Was ist ein Bild von Klang?
David: Wie ein Spektrogramm.
Rich: Oh, wie das 3D-Bild mit den Rillen. Ja. Okay.
David: So hat es sich entwickelt, was ich wirklich interessant finde. Und das Problem mit diesen Modellen des maschinellen Lernens ist, je mehr Bilder du hast, desto besser lernt es. Sie sind sehr datenhungrig. Und diese LLMs sind besonders datenhungrig und sehr teuer im Betrieb, und sie müssen auf spezieller Hardware laufen. Ich weiß nicht, wie wahr das ist, aber anscheinend brauchst du für jede ChatGPT-Frage, die du stellst, eine Gallone Wasser, um die Server kühl zu halten. Das ist offensichtlich auch Energie. Also sind sie hungrig.
David: Es ist verrückt, wie es voran geht. Du kannst jetzt sehen, dass Meta ihre eigenen Kraftwerke baut und Datenzentren unter Wasser stellt, um sie kühl zu halten, und sie versuchen, neue Wege zu finden, um dies effizienter zu gestalten. Und das andere ist, wie groß die Modelle sind. Wenn es ein großes Modell ist, das auf viiiiiiiel Zeug trainiert wurde, musst du es auf vielen Rechenclustern haben, und sie versuchen, sie kleiner zu machen. Ein Großteil davon erfordert die nötige Power - sprich das Geld - um diese Dinge trainieren zu können. Deshalb haben die großen Tech-Unternehmen damit einen enormen Vorteil.
David: Aber was interessant war – ich weiß nicht, ob du dich vor ein paar Monaten daran erinnerst – es gab dieses chinesische Startup namens DeepSeek, und sie konnten ein wirklich wettbewerbsfähiges, sehr gutes Modell trainieren. Ich glaube, es kostete sie nur 2 Millionen Dollar oder so – ich weiß, „nur“ 2 Millionen Dollar – aber viel günstiger als das, was Meta und Google für ihre Modelle ausgaben. Und ich denke, das war ein großer Moment.
Rich: Haben sie nicht wie mitfahren lassen? Haben sie nicht tatsächlich ChatGPT angeschlossen und irgendwie davon trainiert? Das ist das, was ich gehört habe.
David: Das taten sie. Ja. Ich denke, das war das hinterlistige Ding.
Rich: Hinterlistiges Ding. Ja. Du weißt, KI ist wie diese Rauchwolke, dichte Nebel, aus dem Dinge fallen – kleine Wörter fallen. Und das gleiche mit Klang, Bild. Das Bild wird verrückt. Ich habe gerade gesehen, dass es Modelle gibt, die du von GitHub herunterladen kannst, die die V3, das neue Gemini 2.5-Video, mit dem Sprecher, das ich ausprobiert habe, und es ist unglaublich, und das bläst es weg und du kannst es herunterladen und es auf deinem Laptop verwenden.
David: Ja. Ich meine, das Tempo, in dem es voranschreitet, ist einfach unmöglich, Schritt zu halten. Jeden Tag – ich bin bei diesem Brief Abonnent, das nennt sich TLDR, der im Grunde die technischen Nachrichten jeden Tag herunterbricht, und ich bin wie: „Ich weiß nicht, ob ich das noch ansehen kann.“ Weißt du, was ich meine? Es ist einfach – ich versuche das zu tun, was ich zu tun versuche, und Schritt zu halten. Das ist ein Kampf.
David: Aber was interessant ist, es gibt viele KI-Unternehmen da draußen, die behaupten, KI zu sein, aber sie basieren nur auf ChatGPT. Dagegen ist nichts einzuwenden – ein Geschäft ist am Ende des Tages ein Geschäft – aber einige von ihnen behaupten, es selbst aufgebaut zu haben, was ziemlich interessant ist.
Rich: Kein Urheberrecht für den Code. Ich meine, müssen sie nicht mit ChatGPT verbunden sein?
David: Nun, genau das. Wenn ChatGPT plötzlich offline geht, geht ihr Geschäft ebenfalls offline. Sie haben also eine Abhängigkeit. Daran gibt es viel, was in Ordnung ist, aber du bist damit an die großen Tech-Giganten gebunden. Du stehst nicht mehr auf eigenen Beinen. Was ich stolz sagen kann, ist, dass wir es tun – wir haben keine Abhängigkeit von OpenAI, weil unsere gesamte Technologie im Grunde auf dem basiert, was aus meinem Doktortitel stammt. Alles von Grund auf gebaut, was uns einen einzigartigen Vorteil gibt – wir sind der Konkurrenz Jahre voraus und es sind sehr einzigartige IPs, die spezifisch für das Mischen sind.
Rich: Ja. Lass uns zurückblicken. Erzähl uns von diesem Übergang. Das erste, was ich in deinem Profil hörte, das ich vorher gehört habe, aber über das wir nie wirklich gesprochen haben, war das Unternehmen, das du an Apple verkauft hast. Du warst Teil des Teams dort.
David: Ja. Ich war nicht einer der Gründer, aber ich war im Gründungsteam, im Grunde genommen.
Rich: Also hast du es mit ihnen gestartet. Aber was hat das Produkt tatsächlich gemacht? Und wann war das – 2019, 2020?
David: 2022 war, als Apple es gekauft hat, im Grunde genommen. Aber was wir taten, war Musik mit KI zu kreieren, aber bevor die Sunos und die Udios der Welt auftauchten, weil die Technologie damals anders war. Wir hatten ein Team von Musikproduzenten, die Musikproben und Loops und all diesen tollen Kram für uns erstellten – erschaffen von Menschen, die gut klangen und wirklich gut produziert waren. Was wir machten, war, diese verschiedenen Elemente zu nehmen und sie zusammenzusetzen, um neue Songs daraus zu schaffen.
David: Im Grunde wurde es so funktionieren: Du konntest sagen: „Gib mir einen Hip-Hop-Track mit 92 BPM, in der Tonart A-Moll, und ich möchte, dass der Drop bei 30 Sekunden ist.“ Und das könnte es tun und dir verschiedene Variationen geben. Dann könntest du sagen: „Okay, verlängere es auf eine Minute“, und das könnte es tun, denn wir hatten die grundlegenden Bausteine des Sounds, und wir hatten das maschinelle Lernen und die KI, die sie harmonisch und musikalisch sinnvoll zusammenfügte. So klang es gut.
David: Und das Schöne daran war, dass es dieses menschliche Element beibehalten hat. Ich denke, zu dieser Zeit waren wir die einzigen, die das taten. Alle anderen verwendeten KI, um Kompositionsregeln zu lernen und sie dann an MIDI weiterzugeben. Und es hatte einfach nicht – musikalisch klang ein Teil davon gut, aber es hatte einfach nicht das menschliche Gefühl dabei. Und da haben wir herausgestochen.
David: Unser Geschäftsmodell bestand im Grunde darin, es für Werbung zu verkaufen. Du möchtest eine Werbung für Spotify oder so erstellen, aber du möchtest einen Song lizenzieren – du musst für die Rechte bezahlen, das ist kompliziert und dauert lange. Mit diesem, boom, ich habe eine Werbung. Die Werbung ist 90 Sekunden lang. Darum geht's. Hier sind die Spezifikationen. Und wir generieren den Track im Grunde sofort. Also ja, wir haben das vier Jahre lang gemacht. Es war direkt vor dem letzten Jahr, als wir es im Grunde genommen draufhatten. Aber dann kam Apple natürlich einfach so vorbei.
Rich: Vorbeigeflogen. Wie ein Möwe am Strand mit dem Hotdog des Kindes, richtig?
David: Weggeblasen. Ja, aber es war erfolgreich. Das Tolle daran war, dass ich mit einem wirklich guten Team gearbeitet habe und ich eine Menge gelernt habe. Der Gründer hatte zuvor ebenfalls bereits erfolgreich verkauft. Also war ich mit einem guten Team, und das hat mir ermöglicht, RoEx zu gründen, was das Schöne daran war – denn ich hatte vier Jahre Startup-Erfahrung gesammelt und ich hatte ein bisschen Geld, im Grunde genommen. Also ging ich zurück zur Universität und sagte: „Lass uns spinoff und mein Doktorandenwissen kommercialisieren.“
Rich: War das dann dein Doktortitel?
David: Ja. Also im Grunde hatte ich am Ende meines Doktortitels ein gewisses geistiges Eigentum im Bereich des Mehrspur-Mischens. Aber das Problem war, dass es vollkommen wertlos war, weil du es in einem Labor auf einem Computercluster betreiben müsstest. Du konntest nur vier Spuren mischen. Sie mussten in Mono sein.
Rich: Das war wie in den 50er Jahren mit Analog.
David: Ja. Und es würde einen Tag dauern, um ein Ergebnis zu bekommen. Also dachte ich, das ist vollkommen nutzlos. Ich musste herausfinden, wie ich das in ein Produkt verwandeln kann. Es gab viel harte Arbeit, um es so zum Laufen zu bringen, dass jemand kommen konnte, ihre Aufnahmen hochladen, einen Knopf drücken, einige sehr grundlegende Mixing-Präferenzen angeben und in Minuten einen Mix und Master-Track erhalten konnte.
Rich: Das war bereits funktional, als ich die Demo machte und ich war verkauft, weißt du.
David: Aber das Ding ist, ich bin kein professioneller Toningenieur. Also du und Anegeliki – Angeliki ist unsere leitende R&D-Ingenieurin – ihr wart die Praktiker, die es wirklich verstanden haben, die mir helfen konnten, es zu gestalten und es viel professioneller und realistischer klingen zu lassen. Und ich denke, das war der Punkt, an dem der Wendepunkt kam, als ihr beiden eingestiegen seid. Aber es hat eine Weile gedauert. Es hat eine lange Zeit gedauert, um an den Punkt zu kommen, an dem es überhaupt so geformt werden konnte. Anpassungsfähig genug, um auf einen Poke zu reagieren.
Rich: Ja, genau.
David: Ich meine, erst kürzlich war es immer noch ziemlich langsam, denn wenn du versuchst, 32 Spuren von hochauflösendem Audio zu mischen, so viel Verarbeitung erfordert das, wie du dir vorstellen kannst. Und das lösen wir gerade - wir haben ein System, das es erheblich schneller erledigt. Aber ja, es war herausfordernd, um das auf den Markt zu bringen.
David: Einer der Gründe dafür ist, dass viele Leute nicht unbedingt den Unterschied zwischen Mischen und Mastern wissen, richtig? Denn es gibt viele Masteringunternehmen da draußen. Offensichtlich hat LANDR die Szene mit ihrem KI-Mastering 2013 angestoßen. Sie haben die Szene gegründet und es gab viele Unternehmen, die dieses Geschäftsmodell repliziert haben. Ich denke, viele Menschen dachten, als wir rauskamen, dass „Oh, du bist so wie LANDR.“ Und wir waren: „Nun, das sind wir nicht, tatsächlich. Wir machen Mehrspur-Mischen.“
David: LANDR hat einen erstaunlichen Job gemacht und einen sehr anderen Weg zu uns gewählt. Sie sind voll in die Musik gegangen – sie machen Plugins, sie machen Samples, sie sind horizontal gegangen. Wir gehen mit der Technologie weiter, die wir jetzt machen, und es funktioniert wirklich gut für Musik, und wir lieben Musik. Wir werden Musik weiter machen. Aber die Technologie dahinter hat Anwendungen in Film und Fernsehen, Postproduktion, Videospielen - und da werden wir in Zukunft hingehen, im Grunde.
Rich: Leistungsstarke Audio-Tools, weißt du.
David: Ja, das ist es – um Menschen wie dir zu ermöglichen, schneller arbeiten zu können. Wieder um auf KI zu sprechen zu kommen, die unterstützend ist. Im Grunde genommen wird die Idee sein, dass du in einem DAW (Digital Audio Workstation) bist und einen Knopf drückst und es wird all das Korrektur-Editing erledigen – das Entfernen bestimmter Frequenzen, die Sachen, die keinen Spaß machen. Es ist nicht kreativ. Du machst es nur, um an den Punkt zu kommen, an dem du dann kreativ mischen kannst. Und dahin wollen wir gehen.
Rich: Ja. Und es ist großartig. Wir haben darüber gesprochen, das… den Stiltransfer zu machen. Ich weiß nicht, warum ich da einen Block auf habe. Den Stiltransfer, um tatsächlich namhafte Ingenieure zu haben – beginnend mit mir und meinen Freunden und all dem - um Modelle zu trainieren. Aber neben diesem Weg, an dem wir immer noch arbeiten, gibt es das Mastering-Element von RoEx und dann das Mehrspur-Misch-Element.
Rich: Also ohne jetzt eine ganze Werbung für RoEx Audio zu machen – aber das ist wirklich der Grund, warum wir zusammen sind, mehr als nur Freunde. Und du hast mir freundlich eine Beratungsposition angeboten. Also bin ich glücklich, dabei zu sein, falls die Leute nicht realisiert haben, dass wir miteinander in Verbindung stehen.
Rich: Ich bin nur neugierig, um noch mehr über die Plattform zu verstehen, von der Rückseite aus. Wir haben nie die Gelegenheit, das so ausführlich zu besprechen. Gibt es einen Unterschied zwischen dem, was du beim Mastering als Zwei-Kanal-Master machst, und dem, was du in Mehrspur-Situationen machst? Ich bin mir sicher, dass es einige Überschneidungen gibt.
David: Ja, gute Frage. Ohne ins Detail zu gehen und die geheime Sauce öffentlich preiszugeben – das System, das hinter dem Mischen, dem Mastering und den Entscheidungen steht, wie man EQ und Kompression und all diesen Kram anwendet, ist ziemlich ähnlich. Aber du musst bedenken, dass du beim Mastering einen Stereo-Track hast. Wir haben die einzelnen Tracks nicht. Darin liegt das gewisse Etwas, um es effektiv zu mastern und es gut klingen zu lassen. Wir optimieren es für Punch und Klarheit und bringen es natürlich auf ein gewisses Level.
Rich: Es gibt eine andere Absicht, die spezifisch mit der Einschränkung der Quelldatei zu tun hat und den nächsten Schritten, die du unternehmen wirst, um auf diese Einschränkungen zu reagieren.
David: Fast. Es ist unterschiedlich, wo es sein muss.
Rich: Aber das ist auch ein großer Teil des Geschäftsmodells jetzt, nicht wahr? Das Mastering.
David: Ja. Wir arbeiten mit United Masters zusammen, die wirklich großartig in der Zusammenarbeit sind. All ihre Sachen laufen durch uns zum Mastering.
Rich: Schön.
David: Ja, wir arbeiten auch mit Music AI. Sie machen unser Mehrspur-Mischen. Es läuft gut. Wir haben Kunden, die es wirklich mögen. Und dann haben wir auch das B2C-Geschäft, das ebenfalls sehr gut läuft – es wächst Monat für Monat, was großartig ist.
David: Ich denke, für uns ist der DAW der Ort, an dem wir sein wollen. Wir haben einige leichte DAW-Integrationen gemacht und wir haben noch mehr in Planung. Die DAW ist das zentrale Element – dort geschieht die Kreation. Dort musst du sein. Wenn du mit einem Knopf in der DAW plötzlich auf 90% kommen kannst, ist das das Beste, was es wirklich gibt, denn du kannst plötzlich 30 Mischungen pro Woche machen, anstatt 10. Du wirst pro Mischung bezahlt.
Rich: Ja. Genau. Aber für die DAW-Integration ist der heilige Gral wirklich – genau wie bei jedem Studiogerät gibt es nur wenige Plätze in diesem Rack. Du hast deine LA-2A, du hast deine Klassiker, die schon immer da sind. Es ist lustig, dass tatsächlich einige Geräte aus den alten Zeiten immer noch den gefragtesten Klang haben, weil sie sehr grundlegende Probleme gelöst haben. Der LA-2A – der Opto-Kompressor. Und wir haben das Pultec aufgrund von dir gemacht – das war deine Idee. Wir haben sowohl die LA-2A als auch das Pultec modelliert, weil wir wissen, dass sie die Anlaufstellen sind, sie lösen Probleme, sie funktionieren so gut und werden, ich weiß nicht, für immer da sein.
David: Wir müssen an diesen EQ-Kurven arbeiten, an diesen Kompressionskurven – dem Knien, der Opto-Einstellung, dem Attack und dem Release, die perfekt sind.
David: Ja. Die andere Sache, von der ich denke, dass du viel sprechen kannst, ist das immersive Format. Das ist etwas, an dem wir interessiert sind – da wollen wir weiter hinein. Aber was interessant ist – das ist gerade sehr kürzlich passiert.
Rich: Was ist das?
David: Ich denke, wir werden bald einen Formatkrieg im räumlichen Bereich sehen. Du hast offensichtlich Dolby Atmos, das schon eine Weile da ist. Google hat gerade das Eclipse-Format gestartet, das völlig quelloffen ist. Jeder kann es bauen – naja, das werden wir jetzt bauen, weil wir keine Lizenz dafür bezahlen müssen. Warum nicht? Und du kannst dieses Content auf YouTube, einer der größten Musikplattformen der Welt, anhören. Aber dann hat auch Apple leise ihr eigenes natives Format herausgebracht – relativ leise. Sie haben kein großes Aufhebens darum gemacht.
Rich: Ich sah einen Artikel. Ja. Es ist also interessant. Es gibt all diese Formate, die jetzt im räumlichen/immersiven Bereich herauskommen.
David: Was mir am Google-Format gefällt, ist, dass es kostenlos ist, es ist gewissermaßen wie die Schweiz. Jeder kann es verwenden. Bei Dolby Atmos wird es eher „cinema down“ – du musst bezahlen, es ist teuer. Mit Eclipse ist es „creator up“. Jeder kann integrieren. Was ich großartig finde. Und das ist es, was uns dorthin führt, und wir haben mit ihnen darüber gesprochen.
Rich: Was würde das jedoch bedeuten?
David: Wir würden einfach Inhalte bereitstellen, genau wie wir es jetzt für Apple tun. Und die, die dieses Format verwenden – Tidal und Amazon und Deezer nutzen auch das Dolby Atmos-Format. Also werden wir – ja, es muss angenommen werden. Ich habe noch niemanden gesehen, der es angenommen hat, außer YouTube, aber es ist noch früh.
David: Ich weiß, dass man im Chrome, im Google Chrome, es anhören können wird – du wirst es nicht brauchen – du wirst das Zeug einfach im Grunde anhören können. In unserer Automix-App, wenn wir einen Eclipse-Mix erstellen, musst du es nicht herunterladen und es über ein Renderer anhören – du kannst es einfach im Browser machen. Was ich auch wirklich mächtig finde.
Rich: Ich gehe davon aus, dass es kodiert werden muss, oder wird es einfach wie bei Dolby ADM-Format übersetzt, wie Apple … ich meine, wir wissen es nicht. Es ist früh, oder?
David: Ich schätze, draußen ist die Wildnis.
Rich: Oh, 100%. Und es ist reif für Disruption in Bezug auf assistive Tools. Denn es gibt keine Regeln für immersive Formate, oder? Ich meine, du weißt es besser als ich - sag mir, wenn ich falsch liege - aber es gibt wirklich keine festgelegten Regeln für das Mischen von immersive Musik wie es für Stereo gibt. Du weißt schon - Bass geht in die Mitte, Kick in die Mitte.
Rich: UMG hat uns einige Richtlinien gegeben. Wir hatten in den letzten Jahren einige Pakete wie: „Okay, hierher, hierher, von jetzt an werden wir Atmos in einem Rockmix behandeln.“ Die Gitarren müssen in den vorderen Drittel bleiben. Der Gesang wird nicht totzentral solo sein – er wird aufgeteilt. Denn wenn du versehentlich eine ADM-Datei oder eine Quell-Datei von deinem Computer spielst, wird der zentrale Kanal soliert. Daher könntest du theoretisch einen Gesang stehlen. Das waren die Sorgen. Wir mussten eine Regel haben, dass der Gesang mehrkanalig sein musste. Also hättest du niemals einen Solo-Gesang.
Rich: Aber die Formate jetzt – Sony hat ein eigenes, das 360 Reality Audio, und dann haben sie jetzt den Raum-Modulator für die Kopfhörer.
David: Es ist unglaublich. Ich habe es ausprobiert. Ich war da mit dir, ich erinnere mich.
Rich: Ja. Das ist mind-blowing stuff. Ich sah gerade June vom Sony-Team – er ist der Kopf dieses Teams. Und wir werden uns tatsächlich bald treffen, ein wenig Abendessen haben und uns unterhalten. Es gibt auch – Sony gab der NYU 7 Millionen Dollar, um einen Kurs, ein Seminar für die Zukunft von Musik, die Zukunft von Audio zu entwickeln. Also werde ich daran beteiligt sein, mit den Studenten zu sprechen. Wir entdecken das alles für uns selbst. Verrückte Fahrt, Mann.
Rich: Tatsächlich möchte ich hier etwas ansprechen. Liv Carter fragte nach Urheberrechtsmusik – hat jemand begonnen, das Problem des Urheberrechts in der KI-Musik zu lösen? Ich kann dir etwas darüber erzählen, Liv.
Rich: Nach meinem Verständnis und was ich von Leuten mit vielen Buchstaben nach ihren Namen gehört habe, ist, dass solange die Modelle mit den tatsächlichen Metadaten trainiert werden – den Rechten, allen zugehörigen Credits, allem über den Song - wenn du ein Modell trainierst und die Metadaten einfügst, ist es möglich, herauszufinden, was verwendet wurde, was durch den Fleischwolf gegangen ist. Es kann dir sagen – es könnte ein mikro anteil eines Million verschiedener Songs oder 100.000 sein – aber es wird es dir herausfiltern, von was es beeinflusst wurde, und du müsstest möglicherweise Schwellenwerte für Abstufungen haben. Es ist in Arbeit und die Leute ringen damit.
David: Ich meine, sie müssen das lösen.
Rich: Ja, werden sie. Ich meine, komm schon. Wir haben Bitcoin und die Blockchain, richtig? Es gibt also Möglichkeiten, Dinge abzuschließen und ihnen eine einzigartige Identifizierung zu geben und alles wahr zu machen – zumindest bis die Quantencomputer kommen, richtig?
Rich: Und wird der Urheberrechtsinhaber tatsächlich bezahlt? Nun, wenn sie im System der Majors sind - so wie die Majors die Künstler jetzt bezahlen oder Spotify mit ihren Streaming-Cents – wird das nur ein weiteres Tröpfeln von Cents sein. Denn die Labels scheinen – die großen Labels scheinen Suno und Udio zu verklagen, weil sie mit urheberrechtlich geschütztem Material trainiert haben. Aber jetzt scheint das Argument zu schwanken – sie werden sie nicht abschalten. Sie werden das tun, was sie mit Spotify gemacht haben, das ist im Grunde genommen einen Deal zu machen, einen Prozentanteil zu nehmen und einen Rev Share einzugehen.
David: In den Sonnenuntergang mit Geldsäcken reiten.
Rich: Genau. So wie sie es immer tun – einfach ständig die Künstler zu verdünnen und auszuquetschen. Das ist es, was sie tun. Und ich sage ungern, dass ich Teil dieser Landschaft, dieses Ökosystems in der Musikindustrie bin. Manchmal wünsche ich mir, es gäbe bessere Wege, das zu tun. Und es gibt ein paar Leute, mit denen ich spreche, die sich besser Wege überlegen, aber es ist noch zu früh, um darauf zu kommentieren. Die große Verdünnung passiert. Jeder kann Musik nach Belieben erstellen und nach Belieben wieder loswerden.
David: Ja. Ich meine, es ist heutzutage so verdammenswert einfach, Musik zu machen.
Rich: Richtig.
David: Du hast - ich meine, du hast viele der Probleme gelöst. Ich würde sagen, das sind „Probleme“, aber viele Schritte sind viel einfacher geworden als vor fünf oder zehn Jahren. Offensichtlich erledigen wir das Mischen und Mastering. Aber wie Samples zu bekommen - ich habe nicht viel Zeit, um Musik zu machen, aber ich war früher schlecht im Schlagzeugprogrammieren. Das war einfach nicht mein Ding. Ich war darin einfach wirklich schlecht. Aber jetzt kannst du es einfach generieren lassen und dann nutzen, und weiter geht's.
Rich: Richtig. Es ist wie - drehen, den Spinner nach Geschmack, es landet, weiter geht's. Aber wir haben das schon gemacht, seit digitale Plugins herauskamen und sie die Presets von den Ingenieuren hatten - die großartigen Ingenieure haben ihre Presets eingegeben. Du konntest einfach durchklicken und boom, du hast etwas, das dir gefällt. Das ist bereits ein Schritt, den du nicht wirklich verstehst, warum. Jemandes hart erarbeitete Erfahrung steckt darin – normalerweise hat dieses Mikrofon diese Kurven und dies ist der angenehmste Weg, diese Kurve zu präsentieren, und wir setzen es in ein Preset.
Rich: Also klicke ich durch und lerne nicht das Wissen – ich profitiere vom Wissen und der Erfahrung von jemand anderem, der vor mir war, aber ich lerne nicht das Wissen. Aber ich habe meine 10.000 Stunden oder mehr absolviert und ich weiß, wie ich – nun, lasst es uns sehen, was tatsächlich passiert. Ich habe meinen eigenen Stempel entwickelt, was ich denke, dass Dinge klanglich besser klingen sollten, was persönlicher ist. All die KI-Sachen sind einfach so sehr generisch, und sie passen genau in den Kreis.
David: Gut gesagt. Ich denke, das Schöne daran ist - wenn du Teil des kreativen Prozesses bist, ein Künstler bist, und du kannst kleine Teile davon nehmen, um schneller dorthin zu gelangen, wo du hin willst, ist das großartig. Das ist perfekt.
David: Aber ich schätze mit Suno kannst du einfach mit einem Prompt ein Lied generieren, und es ist sofortige Befriedigung. Aber dabei macht es keinen Spaß. Es macht etwa 10 Minuten Spaß, ein Lied über deinen Hund zu machen, der zu viel Butter frisst oder so etwas Dummes.
Rich: Richtig. Genau.
David: Was ich damit sagen wollte, ist – umso ernsthaftere Kreative es nutzen, aber es kann sie nur so weit bringen. Zum Glück erkennen die Plattformen das und sagen – schau, YouTube hat gerade gesagt, vor ein paar Tagen haben sie keine Tantiemen auf 100% KI-Musik bezahlt.
Rich: Es muss also einen signifikanten menschlichen Beitrag geben. Natürlich, wie werden sie das herausfinden? Nun, sie haben KI-Schwellenmeter. Ich denke, es muss eine bestimmte Schwelle bestehen. Ich bin mir nicht sicher. Das sind Software-Sachen. Um zu unterscheiden zwischen KI und nicht-KI-Musik, und ich denke, ein Teil davon hat mit der Klangqualität zu tun, weil es darauf trainiert ist.
David: Ich bin froh, dass du das gesagt hast. Denn Spotify hatte diese API, die du anpingen und alles aus ihrem gesamten Katalog erhalten konntest. Ich denke, sie haben jetzt aufgehört, dass Leute es nutzen können. Aber im Grunde konntest du 30-sekündige Snippets von praktisch ihrem gesamten Katalog herunterladen – solange du eine Liste der 100 besten Songs in jedem Jahrzehnt für jedes Genre hattest – und du konntest ein 30-sekündiges Snippet bekommen. Aber es waren alles MP3s, also hatte es wahrscheinlich nicht high-fidelity.
Rich: 96 kbps MP3.
David: Ja, genau. Und das ist es, was es trainiert. Ich denke, viele dieser KI-Musikdetektoren sind einfach sehr gut darin, MP3s zu erkennen. Ich bin mir sicher, dass einige von ihnen viel mehr sind als das, aber einige, die ich gesehen habe, die behaupten, eine 100% Erfolgsquote zu haben, ich bin einfach so: „Es ist 100% erfolgreich darin, es als MP3 zu erkennen.
Rich: Richtig. Und irgendetwas passiert, wenn es durch den Fleischwolf in die KI geht und zurückkommt. Es gibt eine bestimmte Signatur für die Langsamkeit des Klangs, die sich besonders bei allen Instrumenten bemerkbar macht.
David: Nun, es ist das MP3-Encoding. Denn MP3 entfernt Frequenzen, die wir nicht hören können - deshalb kannst du eine WAV-Datei auf MP3 verkleinern. Es entfernt einfach die Sachen, die du sowieso nicht hören kannst. Und das ist eine klangliche Signatur an sich. Wir können es nicht hören, aber die Algorithmen können es sehen. Gehen wir zurück zu den Bildern des Schalls - das ist, wo es einfach wird.
Rich: Wow. Jetzt sind wir wieder am Anfang.
David: Ganz rum. Das war ziemlich gut.
Rich: Mal sehen - es gibt keine internationalen Gesetze, die Kreativen schützen, bis… Ja, Glenn. Es ist die Wildnis, Mann. Der Staub fliegt und die Klapperschlangen sind überall. Aber da ist auch Gold in diesen Hügeln.
Rich: Für mich fühlt es sich einfach wie eine große Verdünnung an. Algorithmen halten alles gleich. Auf meinem Spotify höre ich gerne 70er und 80er - tatsächlich meist 70er. Ich finde, das war, als ich ein kleiner Junge war, sodass diese Sachen die meisten gefüllten Erinnerungen haben, bevor ich ein Teenager wurde und all das.
David: Vor dem ganzen Frust.
Rich: Ja. Bevor die Frustration einsetzte. Damals war ich glücklich und alles war in Ordnung. Und je älter ich werde, desto mehr kehre ich zu meinem Glück zurück.
David: Was schön zu sehen ist, auf jeden Fall. Also wollte ich dich fragen, David – bevor ich weiß, dass wir in der letzten Viertelstunde sind – ich weiß, dein Job ist dein Leben und hält dich beschäftigt. Du hast eine wunderbare junge Familie, das ist eine schöne Sache. Aber ich wollte dich fragen – was treibt dich an? Woher kommt die Leidenschaft bei dir?
David: Das ist eine gute Frage. Ich habe Musik immer geliebt. Musik machen seit etwa 15, wenn nicht sogar jünger.
Rich: Was machst du?
David: Vor allem elektronische Sachen. Ich liebe elektronische Musik – Techno, Jungle, IDM, all diese Sachen. Warp Records – da haben wir, mein Lieblinglabel. Für alle, die im Chat sind, gebt uns ein Daumen hoch. Aber ja, sehr experimentelle elektronische Musik. Und ich war immer sehr technisch aufgewachsen. Ich programmiere seit etwa neun Jahren Computer.
David: Ich habe dann Mathematik und Informatik studiert. Informatik war in Ordnung, ich mochte es. Die Mathematik ist ein bisschen langweilig. Aber ich wollte diese beiden Dinge kombinieren. Also machte ich einen Master in Musiktechnologie, und es war ein Jahr des Fusions dieser beiden Dinge. Und ich dachte: „Oh mein Gott, das sind meine… zwei Dinge, die ich wirklich gut kann und die mich interessieren.“ Und ich habe immer Dinge gebaut und liebe Musik. Ich kann mir nicht vorstellen, etwas anderes zu bauen oder in einem anderen Bereich zu arbeiten, weil ich schon so lange darin bin. Ich mache schon so verdammt lange Musik – warum sollte ich etwas anderes machen wollen?
Rich: Was ich herauslese, ist, dass du nie an die gerade Welt, die Unternehmenswelt, gedacht hast – bei Amazon arbeiten, oder bei Google?
David: Mache Musik mit ihnen? Das wäre lustig. Ja. Aber ja – in dieser Hinsicht haben wir eine Menge gemeinsam. Du bist einfach ein freigeistiger Denker und Unternehmer.
Rich: In der gleichen Weise habe ich einfach nie in einer anderen Karriere als der, die ich mache, nachgedacht. Es ist einfach natürlich – ich treibe einfach mit und Dinge passieren.
Rich: Als ich jünger war, dachte ich, ich sah die Zukunft. Aber ich versuche das jetzt zu tun, und ich sehe nicht dieselbe Zukunft. Ich konnte damals schon erkennen, was vor sich ging, aber jetzt bin ich etwas weniger sicher, vielleicht nicht so optimistisch, wie ich es früher war. Aber ich bin noch nicht cynisch. Ich glaube an die Hoffnung.
David: Nun, ich nehme an, du bist so wie ich – die meiste Zeit, wenn du bei der Arbeit bist, genießt du es. Natürlich gibt es in jedem Job Dinge, die du nicht magst. Aber ich erinnere mich – an einem Sonntag hattest du Furcht, weil du am Montag zur Schule gehen musstest. Aber als ich bei AI Music anfing, war das mein erster Job nach meinem Doktortitel in Musiktechnologie - war ich wirklich wie:“Oh Gott, ich darf am Montag reinkommen und verrückte Sachen mit KI und Musik machen.“ Ich kann es kaum erwarten. All meine Freunde sind da und sagen: „Gott, ich muss da hin und Excel-Tabellen machen.“
Rich: Genau.
David: Deshalb mache ich es. Ich kann mir nicht vorstellen – selbst wenn ich die verflixten Lotterie gewinnen würde, dass ich aufhören würde, was ich tue.
Rich: Gib es der Frau, bezahl die Rechnungen, hab Spaß, kauf dir einen Stapel T-Shirts, richtig? Ich würde auf jeden Fall ein großes Studio bauen. Aber ich würde immer noch Musik und Audiozeug machen. Ich würde weiterbauen. Ich liebe es, so wie du.
David: Ja, Mann.
Rich: Für mich ist es wirklich der Übergang – versuche, die Momente zu schaffen. Ich hatte meine eigenen Momente, weil ich schreibe und singe, ich mache mein eigenes Ding. Aber ich war auch Teil der Momente. Viele Freunde, alte Freunde, würden sagen: „Rich, du arbeitest mit Rappern. Du bist Musiker. Du bist mit Jazz und Rock und Latin und Klassik aufgewachsen – und jetzt bist du bei der niedrigsten Form von musikalischer Musik.“ Ich sage: Nein, so sehe ich das überhaupt nicht. Ich hatte die Gelegenheit, mit einigen unglaublichen Künstlern zusammenzuarbeiten.
Rich: DMX ist für mich…
David: War er dein Lieblingskünstler, mit dem du gearbeitet hast, würdest du sagen?
Rich: Ja. Und ich verbrachte sieben Jahre mit ihm. Ich bin ihm und dem ganzen Team auch nahgekommen. Es war wirklich wie eine große Familie. Und als der Erfolg kam, lebten wir es einfach. Wir liebten es. Es war eine großartige Zeit.
Rich: Aber der Punkt, den ich machen wollte, ist, dass – so viele Momente mit so vielen verschiedenen Künstlern. Was ich suche, wofür ich lebe, sind diese magischen Momente, in denen, das erste Mal - das Lied mag in Sektionen aufgebaut sein oder was auch immer – aber wenn die Magie passiert und das, was den Hit ausmacht, den großen Hit, den jeder liebt – wenn du siehst, dass das geboren wird und du bist da, du bist Teil davon, du berührst es, du hilfst es zu gebären – dieser Moment der Kreation fühlt sich wie ein Funke an.
Rich: Und das ist die Nummer eins, das ist das höchste Ziel. Aber du bekommst das nicht die ganze Zeit. Also musst du Dinge tun, um es zu unterstützen. Es ist wie das Gold auf der Spitze der Pyramide, aber du musst die Pyramide die ganze Zeit auch aufbauen.
Rich: Und das ist ein Teil dessen, was in der KI fehlt. Wie ich schon sagte,{