Foto von Conor Samuel / Unsplash
FoxDot
Dies ist eine Bibliothek für aufstrebende Musen. Programmierer. Es wurde 2015 von Ingenieur Ryan Kirkbride entwickelt. FoxDot konzipierte als ein persönliches Projekt - mit Hilfe von Ryan ustaivayte Live-Session unter dem Pseudonym Qirky - aber jetzt mit dem Werkzeug arbeiten , die Welt um.
Die Bibliothek nutzt die Funktionen des Open Sound Control (OCS) -Paketprotokolls und der virtuellen SuperCollider- Umgebung für die Audiosynthese , die 1996 entwickelt wurde, aber weiterhin aktiv unterstützt wird.Gemeinschaft. Der Programmierer erstellt Objekte mit Argumenten, die das Instrument, die Tonhöhe und die Dauer angeben. Sounds können gemustert und geloopt werden, um komplexe Musikdesigns zu erstellen. Der Code wird in Echtzeit zu Musik - hier ein Beispiel für die Arbeit mit der Bibliothek:
Wenn Sie das Tool selbst erlernen möchten, ist es sinnvoll, mit der detaillierten offiziellen Dokumentation zu beginnen . Antworten auf viele Fragen finden Sie im thematischen Forum . Sie können Ihre Vorschläge und Wünsche für neue Funktionen im Repository auf GitHub hinterlassen .
Pippi
Diese Bibliothek wurde von einem Vertreter des Indie-Labels LuvSound entwickelt, das neue Musik und junge Künstler unterstützt. In seiner Komposition verfügt es über mehrere Strukturen für die Arbeit mit Sound, einschließlich des gemeinsamen SoundBuffers und Wavetables . Der Zweck des Pippi besteht darin, mit vorhandenen Sounds zu arbeiten. Mit dem Instrument können Sie geladene Samples kombinieren und modifizieren.
from pippi import dsp
sound1 = dsp.read('sound1.wav')
sound2 = dsp.read('sound2.flac')
# Mix two sounds
both = sound1 & sound2
Es ermöglicht auch die Erstellung völlig neuer akustischer Designs auf der Basis von Samples, um beispielsweise "granulare" Sounds zu erzeugen. Dies ist ein Verfahren , bei dem eine Probe wird geteilt in viele kurze Abschnitte ( „Granulat“) und vermischt. Hier ist der Code zum Erstellen eines 10-Sekunden-Signals dieses Formats aus dem Audio in der umhüllten Variablen :
# Synthesize a 10 second graincloud from the sound,
# with grain length modulating between 20ms and 2s
# over a triangle shaped curve.
cloudy = enveloped.cloud(10, grainlength=dsp.win('tri', dsp.MS*20, 2))
Die Pippi-Bibliothek ermöglicht keine Echtzeitwiedergabe von Musik und ist daher für Live-Konzerte schlecht geeignet. In einem thematischen Thread zu Hacker News sagte der Autor jedoch, dass er eine Schnittstelle von Drittanbietern entwickelt habe - Astrid . Nach dem Speichern wird die Musikdatei automatisch neu gestartet, wodurch Möglichkeiten für Aufführungen auf der Bühne eröffnet werden.
Musik-Code
Diese kleine Bibliothek wurde vom Datenwissenschaftler Wesley Laurence geschrieben . Sie kann Akkorde, Drum- und Bassklänge erzeugen. Der Autor verwendet sein Tool, um Beispiele für Modelle des maschinellen Lernens zu erstellen. In der Bibliothek können Sie mit Sequenzern, Aggregatoren, Samplern und verschiedenen akustischen Effekten arbeiten. Mit Music-Code können Sie neben Musik auch Visualisierungen für Musikkompositionen vorbereiten.
Foto von Tanner Boriack / Unsplash
Bisher hat Music-Code ein sehr kleines Publikum, da die Bibliothek noch recht jung ist - sie wurde auf GitHub veröffentlichterst vor drei Monaten. Der Autor plant jedoch die Entwicklung seines Tools und hofft, dass er neue Benutzer gewinnen kann - insbesondere unter Spezialisten auf dem Gebiet der KI-Systeme. Der Autor plant, ein Video mit Anweisungen zum Einstieg in Music-Code aufzunehmen und hochzuladen.
Zusätzliche Lektüre in der "World of Hi-Fi":
Was ist Musikprogrammierung - wer macht das und warum
Wo bekommt man Audio für maschinelles Lernen
? Eine Auswahl offener Bibliotheken. So funktioniert Sporth - Java für Live-Musiksitzungen
Wo bekommt man Audio für die Entwicklung von Spielen und anderen Projekten
? für die Benutzeroberfläche: eine Auswahl thematischer Ressourcen