Я не совсем уверен, что вы спрашиваете, поэтому я собираюсь угадать:
Вам нужно программно запустить некоторые ноты MIDI в вашем синтезаторе, а затем записать все аудио в файл .wav, верно?
Предполагая, что вы уже знаете JUCE, было бы довольно тривиально создать приложение, которое открывает ваш плагин, отправляет MIDI и записывает аудио, но, вероятно, проще настроить проект AudioPluginHost
.
Давайте разобьем его на несколько простых шагов (сначала откройте проект AudioPluginHost
):
- Программно отправить MIDI
Посмотрите на GraphEditorPanel.h
, особенно на класс GraphDocumentComponent
. Он имеет закрытую переменную-член: MidiKeyboardState keyState;
. Это собирает входящие MIDI-сообщения, а затем вставляет их во входящий буфер Audio & MIDI, который отправляется в плагин.
Вы можете просто вызвать keyState.noteOn (midiChannel, midiNoteNumber, velocity)
и keyState.noteOff (midiChannel, midiNoteNumber, velocity)
, чтобы активировать заметку.
- Запись аудиовыхода
Это довольно просто сделать в JUCE — вам следует начать с просмотра демонстраций JUCE. Следующий пример записывает вывод звука в фоновом режиме, но есть много других способов сделать это:
class AudioRecorder : public AudioIODeviceCallback
{
public:
AudioRecorder (AudioThumbnail& thumbnailToUpdate)
: thumbnail (thumbnailToUpdate)
{
backgroundThread.startThread();
}
~AudioRecorder()
{
stop();
}
//==============================================================================
void startRecording (const File& file)
{
stop();
if (sampleRate > 0)
{
// Create an OutputStream to write to our destination file...
file.deleteFile();
ScopedPointer<FileOutputStream> fileStream (file.createOutputStream());
if (fileStream.get() != nullptr)
{
// Now create a WAV writer object that writes to our output stream...
WavAudioFormat wavFormat;
auto* writer = wavFormat.createWriterFor (fileStream.get(), sampleRate, 1, 16, {}, 0);
if (writer != nullptr)
{
fileStream.release(); // (passes responsibility for deleting the stream to the writer object that is now using it)
// Now we'll create one of these helper objects which will act as a FIFO buffer, and will
// write the data to disk on our background thread.
threadedWriter.reset (new AudioFormatWriter::ThreadedWriter (writer, backgroundThread, 32768));
// Reset our recording thumbnail
thumbnail.reset (writer->getNumChannels(), writer->getSampleRate());
nextSampleNum = 0;
// And now, swap over our active writer pointer so that the audio callback will start using it..
const ScopedLock sl (writerLock);
activeWriter = threadedWriter.get();
}
}
}
}
void stop()
{
// First, clear this pointer to stop the audio callback from using our writer object..
{
const ScopedLock sl (writerLock);
activeWriter = nullptr;
}
// Now we can delete the writer object. It's done in this order because the deletion could
// take a little time while remaining data gets flushed to disk, so it's best to avoid blocking
// the audio callback while this happens.
threadedWriter.reset();
}
bool isRecording() const
{
return activeWriter != nullptr;
}
//==============================================================================
void audioDeviceAboutToStart (AudioIODevice* device) override
{
sampleRate = device->getCurrentSampleRate();
}
void audioDeviceStopped() override
{
sampleRate = 0;
}
void audioDeviceIOCallback (const float** inputChannelData, int numInputChannels,
float** outputChannelData, int numOutputChannels,
int numSamples) override
{
const ScopedLock sl (writerLock);
if (activeWriter != nullptr && numInputChannels >= thumbnail.getNumChannels())
{
activeWriter->write (inputChannelData, numSamples);
// Create an AudioBuffer to wrap our incoming data, note that this does no allocations or copies, it simply references our input data
AudioBuffer<float> buffer (const_cast<float**> (inputChannelData), thumbnail.getNumChannels(), numSamples);
thumbnail.addBlock (nextSampleNum, buffer, 0, numSamples);
nextSampleNum += numSamples;
}
// We need to clear the output buffers, in case they're full of junk..
for (int i = 0; i < numOutputChannels; ++i)
if (outputChannelData[i] != nullptr)
FloatVectorOperations::clear (outputChannelData[i], numSamples);
}
private:
AudioThumbnail& thumbnail;
TimeSliceThread backgroundThread { "Audio Recorder Thread" }; // the thread that will write our audio data to disk
ScopedPointer<AudioFormatWriter::ThreadedWriter> threadedWriter; // the FIFO used to buffer the incoming data
double sampleRate = 0.0;
int64 nextSampleNum = 0;
CriticalSection writerLock;
AudioFormatWriter::ThreadedWriter* volatile activeWriter = nullptr;
};
Обратите внимание, что фактические звуковые обратные вызовы, которые содержат аудиоданные из вашего плагина, происходят внутри AudioProcessorGraph
внутри FilterGraph
. Обратный вызов аудио происходит много раз в секунду, когда передаются необработанные аудиоданные. Вероятно, было бы очень грязно изменить это внутри AudioPluginHost
, если вы не знаете, что делаете — вероятно, было бы проще использовать что-то вроде приведенного выше примера. или создайте собственное приложение со своим аудиопотоком.
Функция, о которой вы спрашивали:
AudioBuffer<FloatType> getBusBuffer (AudioBuffer<FloatType>& processBlockBuffer) const
не имеет значения. Как только вы уже находитесь в обратном вызове аудио, это даст вам аудио, отправляемое на шину вашего плагина (например, если у вашего синтезатора есть сайдчейн). Вместо этого вы хотите взять звук, выходящий из обратного вызова, и передать его AudioFormatWriter
или, что предпочтительнее, AudioFormatWriter::ThreadedWriter
, чтобы фактическая запись происходила в другом потоке.
Если вы совсем не знакомы с C++ или JUCE, Max/MSP или Pure Data могут быть проще для вас, чтобы быстро что-то состряпать.
person
Chris Penny
schedule
04.05.2018