mir.pe (일반/밝은 화면)
최근 수정 시각 : 2024-08-17 09:59:53

소프트웨어 신디사이저

파일:상위 문서 아이콘.svg   상위 문서: 신디사이저
1. 개요2. DAW 프로그램과 연동3. 장점4. 단점5. 역사6. 분류
6.1. 아날로그 시뮬레이션6.2. 빈티지 악기 시뮬레이션6.3. 샘플러6.4. 리듬/ 드럼머신6.5. Physical Modeling6.6. Mobile Software Synthesizer6.7. 그 밖에
7. 소프트웨어 신디사이저/가상악기 인터페이스 규격
7.1. 리눅스 및 오픈소스 진영의 소프트웨어 신디사이저/가상악기 인터페이스 규격
8. 소프트웨어 신디사이저 목록
8.1. 과거
9. Latency(지연)10. macOS iOS의 경우11. 참조항목

1. 개요

Software Synthesizer

소프트웨어 신디사이저는 넓은 의미로 하드웨어 형태로 제작된 것이 아닌, 컴퓨터에서 구동되는 소프트웨어 형태로 제작된 신디사이저의 기능을 이용하는 모든 프로그램을 가리키는 말이며, 이 뜻의 소프트웨어 신디사이저의 역사는 컴퓨터가 등장한 뒤인 1950년대부터이다. 좁은 의미의 소프트웨어 신디사이저는 개인용 컴퓨터 환경에서 음의 재생에 특화된, 특히 VST(Virtual Studio Technology), AU(Audio Unit)와 같은 인터페이스 규격을 준수하는 플러그인 프로그램을 가리킨다. 여기에서는 후자에 대해서 설명한다.

소프트웨어 신디사이저는 대부분 기능적으로 원래 있는, 공기를 진동시켜서 내는 악기의 소리를 소프트웨어로 재현하거나, 인공의 전자음을 만드는 신디사이저의 소리를 소프트웨어로 재현하는 것이다.

소프트웨어 악기로도 불리고, 실제 하드웨어가 없기 때문에 가상악기로 불리기도 하며, 특히 VST, AU 등의 플러그인 형태의 소프트웨어 신시사이저는 가상악기, 가상음원 등으로 불리기도 한다. 영어로는 Software Synth, Soft Synthesizer[1], Softsynth, Virtual Instrument 등으로 불린다.

보통 꽤 많은 조작 가능한 파라미터를 제공하며, 이것을 프리셋으로 저장하여 사용할 수 있다. 또한 MIDI 신호를 수신하며, MIDI Keyboard Controller 또는 다른 형태의 MIDI Controller를 연결하여 연주할 수 있다. 이렇게 하면 하드웨어 신시사이저와 같은 기능을 한다.

MIDI 시퀀서, DAW 프로그램 또는 운영체제에서 지원되며, 오디오 신호 및 MIDI 신호를 주고받는 API를 사용하여 MIDI 신호를 받아서 실시간으로 CPU나 별도로 추가된 DSP 보드로 소리를 합성하여 이를 오디오 데이터로 변환, 다시 운영체제 또는 시퀀서, DAW 프로그램의 오디오 신호 송수신 API를 사용하여 출력하는 형태로 되어있다.

주로 MIDI 시퀀서, DAW와 같은 소프트웨어 기반 음악 제작 환경에서 사용되며, 사보 프로그램에서 사용되는 경우도 있다.

2. DAW 프로그램과 연동

많은 소프트웨어 신시사이저가 별도의 추가 프로그램 없이 독립적으로 실행이 가능하지만, VST, AU 등과 같은 플러그인 형태의 소프트웨어 인터페이스를 제공한다. 이것들은 바로 Logic Pro, Cubase와 같은 DAW 플러그인 호스트 역할을 하는 프로그램에서 불러 쓸 수 있다.

이러한 형태로 소프트웨어 신시사이저를 사용하면 DAW 프로그램 내부의 MIDI 트랙에서 데이터를 받아서 소리를 내는 오디오 데이터를 출력할 수 있으며, 이렇게 출력된 오디오 데이터는 바로 DAW 프로그램 내부의 가상 믹서로 연결되며, 가상 믹서에 연결된 소프트웨어 이펙터 플러그인에 의해 오디오 데이터가 처리된다.

3. 장점

DAW와 함께 사용하면 공간과 케이블이 필요하지 않고, 하드웨어 신시사이저가 케이블로 연결될 때와는 달리 신호 손실이 전혀 없게 된다.

또한 컴퓨터의 RAM CPU가 허용하는 한계에 도달하기 전까지는 무제한으로 소프트웨어 신시사이저를 사용할 수 있다.

무엇보다 음악인 입장에서는 소프트웨어 신시사이저가 꽤 쓸만하면서 상대적으로 가격이 엄청 싼 편에 속하기 때문에, 음악을 제작할 때 DAW와 함께 사용하면 예산을 대폭 절감할 수 있다. 일단 곡 전체를 소프트웨어 신디사이저를 사용하여 만들고, 최종 녹음 작업 때 필요한 부분만 하드웨어 신시사이저를 대여하여 사용하거나 드럼, 기타 등의 전문 세션맨을 고용하여 녹음을 하는 형태가 가장 일반적이며, 위에 적은 것과 같이 아예 100% 소프트웨어 신시사이저만으로 녹음된 음반을 내는 경우도 있다.

예를 들어 East West/Quantum Leap[2]사의 Complete Classical Collection Second Edition 오케스트라 가상악기의 경우 500 달러 미만에 구입할 수 있다. 그런데 실제 관현악단을 섭외하여 녹음을 하면 어떨까? 예산 문제에서 비교가 되지를 않는다. 비단 오케스트라 뿐만이 아니라 홀로 작편곡을 하는 사람은 드럼을 녹음 할 때에는 기본적으로 베이스, 스네어, 심벌, 탐, 오버헤드 등 못해도 마이크가 6개[3]는 들어가고 상업 스튜디오를 빌린다고 해도 몇 곡 넘어가다보면 연주자와 스튜디오 대여 비용보다 가상악기 하나 사는게 훨씬 싸게 먹힌다.[4]

이러한 환경을 데스크탑 컴퓨터가 아닌 노트북 컴퓨터에 구축하면, 이것을 들고 다니는 모든 곳이 음악 작업을 할 수 있는 곳이 된다. 실내무대, 야외무대, 간이무대, 차 안, 기차 안, 비행기 안, 호텔 등에서 노트북을 켜기만 하면 바로 음악 작업을 할 수 있게 되는 것이다. 더불어 12U 랙 케이스 8개에 빽빽히 꼽힌 것과 같은 산더미같은 장비가 더 이상 필요없게 되니, 공연 때 마다 트럭을 대여하거나 항공 화물을 부치지 않아도 되므로 이러한 비용 또한 절감된다. 유명한 일렉트로닉 DJ들이 이동하는 영상에서 헤드폰을 끼고 작업을 한다던지, 영화 비긴 어게인에서 길거리 녹음이 가능한 이유다.[5]

전문 음악인이 이렇게 사용한 예로, 전문 색소폰 연주자이자 전자관악기 연주자였던 Michael Brecker를 들 수 있다. Brecker는 수도 없이 많은 MIDI 장비를 공연때마다 대동하는 것으로 유명했는데, 말년에 이 모든 것을 Logic Pro 환경 설정을 이용하여 소프트웨어 신시사이저로 구성하여 대체했다.

4. 단점

소리가 예전대비 많이 좋아졌다고는 하나, 기존에 존재하던 악기를 재현하는 소프트웨어 신시사이저는 실제 악기를 연주할 때 사용하는 연주 기법을 똑같이 흉내내는데 어느 정도 한계가 아직까지 존재한다. 특히 특정 주법에서 나오는 고유 소리를 낼 때 약한 모습을 많이 보인다.[6]

예를 들면 색소폰에서 원래 기본음역에는 없는 고음을 호흡 조절과 특화된 운지를 통해 연주하는 알티시모는 아직까지 극복되지 못한 난제이며, 누구나 한 번쯤 해봤을 기타의 경우 하드웨어 신디든 가상악기든 여전한 난제다. 통기타에서 피크를 쥐고 위 아래로 스트러밍 하는 것을 MIDI Keyboard Controller로 연주하여 흉내내는 것은 대단히 어렵다. 일렉트릭 기타의 경우, 고유한 목재의 소리+픽업의 소리+앰프의 디스토션+수많은 이펙터라는 복잡한 사운드메이킹 과정과 트레몰로 암을 이용한 비브라토,[7] 슬라이딩, 태핑 등 테크닉 재현은 어렵다. 이러한 어쿠스틱 악기가 아니더라도 오래 사용하면 소리가 살짝 맛이 가는 아날로그 신디사이저 특유의 소리 또한 재현하지 못한다. # ##

그 밖에 컴퓨터에서 구동되는 만큼, CPU 성능, RAM 용량과 함께 내부 대역폭에 제약을 받는다. 트랙 수와 작업량이 웬만하지 않은 사람들의 경우엔 RAM이 32GB가 되어도 가볍게 넘길만큼 부족하기 때문에 2대 이상의 컴퓨터를 프로그램을 통해 호스팅으로 연결해서 나눠 쓰기도 한다. 진지하게 컴퓨터 작곡/편곡 용도를 생각하고 있다면 일반 컴퓨터가 아니라 인텔 제온 시리즈, 인텔 코어 X 시리즈 쓰레드리퍼, AMD EPYC 시리즈이 탑재된 워크스테이션 내지는 서버 라인을 고려해야 한다.

5. 역사

PC 환경에서 최초로 등장한 소프트웨어 신디사이저는 MIDI 표준을 제정하는데 참여했던 David Smith가 Seer Systems의 CEO로 있을 때 CCRMA의 연구 결과인 Waveguide Synthesis를 소프트웨어로 구현하여 탄생했다. 이에 인텔이 후원금을 지급했으며, 1994년 COMDEX에서 Andy Grove가 기조연설을 할 때 같이 시연되었다.

이것의 2세대 버젼이 1996년에 발매된 SoundBlaster AWE64에 소프트웨어 신디사이저로 번들된 WaveSynth[8]이며, 최초의 상용화된 소프트웨어 신디사이저이다. 그러나 WaveSynth는 조작할 수 있는 파라미터가 많이 부족했고, 편리하게 조작할 수 없었으며, AWE64의 드라이버 형태로 제공되었다는 결정적인 한계가 있었다.

특정 하드웨어에 종속되지 않은, 완벽하게 독립된 소프트웨어 신디사이저로는 1996년에 발매된, Roland 드럼머신인 TB-303, TR-808, TR-909를 소프트웨어 신디사이저로 재현한 Propellerhead의 ReBirth RB-338을 최초로 꼽는다. 일단 바탕이 된 원조 아날로그 신디사이저의 소리에 꽤 근접한 소리를 내면서 실제 기계보다 조작하기 편리했기 때문에, 이것을 보고 모두 말 그대로 신기해하며 깜짝 놀랐다.

여기에 때마침 개인용 컴퓨터의 처리능력이 엄청나게 향상되고, Windows 환경에서 ASIO, WASAPI 등의 기술로 오디오 신호의 입출력 한계가 사실상 사라지자, 이후 폭발적일 정도로 소프트웨어 신디사이저가 제작된다.

1998년 Cubase, Nuendo를 제작한 Steinberg에 의해 소프트웨어 신디사이저, 소프트웨어 이펙터 규격인 VST가 제정되고, 업계에 널리 전파되면서 표준이 되었다.

초기에는 기술력의 부족 등의 이유로 소프트웨어 신디사이저를 이용한 연주는 실제 연주와는 큰 차이를 보였고, 매우 단순한 형태가 주를 이뤘으나, 현재는 연주력에 상관없이 MIDI 데이터를 생성하는 개인의 역량에 따라 실제 연주와 거의 차이가 없는[9] 연주를 하는것도 가능해질 정도로 성능이 좋아졌다.

6. 분류

너무나 다양한 형태가 존재하지만, 대략 다음과 같은 형태로 분류할 수 있다.

6.1. 아날로그 시뮬레이션

하드웨어로 된 Analog Simulation Synthesizer의 소프트웨어 버젼. 원조가 되는 아날로그 신디사이저에 사용된 아날로그 신호처리 기법이 매우 단순한 방식들이기 때문에 CPU가 별로 필요하지 않으며, 알고리즘에 의해 음을 합성하므로 RAM도 별로 필요없다. 따라서 성능이 아주 좋은 컴퓨터가 아니더라도 무리없이 구동할 수 있다. 이러먼셔 과거의 명기 아날로그 신디사이저를 재현하면 아래의 것으로도 분류 가능하다. 자세한 것은 신디사이저/합성방식 문서 참고.

6.2. 빈티지 악기 시뮬레이션

과거의 명기로 불렸던 악기를 본떠서 만든 것. 예를 들면 로즈 일렉트릭 피아노, 하몬드 오르간, 위에서 언급된 TB-303, TR-808, TR-909, 멜로트론, Prophet 5, DX7 과 같은 것을 재현한 소프트웨어 신디사이저이다.

대부분 과거의 명기는 충공깽스런 가격에, 매우 희귀하여 구하기가 어렵고, 구하더라도 정상적으로 동작한다는 보장을 할 수 없다. 더불어 쓰고 싶어도 구하는 것 자체가 불가능한 경우도 더러 있다. 빈티지 악기 시뮬레이션은 이러한 수요를 노리고 만들어진 소프트웨어 신디사이저이다. 수 만 ~ 수십 만원에 명기의 소리를 쓸 수 있다고 생각해보자. 구미가 당기지 않을 수 없다.

이들은 대부분 악기가 음을 내는 메커니즘은 물론, 악기에 사용된 회로의 특성까지 고스란히 흉내내며 재현한다. 그래도 원조 실물을 100% 재현하지는 못하지만 꽤 비슷한 느낌으로 재현한다.

6.3. 샘플러

빈티지 악기 시뮬레이션도 결국 PCM 오디오 데이터에 기반을 하기는 하지만, 여러 가지 알고리즘을 적용하여 최대한 원본 기계를 재현하려는 반면, 샘플러는 악기가 낼 수 있는 모든 소리를 녹음하여 재생한다. 피아노를 예를 들면, 88개의 매 건반마다 3~6 단계 별로 소리의 세기에 단계를 두고 그대로 녹음을 한다.[10] 그리고 MIDI 신호가 들어오면 음 높이와 세기에 맞는 건반의 샘플에 최소한의 알고리즘만을 적용하여 재생하는 식이다. 말 그대로 샘플 위주로 소리를 재현한다. 만약 건반 10개를 동시에 누른다면, 동시에 이 작업을 10개를 진행해야 제대로 된 소리가 난다.

그렇기 때문에 가상악기의 질과 용량이 높아질 수록 CPU와 더불어 RAM과 빵빵한 하드디스크의 용량은 물론, 악기를 악기를 불러오는 시간을 단축하기 위한 하드디스크의 속도가 매우 중요하다. 결국 PC의 발전과 함께 샘플러는 하드웨어에서 빠르게 소프트웨어로 전환되었다. 여담으로 SSD의 용량 대비 가격이 하드디스크급으로 낮아지면 가상악기 트랙을 세 자릿수 단위로 놓고 쓰는 사람들에겐 천국이 열릴 것이다. 2023년 기준 1테라 이하 SSD 가격은 대체로 HDD와 거의 차이가 나지 않게되었다.. 오히려 SSD가 용도상 더 저렴한 경우가 왕왕 있다.

최근 판매되는 DAW 프로그램에 경우엔 따로 자체 샘플러를 내장한다. 로직 시리즈의 EXS24나 큐베이스의 할리온의 경우가 그 예.

관현악단 샘플러 소프트웨어 신디사이저인 EWQL의 Symphonic Orchestra PLATINUM COMPLETE PLUS와 같이 용량만 197GB에, 주문하면 하드디스크에 복사하여 배송해주는 제품도 있다.(이건 EWQL 사 샘플러인 Play로 구동시킨다.) 특히 (악기 하나만 있는 건 아닌) Native Instrument의 번들 제품에 경우엔 Ultimate 9 버전 기준으로 320GB의 빈 공간을 권장한다.

그 밖에 기타, 드럼, 색소폰, 트럼펫과 같은 단일 악기의 소리를 샘플에 기반하여, MIDI를 이용한 연주에 특화된 알고리즘을 탑재하는 경우도 샘플러로 분류한다. 특정 CC가 들어오거나 특정 연주 패턴을 감지하면 해당 주법의 샘플을 재생하는 식으로 되어있다.

기존의 PCM 기반 Wavetable 합성방식의 하드웨어 신디사이저를 소프트웨어 신디사이저로 만들면 특성상 샘플러로 분류할 수도 있다. 그러나 이렇게 만들면 샘플 용량이 잘 해야 수 MB에서 수십 MB 밖에 안된다.

또한 당연히, 기존에 존재하던 하드웨어 샘플러의 소프트웨어 버젼도 존재한다.

6.4. 리듬/ 드럼머신

드럼, 타악기 전문 소프트웨어 신디사이저이다. 기본적으로 소리를 내는 기능 이외에 많은 양의 드럼 패턴을 가지고 있으며, 패턴을 정해서 순서대로 배열하는 것 만으로 손쉽게 사용할 수 있도록 된 것이 많다. 로직 내부의 Ultrabeats, FXpansion의 BFD 시리즈 같은 것이 있다.

6.5. Physical Modeling

기존에 존재하던 악기를 공학적인 방법을 사용하여 수학적으로 특성을 모델링하여 재현하는 방식을 소프트웨어로 구현한 것이다. 자세한 것은 신디사이저/합성방식을 참고하라. 어쿠스틱 악기 재현에는 위의 샘플러와 함께 가장 탁월한 방식으로 인식되고 있다.

6.6. Mobile Software Synthesizer

구동 환경이 말 그대로 스마트폰, 태블릿 컴퓨터에서 실행되면 이렇게 분류한다. 환경의 특성상 하드웨어와 소프트웨어 간의 최적화가 뛰어난 iOS에서 구동되는 것이 많다. 장난감 같은 것에서, 조던 루데스 같은 레전드급 프로 뮤지션이 공연에서 한 두번 사용도 아닌 애용할 정도로 완성도가 높은 것까지 온갖 것이 존재한다.

6.7. 그 밖에

여러가지 다양한 방식이 존재한다. 주파수 도메인에서 합성하는 방식, 아예 사용자가 여러 컴포넌트를 조합하거나 스크립트로 프로그래밍을 하여 사용자에게 극도의 자유도를 주는 방식 등 말 그대로 한계가 안보인다.

일본에서 발매된 보컬로이드 또한 음성을 합성하여 노래를 만들기 때문에 소프트웨어 신디사이저의 일종으로 분류되기도 한다.

7. 소프트웨어 신디사이저/가상악기 인터페이스 규격

VST 이후, 여러 회사에서 우후죽순격으로 자사의 시퀀서 또는 DAW 프로그램 전용으로 비슷한 규격을 내놓았지만 최종적으로 다음의 목록에 있는 것들이 살아남았으며, 오픈소스 진영에서 제정된 규격도 있다.

이 인터페이스 규격은 소프트웨어 신디사이저와 함께 오디오 신호를 처리하는 소프트웨어 이펙터를 위해 제정된 것들이다.

7.1. 리눅스 및 오픈소스 진영의 소프트웨어 신디사이저/가상악기 인터페이스 규격

한문장으로만 요약하면 오픈소스 진영의 리눅스용 이펙트 포맷으로 ladspa/Lv2가 있으며 악기용 포맷으로 Lv2/dssi/리눅스 전용 vst가 있고 이외 아예 이런 범주에 들어가지 않는 오픈소스 프로그램들을 악기/이펙터 가릴것 없이 JACK이란 프로그램으로 리와이어하듯 연결해서 사용하는 경우도 많다.

아래의 끔찍한 혼돈의 도가니와 상관없이 리눅스 미디에 도전하고 싶은 변태라면 사람이라면 간단하게 외장이펙트/내부 이펙트가 있으며 jack으로 연결하는 외부이펙트를 제외하면 전부 내부에서 포맷 상관없이 그냥 불러다 쓰면 된다..고 기억해두면 된다.설치는 우분투 소프트웨어 센터나 추가 ppa로 한방에 가능하다.

오픈소스, Linux 진영이 VST 가 아닌 자체적인 API 표준을 제정한 데에는 이유가 있다. VST 가 사실상 업계의 표준으로 매우 널리 쓰임에도 불구하고 그 개발 라이센스 자체는 Steinberg에 귀속되어 있기 때문에, VST 형식으로 생성된 파일의 배포는 문제가 되지 않지만, VST 또는 VST를 불러다 쓰는 호스트의 소스코드를 배포하면, 어떠한 방법으로든 최종적으로 Steinberg에서 제공하는 SDK를 가져다 쓰지 않으면 컴파일을 할 수 없게 되며, 이렇게 만들어진 프로그램을 배포하면 당연히 Steinberg에서 정한 라이선스 약관의 적용을 받게 된다. 이는 오픈소스 진영, GNU의 철학과 어긋난다.

그래서 오픈소스 DAW 프로그램인 LMMS의 경우, Linux에서 실행될 때, VST는 Wine으로 Windows용을 구동하고 이를 VeSTige라는 플러그인을 사용하여 연결하는 방식을 취하고 있다. 이렇게 에뮬레이터를 통해서 Windows용 VST를 구동하는 탓에 불안정한 모습을 보일때가 종종 있다.
없거나 쓰기 뭐하면 직접 만들라는 철학을 가진 동네답게 Linux 진영에는 공식적으로 LADSPA라는 소프트웨어 이펙터 플러그인 API 규격이 존재한다. 많이 활성화되지는 않았지만 최소한으로 필요한 만큼의 이펙터 프로그램이 존재하며, 오픈소스로 배포되는 MIDI 시퀀서, DAW, 기타 음악 제작 프로그램은 대부분 이것을 지원하고, 이 규격의 가상 이펙터를 하나 이상은 탑재하고 발표된다. 기존에는 여기에 신디사이저도 포함한다고 작성되어 있었는데,팩트상 아예 틀린 서술은 아니지만 Ladspa는 현재 상태로는 이펙터용 포맷에 가깝지 악기용 포맷으로 보기는 어렵다.[11] 악기전용 포맷으로는 LADSPA 확장을 표방하는 DSSI가 있다.

단 Ladspa 포맷 자체는 좀 오래된 포맷으로 치부하는 경향이 있고,근래에는 Lv2라는 포맷으로 점점 교체되고 있는 편.LV2 자체가 Ladspa의 후계를 자처하고 있기도 하다.Ladspa는 표준으로 사용되는데에 반해 Lv2는 아직 그정도 지위까지는 얻지 못했다.대신 Lv2는 좀 더 넓은 영역을 커버해서 DSSI와 ladspa로 나눠졌던 악기/이펙터 영역들을 전부 포괄하고 있으며 해당 포맷의 소프트웨어 신디사이저도 좀 있는 편.

거기에 리눅스 자체에서 앱들을 서로 리와이어 비슷하게 연결해서 쓰는 JACK이라는 오디오/미디용 내부 라우팅툴이 주로 발달하고 거기에 + 해서 Ladspa가 만들어졌었다보니 종류가 비교적 부족한 것도 한몫했다.당장 과거에 Ozone 같은 느낌으로 쓰이던 리눅스 마스터링 툴인 Jamin도 어떤 포맷에도 들어가지 않는 단독 어플리케이션이였으며 이걸 JACK으로 연결해 사용했다.

이외 리눅스 전용 VST 포맷이라는 괴상한(..) 물건도 존재.[12]

이렇게 아주 복잡한 구성을 원치않게(..) 가졌는데다 사용자 편의성도 피치못하게 떨어지다보니 입문 난이도가 LMMS같이 아예 JACK 사용을 배제하고 만든게 아닌 이상[13] 상당히 높으며 이 탓에 이런 리와이어 개념을 최대한 배제하고[14] 일반적인 DAW처럼 내부에서 쉽게 쓸 수 있게 하기 위해 근래에는 Lv2[15]로 좀 더 개발들이 집중되는 편이지만...
그렇다고 만들어놨던 기반들이 하루아침에 어디 사라지는건 아니기에 조금 쉬워졌을지언정 복잡한건 그대로다(...)여기에 Ardour같이 내부 스크립트 툴로 이펙터를 개발진이 자체제작해서 첨부해 둔 경우도 많아서 생각지도 못한 포맷이 하나 추가되기도 한다.

이런 혼돈의 카오스를 단적으로 보여주는 예로 zynaddsubfx라는 악기의 경우 단독 어플리케이션/dssi/윈도우 vst 버전 전부 컨버전이 돼있는 상황이라 jack으로도 Ardour이나 Qtractor 등의 리눅스 DAW 프로그램 외부에서 연결할 수 있고 내부에서 dssi로도 불러올 수 있으며 vst로도 구태여 불안정하게 불러올 수 있다(..) 개발진이 이래저래 다양하고 필요한 사람마다 컨버전을 하다보니 벌어지는 장점이자 촌극.

LMMS 이외에도 Ardour[16] 등에서도 관련 플러그인을 개발해서 VST 로 만들고 있다.

8. 소프트웨어 신디사이저 목록

문서 참조.

8.1. 과거

오늘날 사용 가능한 것들도 있으나 업데이트 및 서비스 종료, 규격 변화 등으로 더 이상 상용되지는 않는 소프트웨어들이다.

9. Latency(지연)

이러한 소프트웨어 신디사이저가 동작하려면, 컴퓨터 내부에서 음을 합성하는 즉시 실시간으로 오디오 신호를 출력하여 사운드 카드에 전달할 수 있어야 한다.

클래식 Mac OS 시절에는 맥의 Sound Manager가 레이턴시가 50ms 되는 등 별로 좋지않아 ASIO를 사용해 해결하게된다. 구형 Windows역시 문제가 많았는데 KMixer를 거치면 무려 100ms, DirectSound로 우회해도 20~30ms의 레이턴시가 생겨서 이를 ASIO로 해결했다. Linux는 노리지는 않았지만 이러한 부분에 문제가 적은 편이여서 20ms의 레이턴시를 가져 우수한 편이였다.

ASIO를 사용하면, 지연시간을 (컴퓨터 및 장비 사양에 따라 다르지만) 비약적으로 줄일 수 있게 되며, USB2/3 기준 최대 폴링 레이트는 1000Hz이므로, 이론적으로 기기 간 통신에서 발생하는 가장 낮은 레이턴시는 1 ms가 된다. 외부 입력기기(건반 혹은 기타, 마이크 등) 사용 시에는 입력할 때, 출력할 때 레이턴시가 두 번 발생해(라운드 트립 레이턴시) 2 ms가 가장 낮은 레이턴시가 된다. 하지만 최고로 좋은 장비를 쓴다 하더라도 실 ASIO 환경에서 최종 라운드 트립 레이턴시는 무조건 2 ms보다 훨씬 높게 잡힌다.

ASIO를 사용하게 되면 샘플 버퍼 용량을 설정하게 되는데, 당연히 버퍼의 용량이 작으면 지연 시간이 줄어들고, 버퍼 용량이 커지면 지연 시간이 증가한다. 따라서 버퍼 용량을 최소한으로 설정하면 좋을 것 같지만 항상 그렇지는 않다. CPU에 부하가 많이 걸렸을 때, 버퍼 용량이 적으면 말 그대로 음이 뚝 뚝 끊어지면서 제대로 재생을 할 수 없기 때문이다. 따라서 상황에 따라 적절한 버퍼 용량을 설정해서 사용해야 한다.

Windows에서 ASIO를 적용하려면, ASIO를 지원하는 사운드 카드 또는 오디오 인터페이스를 구입하거나, 가상 ASIO 드라이버를 설치하는 두 가지 방법이 있다. 자세한 것은 ASIO 문서 참고.

이후 OS X는 이런 부분을 개선하기 위해 Sound Manager를 대체하기 위한 Core Audio를 설계했고, ASIO 보다 낮은 레이턴시를 확보하는데 성공했다.

윈도우도 윈도우 비스타 부터 WASAPI를 도입해 7ms의 빠른 반응속도를 보이며 ASIO를 위협하기 시작했고 윈도우 10 부터 로우 레이턴시 모드를 선보이며 1.3ms의 낮은 레이턴시를 확보하는데 성공했다.

리눅스 역시 좀더 낮은 레이턴시 확보를 위해 리얼타임 커널이란 게 만들어지긴 했다. 다만 오디오 작업만을 위한건 아니고, 정확히는 말 그대로 서버 등의 모든 극한 상황에서 레이턴시를 끝의 끝까지 줄이기 위한 프로젝트라서 기본적으론 이거까지 사용할 필요는 없다.

10. macOS iOS의 경우

macOS에서는 ASIO가 별도로 필요 없는 것이, 운영체제에서 제공하는 오디오 API인 Core Audio가 애초에 지연없는 실시간 오디오 데이터 송수신을 지원하도록 설계되었다.

또한 macOS는 운영체제 레벨에서 시스템 플러그인 형태로 Audio Unit이라는 소프트웨어 신디사이저/소프트웨어 이펙터 기능을 지원한다. 그리고 기본적인 이펙트, 분산처리 지원, GS를 지원하는 소프트웨어 신디사이저/소프트웨어 이펙터가 운영체제에 내장되어 있다.

Apple은 Mac Compliant 프로그램을 운용하여, 이 표준을 지키면 별도의 드라이버가 필요없이 꼽는대로 바로 MIDI 인터페이스, 오디오 인터페이스가 인식되도록 해놓았다. 이 부분은 iOS에도 적용되어, Mac Compliant 가 적용된 USB MIDI 인터페이스, 컨트롤러, 오디오 인터페이스는 카메라 커넥션 킷을 사용하여 iPhone, iPad 또는 iPod touch에 연결하면 바로 인식된다. USB 파워 공급이 딸려서 Powered USB Hub를 사용해야 하는 점은 함정이다. 물론, Apple iOS에서도 운영체제 레벨에서 시스템 플러그인 형태로 Audio Unit을 지원한다. 사실 OS X 와 iOS의 Core Audio, Core MIDI는 구조적으로 거의 차이가 없다.

이러한 배경에서 이것이 가능해진다. iPhone, iPad 또는 iPod touch에서 구동되는 Core MIDI 입력을 지원하는 소프트웨어 신디사이저를 실행하고, 이를 OS X 가 실행되는 컴퓨터에서 MIDI Network Session 을 사용할 장비로 추가하기만 하면, 바로 컴퓨터와 연결된 DAW 또는 MIDI Keyboard Controller와 같은 장치로 휴대기기에서 실행되는 소프트웨어 신디사이저를 연주할 수 있다. 역으로 Core MIDI 출력을 지원하는 프로그램을 사용하여 터치스크린 조작을 통해 MIDI 신호를 보내면 컴퓨터로 바로 수신된다!!

아직까지 Core Audio를 통한 오디오 데이터가 전송되지 않지만, 휴대기기에서 실행되는 소프트웨어 신디사이저도 아무런 추가 프로그램이 필요없이 DAW에서 사용하거나 연주할 수 있게 되는 것이다. 믹서가 필요하게 될 것이야.

11. 참조항목


[1] Soft Synthesizer는 YAMAHA의 등록상표이다. [2] 이하 EWQL. [3] 사실 드럼녹음하려면 마이크는 10개로도 부족하다. 라이브현장에서도 8개는 가볍게 넘기는수준. [4] 물론 예산이 부족할 때 큰 힘이 되는 건 사실이지만 싸게 먹힌다고 해서 상업적인 음반들이 전부 가상악기로만 제작되어지지 않는다. 후술된 신디사이저의 한계인 리얼함 등의 이유로 세션 녹음을 하는 경우가 많고, 현악기의 경우 녹음 받은 음원과 함께 적절하게 섞어서 만드는 경우도 많다. [5] 하지만 역으로 요즘에는 가상악기를 사운드모듈로 만들어주는 장비들(대표적으로 Muse Receptor)들도 등장하기 시작했다. 그 이유는 바로 안정성. 컴퓨터는 안정성이 매우 떨어지는 장비기 때문에 돈이 궁하지 않은 프로 뮤지션들은 공연이 끊기는 것보다 차라리 장비들을 끌고 다니는 게 낫다고 생각하기 때문이다. [6] 사실 어쿠스틱 악기의 특정 주법을 흉내내지 못하는 한계는 하드웨어 신시사이저에도 똑같이 있다. [7] 같은 비브라토라도 밴딩 비브라토와 아밍 비브라토의 느낌은 차이가 크다. 전자는 가상악기로 어느 정도 재현이 가능. [8] AWE64는 하드웨어로 구현된, Sound Font를 불러와서 사용하는 Wavetable Synthesis 방식과 함께 소프트웨어로 구현된 Waveguide Synthesis 방식을 동시에 사용하는 특이한 제품이었다. [9] 물론 해당 악기를 직접 연주하는 전문 연주인이 들으면 차이를 간파할 수 있는 경우가 대부분이지만, 이들을 제외하면 사실 알 수 없다 [10] 이 단계에는 제작 회사마다 다른 단계로 녹음한다. 어떤 회사는 10단계 가량으로 하는 경우도 있고, 어떤 회사는 20단계, 어떤 회사는 100단계(!)까지 나눠서 녹음을 한다. 단계가 나눠질 때 마다 당연히 용량은 증가한다. 또한 이때는 특수한 기계를 통해 건반을 치는 경우가 많다. [11] 있긴 있는데 한손에 꼽을 정도로 매우 적게 존재한다.해당 플러그인을 실제 신디사이저로 리눅스 내부에서 작업용으로 운용되는 경우도 2018년 현재에 와서는 거의 없다.당장 ladspa 이펙터들은 lmms나 ardour 때문에라도 사설저장소든 공식 저장소든 계속 우분투 버전마다 쓸 수 있게 관리라도 돼서 올라오는데 ladspa 신디사이저는 그런 것이 아예 단 하나도 없다. [12] http://linux-sound.org/linux-vst-plugins.html 정확히는 와인을 거치지 않고 불러올 수 있게 컴파일된 물건. [13] 거의 배제했다고 봐야하지만 그래도 완전히 배제하지는 않았긴 했...는데 Ardour 등에서 트랙별로 마치 믹서에 하나하나 물리듯이 JACK 혹은 관련 프로그램(기본 인터페이스인 QjackCtl으로는 단순한 라우팅밖에 못해서 아예 노드 느낌으로 나온 제어용 프로그램도 있다(..))으로 연결이 가능하다면 LMMS는 인아웃 각각 하나만 나오는 정도라 Jamin같은 마스터링 프로그램 하나 물리는 정도밖엔 무리다.즉 애초부터 거의 쓸 꺼리가 없다. [14] 완전히 배제는 아마 어려울 것이다.예를 들어 드럼머신이 Ardour에 없는 이유는 하이드로겐 드럼 머신이란 외부 프로그램을 jack으로 리와이어하듯 연결해 프로그램 자체적으로도 싱크시켜 쓸 수 있고 입력도 받을 수 있어서였다.오픈소스 진영 자체의 특징이 부족한 기능은 최대한 타 프로젝트에서 수혈받는 것이고 jack은 그걸 극대화시킨 툴이다.배제 자체가 힘들다. [15] 예를 들어 상당히 오랫동안 업데이트가 안되던 Jamin을 대체하기 위해 개발되는 LSP 플러그인 프로젝트도 LV2로 개발되고 있다. [16] 단 Ardour에 기본 탑재된 이펙트중 1/3 정도는 Ardour에서 자체 제공하는 루아스크립트 sdk를 이용해 만들어진 것들이다.비슷한 성향의 툴로 내장 자바스크립트 엔진을 쓰는 Reaper가 있다. [17] Windows 98 SE에서는 'Microsoft GS Wavetable 신디', Windows Me에서는 'Microsoft GS Wavetable 합성'이라고 나왔다. Windows Vista부터는 SW가 빠진다. [18] Windows 98 SE에서는 일부 WDM드라이버(ESS계열 또는 YAMAHA OPL3 sAx 사운드카드 등)에서 지원하였으나 2000/ME, 그 이후버전에서는 대부분의 사운드 카드를 지원한다. 이는 자체 내장된 모든 드라이버가 WDM드라이버로 변경되었기에 가능했다.