Wie kann ich mit Sprachsynthese Musik machen?

Wenn Sie ein Lied komponieren möchten, aber Ihre Stimme hassen, keinen Sänger oder keine Sängerin kennen, mit dem/der Sie zusammenarbeiten können, oder einfach nicht die Ausrüstung für eine Aufnahme haben, können Sie eine Sprachsynthese-Software verwenden, die für Sie singt.

Mit Sprachsynthese-Tools wie „Emvoice“, „Synthesizer V Studio“ oder „Vocaloid“ können Sie Gesangslinien mit verschiedenen Stimmen erstellen, die ausdrucksstark und realistisch sind. Die Gesangslinien und der Text können über eine sequenzerähnliche Schnittstelle mit Vibrato, Ausdruck und sogar Atemgeräuschen eingestellt werden.

Bevor wir uns ansehen, wie Sie Ihren Computer zum Singen bringen können, werfen wir einen kurzen Blick auf die Geschichte der Sprachsynthese.

Was ist die Sprachsynthese?

Die Sprachsynthese ist eine Technologie, die es ermöglicht, ein künstliches Sprachsignal zu erzeugen. Sie wurde erstmals in den 1930er Jahren mit dem VODER (Video unten) vorgestellt, aber die ersten kommerziellen Anwendungen wurden in den 1960er Jahren entwickelt.

YouTube player

Zu dieser Zeit wurde die Sprachsynthese hauptsächlich eingesetzt, um Menschen mit körperlichen Behinderungen zu helfen, leichter zu kommunizieren. Seitdem wurde die Sprachsynthese in vielen verschiedenen Anwendungen eingesetzt, insbesondere in Telefoninformationssystemen und intelligenten Sprachassistenten.

Im Laufe der Jahrzehnte hat die Sprachsynthese viele Verbesserungen erfahren. Die ersten Systeme waren sehr mechanisch und unnatürlich, aber moderne Technologien ermöglichen es, künstliche Stimmen zu erzeugen, die von echten menschlichen Stimmen kaum zu unterscheiden sind. Fortschritte in den Bereichen der künstlichen Intelligenz und des maschinellen Lernens haben auch die Qualität und die Natur der synthetischen Stimmen erheblich verbessert.

Heute wird die Sprachsynthese in einer Vielzahl von Anwendungen eingesetzt, einschließlich der Produktion von Hörbüchern, Navigationssystemen und intelligenten Sprachassistenten wie z.B. auf dem iPhone oder Android. Sie wird auch eingesetzt, um Menschen mit körperlichen Behinderungen die Kommunikation zu erleichtern und um Analphabeten den Zugang zu schriftlichen Informationen zu ermöglichen.

Obwohl die Sprachsynthese viele Verbesserungen erfahren hat und mittlerweile recht realistisch geworden ist, gibt es noch viele Herausforderungen, insbesondere was die Natürlichkeit der künstlichen Stimmen sowie die Fähigkeit, Emotionen und subtile Nuancen der gesprochenen Sprache zu vermitteln, betrifft.

Die Stimme von Stephen Hawking

Wir erinnern uns an die synthetische Stimme von Stephen Hawking, die eine angepasste Version der Sprachsynthese-Software DECtalk war. Als Hawking aufgrund des Fortschreitens seiner Krankheit (Lime-Krankheit) seine Sprechfähigkeit zu verlieren begann, begann er nach einer alternativen Kommunikationsmöglichkeit zu suchen. Im Jahr 1985 begann er, ein Sprachsyntheseprogramm namens„Equalizer“ zu verwenden, das auf einem Sinclair QL-Computer installiert war.

Im Jahr 1988 begann er mit der Verwendung eines DECtalk-Sprachsynthesizers, der über einen Kippschalter gesteuert wurde. Es war eine roboterhafte und monotone Stimme, die weltberühmt wurde.

Im Jahr 1988 wurde jedoch die Soundkarte des Sinclair QL-Computers vom Markt genommen und durch ein Modell ersetzt, das mit dem DECtalk-Sprachsynthesizer nicht kompatibel war. Dies zwang Hawking dazu, nach einer Alternative zu suchen. Er entschied sich schließlich für eine Stimme, die von der kanadischen Firma für Sprachsynthese,„Speech Plus„, geliefert wurde.

YouTube player

Diese Stimme wurde zur bekanntesten, da sie von Hawking über drei Jahrzehnte lang bis zu seinem Tod im Jahr 2018 verwendet wurde.

Apple und die Sprachsynthese

Ebenso berühmt ist die Sprachsynthese des Macintosh SE, die die MacinTalk-Software verwendete, die von Apple in den 1980er Jahren entwickelt wurde. Es war eine roboterhafte, mechanische Stimme, die schnell zum Markenzeichen der damaligen Apple-Computer wurde.

YouTube player

Interessanterweise hat sich die Sprachsynthese seitdem erheblich weiterentwickelt, mit natürlicheren und ausdrucksstärkeren Stimmen.

Welche Sprachsynthese-Software kann ich für die Musikproduktion verwenden?

Auch bei der Musikkomposition hat die Technologie große Fortschritte gemacht und ist manchmal fast nicht mehr von einer echten Stimme zu unterscheiden.

Es gibt verschiedene Anwendungen, mit denen Sie Melodielinien mit synthetischer Stimme komponieren können, aber es gibt große Unterschiede in Bezug auf den Realismus und die verfügbaren Sprachen zwischen den einzelnen Programmen.

Parameter wie Vibrato, Intensität und sogar Atemgeräusche sind kontrollierbar und programmierbar. Sie müssen Ihre Noten schreiben und den Text Ihres Liedes hinzufügen. Dann können Sie die Artikulation mit verschiedenen Stimmeffekten über die Softwareoberfläche modulieren.

Sehen wir uns die besten Sprachsyntheseprogramme für Musik an.

Emvoice

Emvoice bietet mehrere verschiedene Stimmen wie Keela, Lucy, Jay und Thomas mit unterschiedlichen Stimmfarben und Stimmlagen für verschiedene Musikstile. Emvoice ist im VST-Format für Mac und Windows verfügbar.

YouTube player

Eclipsed Sounds

Eclipse Sounds produziert höchstwahrscheinlich eine der besten Sprachsynthese-Software für Musik, die derzeit erhältlich ist, mit zwei verschiedenen Stimmen: Solaria (weiblich) und Asterian (männlich).

Beide Stimmen erfordern die kostenlose Software Synthesizer V Studio Basic, können aber mit der Pro-Version der Software, die Ihnen die Verwendung von VST- und Audio Unit-Plugins ermöglicht, optimal genutzt werden.

Hier ist ein kleiner Einblick in die Benutzeroberfläche der Software:

YouTube player

Solaria

Solaria ist eine weibliche Stimme, die in drei verschiedenen Sprachen singen kann:Englisch, Chinesisch und Japanisch.

YouTube player

Asterian

Eine tiefe männliche Stimme nur auf Englisch.

YouTube player

Vocaloid

Vocaloid ist eine sehr beliebte Sprachsynthese-Software. Sie wurde 2004 von Yamaha entwickelt. Seitdem hat die Software zahlreiche Updates und Verbesserungen erfahren und ist bei Musikern und Musikproduzenten sehr beliebt, insbesondere in Japan, nachdem sie durch den Erfolg von Hatsune Miku populär wurde.

Die genaue Anzahl der in Vocaloid verfügbaren Stimmen hängt von der Version und den installierten Zusatzpaketen ab, aber in der Regel stehen für jede unterstützte Sprache mehrere verschiedene Stimmen zur Verfügung.

Zum Beispiel enthält die englische Version von Vocaloid 5 Stimmen wie„Ruby„, „Chris„, „Amy„, „Otomania“ und „YAMAHA VOCALOID 5 Library“.

Die Vocaloid-Stimmen werden von Sprachproduktionsstudios wie Crypton Future Media (die Hatsune Miku schufen), Zero-G und PowerFX erstellt.

Trotz ihres relativen Erfolges sind andere Stimmen wie Solaria und Emvoice vorzuziehen, da ihre Klangwiedergabe schlecht gealtert ist und roboterhaft klingt. 🤖

Wer ist Hatsune Miku?

Hatsune Miku

Es ist schwierig, über Sprachsynthese zu sprechen, ohne den größten Star der Sprachsynthese, Hatsune Miku, zu erwähnen. Sie ist eine virtuelle Figur, die vollständig von Crypton Future Media unter Verwendung der Sprachsynthese-Software Vocaloid (seit Version 2) geschaffen wurde. Sie singt ausschließlich auf Japanisch, da ihr Publikum überwiegend aus Japan stammt.

Ihr Erfolg ist so groß, dass sie zu einer echten Ikone der japanischen Popkultur geworden ist. Sie gibt sogar virtuelle Konzerte, wie dieses im Jahr 2016:

YouTube player

Audiologie

Zu den realistischsten Stimmensynthesen für Gesang gehören Jun und Anri, die von Audiologie produziert werden. Wie bei Eclipsed Sounds benötigen auch diese beiden Stimmen die Synthesizer V Studio Basic Software (kostenlos), aber mehr Parameter werden mit der Pro-Version der Software verfügbar sein.

Jun

YouTube player

Anri

YouTube player
Wie kann ich mit Sprachsynthese Musik machen?