ifun.de — Apple News seit 2001. 38 033 Artikel

Sprachaufnahmen bearbeiten und ergänzen

Adobe VoCo: Stimmenimitator mit Tastatureingabe

Artikel auf Mastodon teilen.
18 Kommentare 18

Adobe geht mit dem Projekt VoCo interessante neue Wege. Die Anwendung erlaubt es, Sprachaufnahmen ohne eine neue Studiosession zu bearbeiten und zu ergänzen. Fehlende Worte oder Umstellungen können einfach per Texteingabe ergänzt bzw. vorgenommen werden.

Das klingt spooky und ist es auch, wie ihr im unten eingebetteten Video sehen könnt. Texte oder Änderungen werden per Tastatur eingegeben, und das Adobe-Tool imitiert die Originalstimme täuschend echt. Damit dies gelingt, muss das Originalmaterial allerdings eine gewisse Länge aufweisen. Ab 20 Minuten können Adobe zufolge hier vernünftige Ergebnisse erzielt werden.

Als Einsatzbereich sieht man bei Adobe die Produktion von Hörbüchern oder Podcasts. Versprecher könnten korrigiert und Ergänzungen eingefügt werden, ohne dass der Sprecher hier nochmal im Studio erscheinen muss.

Dieser Artikel enthält Affiliate-Links. Wer darüber einkauft unterstützt uns mit einem Teil des unveränderten Kaufpreises. Was ist das?
07. Nov 2016 um 08:26 Uhr von Chris Fehler gefunden?


    Zum Absenden des Formulars muss Google reCAPTCHA geladen werden.
    Google reCAPTCHA Datenschutzerklärung

    Google reCAPTCHA laden

    18 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
  • Hm… das dürfte die juristische Beweiskraft von Audiomitschnitten mittelfristig ziemlich einschränken.

  • Super, damit senkt sich die Rate derer bei denen der Enkeltrick funktioniert deutlich. Gekauft!

  • Super, dann kann Siri mit sich selbst sprechen
    Aber ernsthaft, dann kann man mit einfachen Mitteln Sprachbefehle faken, man niemand jemandes Stimme heimlich auf und bastelt sich die Befehle zusammen.
    Nicht, dass das neu ist, aber neu ist, dass das dann jedermann mit wenig Aufwand kann.

  • Fantastisch. Leider steht der unbestreitbare Nutzen im krassen Missverhältnis zu den Möglichkeiten des Missbrauches. Wäre die Software vor 3Monaten erschienen, könnte sich Donald Trump locker rausreden bzgl. seiner Äußerungen aus 2005: sowas zu fälschen wäre dann zu einfach. Pussy-grabbing, sowas hat er nie gesagt.

    Man stelle sich Siri in der Stimme der eigenen Frau vor oder des eigenen Sohnes. Cool und makaber zugleich.

  • Hat sicherlich seine Vorteile – aber grade von Politikern lassen sich solche Tools mit Stunden an Texten füttern. Neben den ganzen Fake Artikeln kommen in Zukunft dann auch noch die passenden Interviews in denen Merkel den Islam als Staatsreligion ausruft oder Flüchtlinge zum vergewaltigen ermuntert. Ob die Tonspur dann markiert wird um es nachträglich zu erkennen interessiert dann auch keinen – ist heute bei den Artikeln das gleiche. Auch wenn sich im Nachhinein herausstellt dass es nicht stimmte gibt es ewige Diskussionen. Auf einmal werden ‚geheime‘ Mitschnitte auftauchen aus irgendwelchen Gremien … naja warten wir ab …

  • Missbrauch geht auch ohne diese Software, also mal locker bleiben. Aber gerade für Hörbuchverlage eine sehr interessante Geschichte.

  • Die Möglichkeiten des Missbrauchs scheinen mir hier deutlich höher als der sinnvolle Nutzen zu sein. Natürlich kann man dann schnell mal drei Worte in einer Hörbuchproduktion oder einem synchronisierten Film austauschen, aber langfristig wird der Job des Sprechers überflüssig sein weil die Studios sich nur die Software kaufen müssen. Mann nehme also die Stimme eines begabten Sprechers/Schauspielers und bastele damit ein Hörbuch. Eine gruselige Vorstellung. Wo bleibt dann das Recht auf das eigene Wort?

  • Kommt mir so vor, als wenn wir bei 1990 sind
    Oder stammt der Auftritt von damals?

  • Redet mit. Seid nett zueinander!

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert