mboost-dp1

Shutterstock

AI skal overtage stemmen til Darth Vader

- Via The Verge -

James Earl Jones planlægger at fratræde sin rolle som Darth Vaders ikoniske stemme, mens en ukrainsk startup hjælper med at holde den legendariske stemme i live.

Det skriver The Verge.

Jones har lagt stemme til Darth Vaders ikoniske stemme siden begyndelsen af ​​”Star Wars”, men med sine 91 år på bagen ser det ud til, at han er klar til at lade sig pensionere. Ifølge en rapport fra Vanity Fair underskrev Jones rettighederne til sit arkiv af stemmearbejde, hvilket tillod den ukrainske startup Respeecher at udnytte AI-teknologi og genskabe lyden af stemmen i Disney+’s “Obi-Wan Kenobi”.

Respeecher bruger sound bites til at “klone” en skuespillers stemme, hvilket giver et studie mulighed for at optage nye replikker uden tilstedeværelsen af skuespilleren bag stemmen.

Det er heller ikke første gang, at Respeecher arbejder med Lucasfilm. Startuppen genererede også en stemme til den yngre version af Luke Skywalker i Disney+’s “The Mandalorian” og “The Book of Boba Fett”. I en pressemeddelelse forklarede Respeecher, at de brugte lydklip fra tidligere års radioudsendelser, interviews og dubs med skuespiller Mark Hamill til digitalt at genskabe Skywalkers oprindelige stemme.





Gå til bund
Gravatar #1 - SpegepølseBøvs
29. sep. 2022 12:45
Min gamle C64 med SAM Text to Speech software kunne godt lave en stemme der mindede meget om en forkølet Darth Vader. Så de er da kommet langt på de godt 40 år, må man sige.
Gravatar #2 - T_A
30. sep. 2022 07:05
Tror vi er relativt tæt på at AI kan (hvis der er tilstrækelig optaget klip tilgængelig) lave en "digital voice klon" af en person.

Men der er jo rigtig mange elementer i en sådan klon.
En ting er ramme rigtig pitch og hastighed dette skal jo også matche de pauser personen bruge i deres talemønster og hvordan disse ændres afhængig af hvad "humør" person er osv osv.
Gravatar #3 - larsp
1. okt. 2022 06:32
T_A (2) skrev:
Tror vi er relativt tæt på at AI kan (hvis der er tilstrækelig optaget klip tilgængelig) lave en "digital voice klon" af en person.

Men der er jo rigtig mange elementer i en sådan klon.
En ting er ramme rigtig pitch og hastighed dette skal jo også matche de pauser personen bruge i deres talemønster og hvordan disse ændres afhængig af hvad "humør" person er osv osv.

Ja, humøret er nok blandt de mere tricky ting at få på plads, men ellers kan man med deep learning simpelthen modellere talemønsteret fra start til slut. Og det er uden at lave specifikke regler om pauser og pitch manuelt, det er modellen der ordner det hele.

Jeg tænker at træningssættet kunne have tekst, humør cues og resulterende lyd i det, i passende klumper. Efter at have trænet på et sådan dataset kan man køre processen modsat og skabe den mest sandsynlige lyd ud fra tekst og humør cues.

Jeg er ikke længere overrasket over at det kan lade sig gøre. Deep learning er nok det nye store i dette årti, og folk er kun lige ved at finde ud af hvad det kan bruges til.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login