Zitat von Gast im Beitrag #54Es wird also wohl weniger darum gehen, einen "Synchronsprecher" digital nachzumachen, sondern die Stimme des Originalschauspielers zu berechnen.
Zitat von Stefan der DEFA-Fan im Beitrag #53Oder will jemand, der klassische Musik liebt, allen Ernstes eine vom Computer eingespielte Beethoven-Sinfonie hören?
Ist mit seiner "Unvollendeten" inzwischen geschehen, mit Hilfe von Künstlicher Intellegenz und vorhandenen, von ihm selbst erstellten Skizzen. Im Herbst d.J. soll die uraufführung von Statten gehen: https://www.telekom.com/de/medien/medien...rschoben-610058 @ronnymiller, mit dem Projekt aus Israel schon, was allerdings nicht bedeuten muss, dass ein solches System für Synchronstimmen nicht mittelfristig kommen wird.
Ich bezweifle allerdings ebenfalls den praktischen Sinn und Zweck von in verschiedene Sprachen transferierten Originalstimmen (jedenfalls für durchgehende, "normale" Synchronisationen). Höchstens (und das wäre immerhin etwas) könnte daraus ein YOUTUBE-Hit werden was die Anzahl der zu erwartenden KLicks betrifft (ähnlich wie das bereits bei "Gesichts-Deepfakes" der Fall ist (äußerst negativ als politisches Propagandawaffe, sehr positiv als unterhaltsame CGI-"Spielerei" mit "Wow-Effekt".
Zitat von ronnymiller im Beitrag #54Es wird also wohl weniger darum gehen, einen "Synchronsprecher" digital nachzumachen, sondern die Stimme des Originalschauspielers zu berechnen.
Zitat von Stefan der DEFA-Fan im Beitrag #53Oder will jemand, der klassische Musik liebt, allen Ernstes eine vom Computer eingespielte Beethoven-Sinfonie hören?
Ist mit dseiner "Unvollendeten" inzwischen geschkehen,mit Hilfe bon Künstlicher Intellegenz und vorhandenen, von ihm Skizzen. Im Herbst d.J. soll die uraufführung von Statten gehen:
Mit einem Sinfonieorchester! Mal abgesehen davon, dass diese "10. Sinfonie" ein albernes Kuriosum ist (denn Beethoven war unberechenbar - wie soll man ihn berechnen können?) - sie soll von einem Orchester aufgeführt werden und nicht von einem noch so gigantischen Synthesizer. Hast mit zielsicherem Instinkt genau das Gegenteil von dem heraus gefischt, was ich geschrieben habe.
Zitat von marakundnougat im Beitrag #57Ich habe dazu zwei ganz pragmatische Gedanken. Erstens: Das deutsche Publikum hat sich an den Klang von bestimmten Stimmen für bestimmte Schauspieler gewöhnt. Feststimmen eben. Wenn morgen auf einmal Julia Roberts oder Brad Pitt mit ihrer eigenen, aus dem Original durch DeepDub extrahierten Stimme sprechen würden, würde es da nicht einen Aufschrei geben, dass die Schauspieler nicht ihre "richtige" Stimme hätten? Ich glaube kaum, dass es die breite Masse interessiert, dass diese Stimmen eigentlich ihre echten Stimmen sind, es sind nunmal nicht die gewohnten Stimmen. Zweitens: Ein lippensynchroner Text wäre immer noch notwendig. Die App kann ja wohl nur Rohübersetzung und kein lippensynchrones Buch schreiben. Es muss also in jedem Fall noch jemand ein Dialogbuch schreiben. Ob das dann aber mit den Haltungen und Betonungen der Originalsprache zusammenpasst, wage ich zu bezweifeln, was dann zu unnatürlichen Klängen führen wird. Ich glaube, diese Entwicklung kann auch nicht im Sinne der Originalschauspieler sein, denn auch wenn sie ihre Stimme im Deutschen an einen deutschen Synchronschauspieler abgeben, können sie sich in den meisten Fällen darauf verlassen, dass die Deutschen im Studio stehend die originale Intention des Schauspiels erkennen und dementsprechend nachspielen. Ihre Stimme und Sprache ist zwar eine andere, aber die darstellerische Intention bleibt bestenfalls erhalten. Bei einem Computerprogramm wird die Darbietung des Originalschauspielers dagegen auf den Klang der Stimme reduziert, bei der nur die Sprache übersetzt werden muss. Die schauspielerischen Nuancen zu übertragen, dürfte dagegen für ein Computerprogramm kaum möglich sein.
Das wird denke ich mal eine schleichende Entwicklung sein in den nächsten 10 (20/5) Jahren sein. Zuerst werden da kleine Märkte bedient, die zB zur Zeit eh Dub Over haben wie unsere östlichen Nachbarn und vermutlich zuerst bei animierten Filmen, vielleicht sogar bei Nachrichtensendern. Das wird dann auch schon vertraglich geregelt sein, zumindest bei US Produkten durch die Schauspiel/Sprechergilden. In etablierten Synchronmärkten wird man das nicht so schnell machen (außer bei günstigen Produktionen), sondern vermutlich langsam. Könnte mir gut vorstellen, dass dann nur noch bekannte Schauspieler ihre alten Sprecher haben (weil man sie so kennt) und dann vor allem die Statisten über KI kommen. Sobald das gut funktioniert, wirds dann auf neue Schauspieler ausgeweitet. Aber alles vertraglich geregelt mit den Schauspielern. Und wenns nicht eine Liveübersetzung ala Star Trek sein muss, ist es eh kein Problem, denn es ist der KI im Grunde egal, ob sie nun die Liveübersetzung verarbeitet oder ein ordentlich übersetztes Drehbuch. Die Stimme kann die KI erzeugen, die richtige Betonung bekommt die dann mit ordentlich Datensätzen auch zusammen. Wenn man dann das Original als Referenz nutzt, wird die KI das dann auch später schaffen.
https://www.protocol.com/newsletters/nex...g-feature-films Also in den Artikeln wird erklärt, dass Regie und Sprachexpert:in nötig sind. Also ein einfaches Knopfdrücken ist es nicht, sonst würde die Stimmbearbeitung ja nicht wie behauptet etwa bis zu 8 Wochen dauern bei dem Film-Projekt. Ich nehme an, das bezieht sich auf beide bestellte Sprachfassungen, nicht nur auf eine der beiden, da von "Projekt" gesprochen wird.
Zitat von Stefan der DEFA-Fan im Beitrag #53Oder will jemand, der klassische Musik liebt, allen Ernstes eine vom Computer eingespielte Beethoven-Sinfonie hören
Ich war eigentlich der Ansicht, dass das vollendete Werk von einem echten Symphonie-Orchester eingespielt wird... Ich hatte die von der KI generierten Klangbeispiele, die einen "Vorgeschmack" davon geben, wie die ergänzte "Zehnte". Es handelt sich hier offenkundig "lediglich" um ein in die Realität/in Töne umgesetztes Gedankenexperiment, und wie Beethoven sich die Vollendung seiner "Zehnten Symphonie gedacht haben könnte.
Auf YT habe ich gestern ein Video gesehen und gehört, wo ein "selbstspielendes" Klavier aus Teilen verschiedener Werke ein "neues" Musikstück generiert. Es wird durch solche Vorführungen (die ich dennoch, oder gerade deshalb auf mich eine Faszination mit Unterhaltungswert ausüben) imho nur veranschaulicht, wozu moderne Technik heutzutage in der Lage ist und was KI alles kann, oder könnte. Letztlich handelt es sich dabei mE. vor Allem um eine technische Spielerei.
Viel bedenklicher finde ich das "Deepdub-Projekt", das die Synchronbranche und die vielen Jobs, die dranhängen, zerstören könnte, wenn sie nicht auf wenige Nischen beschränkt wird. Allerdings glaube ich nicht recht daran, dass die Menschen es einfach "schlucken", wenn fremdschprachige Schauspieler/innen nicht mehr wie gewohnt synchronisiert werden, sodern sie plötzlich in Filmen und Serien mit ihren eigenen Stimmen zu hören sind. Auf Youtube und anderwo im Internet würde ich mir hingegen durchaus mit Interesse und gebannt zu Gemüte führen, wie es sich anhört, wenn sie plötzlich fließend Deutsch sprechen
Maraks Beobachtungen sind aber korrekt. Stimmübertragung mag machbar sein, nuanciertes Schauspiel aber wohl kaum. Noch nicht. Wenn die KI mal so etwas kann, sind wir wohl alle arbeitslos.
Bei großen Stars ist dann noch die Frage, was sie für die Stimmverwertung verlangen. Mag sein, dass sie dafür so viel Geld aufrufen, dass eine Synchronisation doch noch lohnt.
Aber ja. Jeder von uns, der unter 50 ist, hat gute Chance, die Synchronisation in den Sonnenuntergang zu begleiten.
Zitat von Ozymandias im Beitrag #66Stimmübertragung mag machbar sein, nuanciertes Schauspiel aber wohl kaum. Noch nicht. Wenn die KI mal so etwas kann, sind wir wohl alle arbeitslos.
Das ist doch der Knackpunkt: Das ist nicht möglich und wird nie möglich sein. Das ist der menschliche Faktor und das ist verdammt gut so.
(Trotz aller Horror- oder Satirevisionen gibt es nach wie vor keinen Literaturcomputer, der von selbst schreibt, und auch keinen Kompositonscomputer - ja, ich weiß, die "Beethoven"-Symphonie, aber das ist nur alberne und absurde Spielerei, ein monströser Bastard wie die Gesangsautomaten zu Beethovens Zeit.)
Eine andere Frage ist, ob sich Zuschauer irgendwann mit weniger begnügen - und das würde dann richtig üble Folgen haben. Sowas darf nicht passieren und deshalb wehret den Anfängen!
Ich bin mir nicht so sicher, ob es nicht doch so kommen wird. Wir stehen an einer Schwelle, irgendwann gibt es vielleicht auch qualitativ Quantensprünge. Da können alte Gesetzmäßigkeiten schnell nicht mehr gelten. Einige industrielle Zweige wurden obsolet gemacht. Der Lauf der Dinge.
Auf breiter Ebene sehe ich das aber auch erst in einigen Jahren passieren. Das aufzuhalten scheint mir schwierig. Die Masse hört nicht mal nennenswerte Unterschiede zwischen heute noch echten Synchronschauspielern. Oder misst dem wenig Bedeutung bei. Einen gewissen Qualitätsverlust würden sie schlucken.
Ich glaube aus der Richtung kommend nicht unbedingt an einen Aufschrei, wenn Tag X käme.
Aber das ist alles Zukunftsmusik. Viele, viele Jahre liegen vorm Synchron. Und das ist gut so.
Filmkritiker David Hain hat viele momentan heiß diskutierte Eckpunkte neuer AI-Technologie in einem Video zusammengefasst. Dass man inzwischen die Lippenbewegungen von Schauspielern digital verändern könnte, um sie der jeweiligen Synchronsprache anzupassen, hat mich doch ganz schön schlucken lassen. Aber das ist nur ein Punkt von vielen, die David hier erschreckend / faszinierend (Eure Wahl) zusammen fasst.
Mein Kommentar dazu: Mir war bewusst, dass auch ich irgendwann einmal durch den Generationskonflikt muss und habe ihn durch meine beiden Neffen auch schon erlebt. Dass aber in Zukunft ALLES digital hergestellt und gesteuert werden könnte, erfüllt mich mit echter Angst. Das Wort "Utopie" nehme ich inzwischen nicht mehr in den Mund, wenn ich Terminator, GitS oder Matrix gucke
Mit der Software ElevenLabs ist es nun anscheinend jemandem gelungen, die Stimme von Alec Guinness in Star Wars täuschend echt zu klonen.
Im Gegensatz zur KI-Stimme von Raimund Krone (siehe das verlinkte Video im "Star Trek: Picard"-Thread), die noch sehr roboterhaft klingt, finde ich diese Guinness-Imitation nahezu beängstigend authentisch:
Ich muss allerdings sagen, dass ich den Textinhalt wirklich unter aller Sau und das Vorgehen weiterhin geschmacklos finde... Das muss dringend aufhören.
Nachdem es schon gelungen ist, verstorbene Schauspieler/innen digital nachzubilden, ist es imho. nur logisch, dass sie ihre täuschend echt klingenden KI-generierten Stimmen "dazubekommen". Auf diese Weise will man sich wohl die höheren Kosten für echte Stimmen bzw. für Stimm-Immitatoren), sowie einen höheren zeitlichen Aufwand ersparen.
EDIT: Ich meinte damit dem Thema entsprechend Stimmen nicht mehr lebender "Synchron-Größen" für Nachsynchros in rechtlichen Grenzen (urheberrecht).
Mal gucken, wann sich irgendein Scherzkeks ne Politikerrede schnappt und dann damit einem anderen Land den Krieg erklärt. Oder irgendwelche pubertierende Jugendliche Sprachnachrichten fälschen und Klassenkameraden in die Psychiatrie mobben.
Zitat von Ludo im Beitrag #73Mal gucken, wann sich irgendein Scherzkeks ne Politikerrede schnappt und dann damit einem anderen Land den Krieg erklärt. Oder irgendwelche pubertierende Jugendliche Sprachnachrichten fälschen und Klassenkameraden in die Psychiatrie mobben.
Goldene Zeiten brechen an!
Es gibt so Technologien, die sind so gefährlich, dass man sie (eigentlich) nicht einfach so frei einsetzen darf. Dazu zählt etwa die Atombombe. Ob derartige KI-Technologien zur Nachbildung einer fremden Stimme bzw. KI-Stimmen, wenn die mal richtig ausgereift sein sollten, dazu gehören wird sich zeigen.
Zitat von Ludo im Beitrag #73 Oder irgendwelche pubertierende Jugendliche Sprachnachrichten fälschen und Klassenkameraden in die Psychiatrie mobben.
Nur in die Psychiatrie? Du bist optimistisch.
K.I. ist angesichts des aktuellen Gesellschaftszustands nicht weniger als die Entsprechung dessen, dass jeder ab dem 2. Lebensjahr eine funktionale Massenvernichtungswaffe zur freien Verfügung hat.