Wie synchronisiert man Videoübersetzungen?3 kostenlose, getestete Tutorials zum Teilen
Letzte Woche habe ich einem Freund geholfen, ein Werbevideo aus dem Ausland zu bearbeiten, und ich habe bis 3 Uhr morgens gebraucht, um die Übersetzung und die Synchronisation fertigzustellen. Dieser Job sieht einfach aus, wirklich tun, um eine Menge Gruben zu finden - maschinelle Übersetzung ist so schwer wie Googles Version von vor zehn Jahren, AI-Synchronisation ist entweder wie ein Roboter Skript singen, oder plötzlich tauchte ein chinesischer Name in die englische Aussprache gelesen, peinlich Zehen Kommissionierung der Boden. Später habe ich einfach auf dem Markt behauptet, kostenlose Übersetzung und Synchronisation Tools gemessen alle über, wählte drei wirklich spielen können, Hand in Hand zu lehren, um die Grube zu vermeiden.
I. Cutting and Screening International Edition: White Closed Eyes Rush
Wenn Sie normalerweise Ihr Mobiltelefon zum Schneiden von Videos verwenden, schalten Sie einfach CapCut ein. Als ich das letzte Mal ein mehrsprachiges Werbevideo für eine Frühstückspension erstellt habe, dauerte es vom Import bis zur Produktion des Videos nur 20 Minuten. Nachdem Sie das Video geöffnet haben, sollten Sie sich nicht mit dem Export beeilen. Suchen Sie zunächst das kleine Weltkugel-Symbol in der unteren linken Ecke der Bearbeitungsoberfläche und wählen Sie die Zielsprache aus (mehr als 10 gängige Sprachen werden unterstützt). Jetzt kommt der springende Punkt:Übersetzte Untertitel werden automatisch in das Video eingeblendetKlicken Sie an dieser Stelle auf die obere rechte Ecke des "vorgelesenen Textes", wählen Sie eine Stimme mit Emotionen - auf Englisch verwende ich oft "Nathan", tief und magnetisch, auf Chinesisch Im Englischen verwende ich "Nathan", tief und magnetisch, und im Chinesischen "Sunny Boy", was natürlicher klingt. Die spanische Übersetzung ist die genaueste, und die japanische bricht gelegentlich lange Sätze ein wenig auf, so dass Sie die Satzumbrüche manuell anpassen müssen. Denken Sie daran, vor dem Exportieren die Option "Quelltext anzeigen" auszuschalten, da sich sonst die Untertitel überlappen.

Zweitens: HeyGen: Die Münder von echten Menschen können alle übereinstimmen
Die Firma eines Freundes drehte ein Produkttutorial, das eine englische Version benötigte, und das Budget für Live-Action-Reshoots reichte nicht aus. Also versuchte ich es mit den kostenlosen Credits von HeyGen. Dieses Ding ist erstaunlich in seiner Fähigkeit zuGesichtstausch + Mundformänderung mit AIWenn Sie sich registrieren, erhalten Sie 500 Punkte (genug für ein 1-minütiges Video) über Ihr Google-Konto. Nachdem Sie das Video hochgeladen haben, warten Sie darauf, dass die menschliche Stimme automatisch vom Hintergrundgeräusch getrennt wird. Wir empfehlen Ihnen, DeepL zu verwenden, um den übersetzten Text vor dem Einfügen durchzugehen, was viel reibungsloser ist als die direkte Übersetzung des Systems. Dubbing wählen "Claire" englische Stimme professionellen Sinn, denken Sie daran, die "Lip Sync" zu überprüfen, wenn die Erzeugung, den Mund passenden Grad von 70% bis 80%, weit von sehen wirklich nicht sehen kann, ist AI. Allerdings ist die kostenlose Version des Wasserzeichens, vor dem Export in der oberen rechten Ecke der Einstellungen zu wählen 720p! Die Auflösung ist die beste für die Einsparung von Punkten.
III. netflix Der Blick über den Tellerrand: Die verborgenen Fähigkeiten erfahrener Spieler
Verpassen Sie dieses Video nicht, wenn Sie Wissensvideos machen. Als ich das letzte Mal einen 30-minütigen Kurs zur Bewertung von KI-Tools übersetzte, konnte ich damit 2.000 Yuan an Outsourcing-Gebühren sparen. Gehen Sie zu NetEase und wählen Sie "Video Translation" aus der Workbench.Untertitel und Zeitleiste werden nach dem Hochladen eines Videos automatisch zerlegtDie Übersetzung wird anhand des Originaltextes überprüft (wissenschaftliche und technische Begriffe haben eine hohe Genauigkeitsrate). Die Synchronisation ist unter "Exporteinstellungen"-"Audio/Video-Synthese" versteckt, empfehlen Sie "Intelligente weibliche Stimme" für Chinesisch, "US_Lisa" für Englisch. "Der wichtigste Punkt ist, dass Sie die Pause manuell einstellen können! Wenn Sie z. B. 0,5 Sekunden Stummschaltung einfügen, wenn Sie zu den wichtigsten Punkten kommen, können die Zuhörer die Informationen leichter aufnehmen. Als ich um 2 Uhr nachts exportierte, entdeckte ich ein besonderes Feature: Ich kann direkt eine zweisprachige Audiospurversion erstellen, so dass ich sie einmal auf Überseeplattformen und einmal in China senden kann, ohne dass ich sie bearbeiten muss.
Lektionen, die durch Blut und Tränen gelernt wurden
Jetzt verwende ich im Wesentlichen diese dreiteilige Kombination, um Aufträge aus dem Ausland zu erhalten: den Film schnell schneiden, HeyGen, um mit den Zeichen der mündlichen Übertragung umzugehen, Netease, um über den langen Kurs hinauszusehen. Letzten Monat habe ich mit diesen Methoden mehr als 8.000 Übersetzungsgebühren gespart und konnte meinen abendlichen Snack um zwei zusätzliche Flusskrebse ergänzen. Ich habe den Link zu dem Tool in den Kommentarbereich gestellt. Wenn Sie irgendwelche spezifischen Fragen haben, können Sie sie gerne stellen.
Häufig gestellte Fragen