Es ist kein Zufall, dass viele Programme mit Techniken der künstlichen Intelligenz Open Source und damit völlig frei sind. Denn die frühen Ansätze stammen aus dem akademischen Bereich, in welchem freie Lizenzen für Software Usus sind, um die Zusammenarbeit und Weiterentwicklung zu fördern.
Hier geht es aber nicht um Rahmenwerke und Bibliotheken zu Formen der KI, sondern um gut greifbare und nützliche Anwendungen von künstlicher Intelligenz für den eigenen Rechner. Der Begriff der Ki umfasst dabei verschiedene Methoden, wie neuronale Netze, Machine Learning, Deep Learning oder Natural Language Processing. In der folgenden Zusammenstellung sind alle diese Ansätze vertreten.
Siehe auch: 7 Cloud-KI-Tools, die Ihnen das Leben und die Arbeit erleichtern
Auf die Modelle kommt es an
Die verschiedenen Ansätze zur Mustererkennung, maschinell abgearbeitete Entscheidungsbäume und Automatisierung von Aufgaben bauen auf bereits fertigen Trainingsdaten und Modellen auf. Die Verfügbarkeit dieser Daten ist einer der Gründe, warum nützliche KI-Techniken in frei erhältlicher Software heute überhaupt verfügbar sind.
Die Entwicklung von Modellen dauert generell Jahre, und oft sind Terabyte an Rohdaten auszuwerten. Aber mit steigender Rechenleistung von gebräuchlicher PC-Hardware hat sich die Entwicklung von KI-Modellen und die Auswertung von Trainingsdaten in den letzten Jahren beschleunigt und damit auch kleineren Forschungsteams möglich.
Es geht in der folgenden Zusammenstellung um den praktischen Nutzen, also um die Umsetzung von Methoden vornehmlich in freie Software für Windows, die ohne hohen Installationsaufwand gut zeigen, wie weit das Thema jetzt gediehen ist.
Auch das ist der Open-Source-Entwicklungen zu verdanken – denn mit Pytorch steht seit 2016 ein Deep-Learning-Rahmenwerk von Facebook und Microsoft bereit, das sich vor allem in der Forschung und in freien Software-Projekten mit seinen APIs für Python und C++ einen Namen gemacht hat. Unter anderem baut auch Teslas Autopilot darauf auf.
Das zweite große populäre und freie Framework ist Tensorflow, das von Google stammt und eine enge Bindung an die Google Cloud liefert, aber auch viele Bibliotheken für die eigene Verwendung.
Es sind diese beiden Frameworks, deren künstliche Intelligenz meist über die Verbindung von Algorithmen und Datenmodellen in die hier vorgestellten Programmen einfließen oder in deren Entwicklung ausschlaggebend waren.
Final 2x – Bildgrößen hochrechnen

Gut vergrößert: Final 2x läuft mit jeder beliebigen CPU und GPU. Diese pixelige Grafik (links) hat das Tool mit dem Algorithmus Waifu 2x auf die vierfache Größe (rechts) gebracht.
IDG
Bitmapgrafiken durch die bloße Vergrößerung ihrer Pixel zu skalieren, führt immer auch zu einem herben Qualitätsverlust. Mit Final 2x muss die Vergrößerung von Bitmaps nicht verlustreich sein. Dem Programm Final 2x gelingt es mit neuronalen Netzen und mitgelieferten Modellen, Grafiken hochzurechnen und bis ins Detail zu glätten.
Mit den Algorithmen Real Cugan, Real Esrgan, Waifu 2x und SRMD liefert Final 2x vier Möglichkeiten, Bilder für die besten Ergebnisse zu skalieren. Auch verpixelte Fotos im JPG-Format mit Rauschen und starken Artefakten kann das Programm erheblich verbessern.
Installation: Final 2x steht auch deshalb am Anfang unserer nützlichen Toolsammlung, weil es unter Windows sehr einfach installiert ist und dann sofort zum erfolgreichen Experimentieren einlädt. Auch gibt es keine speziellen Hardwareanforderungen, denn die verwendeten neuronalen Netze und Algorithmen von Final 2x laufen auf Nvidia-, AMD- sowie Intel-Chips. Eine integrierte GPU ist dabei auch schon genug.
Wie bei allen Tools zu KI und neuronalen Netzen heißt es aber auch hier: Viel RAM hilft viel. Für Windows stellt der Entwickler auf seiner Github-Seite den bequemen Installer Final2x-windows-x64- setup.exe bereit (260 MB) welcher die Einrichtung mit wenigen Klicks erledigt.
So funktioniertʼs: Nach dem Start präsentiert Final 2x ein Eingabefeld, das per Ziehen und Ablegen jene Bilddateien im Format JPG oder PNG akzeptiert, die es hochskalieren soll. Ein Klick links unten auf das Zahnradsymbol öffnet eine Seite mit Einstellungen. Unter „Device“ ist die CPU/GPU zur Berechnung auswählbar, falls mehrere vorhanden sind.
Für die Bildqualität entscheidend ist das „Model“. So ist der Algorithmus Real-ESRGAN sehr gut für Fotografien geeignet, während Waifu 2x auf Zeichnungen spezialisiert ist. Den Skalierungsfaktor gibt das Feld „Custom Scale“ vor. Es empfiehlt sich zudem immer, die Option „TTA“ zu aktivieren, um gut entrauschte Ergebnisse zu erhalten.
Im Hauptfenster beginnt mit „Start“ die Berechnung, die bei komplexen Bildern einige Minuten dauern kann.
Lesetipp: Die besten KI-Tools für Texte, Bilder und Videos
Meshroom – 3D-Scanner für Smartphones

Willkommen in der dreidimensionalen Welt: Meshroom erstellt aus Fotografien realer Objekte ein 3D-Gitternetz zur Weiterverarbeitung in CAD-Programmen und 3D-Modellen wie Blender.
IDG
Ein 3D-Scanner tastet reale Objekte mit Laser ab und erstellt aus den Daten eine Datei für die Weiterverwendung in CAD- und Animationsprogrammen. Was sehr aufwendig klingt, ist im Kleinen sogar schon mit herkömmlichen Smartphones oder Digitalkamera und der freien Software Meshroom möglich. Sie basiert auf den fotogrammetrischen Bibliotheken der Entwicklerfirma Alicevision, steht unter einer Open-Source-Lizenz und ist für Windows (64 Bit) verfügbar. Aus der Analyse von Bildserien errechnet es die Form eines abfotografierten Objekts und erstellt eine Gitternetzdatei.
Installation: Wegen der für Berechnungen erforderlichen Cuda-Schnittstelle verlangt Meshroom nach einer Nvidia-Grafikkarte mit Unterstützung von mindestens Cuda 2.0. Die Tabelle hier zeigt, auf welche Karten das zutrifft. Die Cuda-Treiber von Nvidia für Microsoft Windows haben eine Download-Größe von 3 GB.
Ist die Nvidia-Hardware eingerichtet, kann es an die Installation von Meshroom gehen (1,3 GB). Mit AMD-Grafikkarten und Intel-Chips funktioniert Meshroom nur im wenig genauen Skizzenmodus. Wer Geduld bei Berechnungen mitbringt, kann eine alternative Version von Meshroom ohne Cuda testen.
So funktioniertʼs: Bei der Fotografie des zu scannenden Objekts ist es wichtig, dass dieses möglichst freigestellt in einem leeren Raum steht. Es sind Dutzende Fotos von jeder Seite in verschiedenen Winkeln mit hoher Tiefenschärfe und ohne Verwackeln nötig. Wichtig ist, keine Bildgröße von mehr als 10 Megapixeln nutzen. Die Dateien werden dann in Meshroom in den linken Bereich „Images“ gezogen, um die Berechnung zu starten, welche auch auf Nvidia-Karten einige Stunden dauert.
Für die weitere Optimierung des Gitternetzes empfiehlt sich dann eine 3D-Software wie das freie Programm Blender.
Kdenlive – Objektverfolgung per KI

Ein Objekt verfolgen: Der Motion-Tracker „DaSIAM“ in den neueren Versionen des Videoeditors arbeitet mit KITechniken und kann beispielsweise Gesichter durch Unschärfe unkenntlich machen.
IDG
Dieser freie Videoeditor kann schon seit zwei Jahren mit KI-Hilfsmitteln aufwarten. Motion-Tracking, also eine automatische Objektverfolgung in Videoclips, kann erkannte Motive mit einer Maske versehen und dann gezielt Effekte auf diese anwenden. Nützlich ist dies beispielsweise, um in einem Videoclip bestimmte Objekte zu verpixeln.
Installation: Kdenlive liegt als Open Source für Windows in 64 Bit als Setup-Datei vor (100 MB) und ist damit flott installiert. Dazu kommen jetzt die Modelldaten für den Motion-Tracking-Algorithmus, wobei es sich um drei Dateien „dasiamrpn_ kernel_cls1.onnx“, „dasiamrpn_kernel_r1.onnx“ und „dasiamrpn_model.onnx“ der Kdenlive-Entwickler handelt. Alle drei Dateien müssen in das Installationsverzeichnis von Kdenlive. Dazu gibt man in der Adressleiste des Windows-Explorers die Adresse %AppData%/kdenlive ein und legt dort einen neuen Unterordner namens opencvmodels an. Dort hinein kommen dann die drei heruntergeladenen Modelldateien.
So funktioniertʼs: In Kdenlive steht der Motion-Tracker als Effekt zur Verfügung. Um ihn zu verwenden, legt man einen importierten Clip aus der Liste links oben in die Zeitachse unten, wechselt in der mittleren Menüleiste zum Reiter „Effekte“ und wählt dort „Alpha, Mask and Keying –› Motion Tracker“ aus. Das Ziehen des Effekts auf den gewünschten Clip öffnet die Einstellungen zum Effekt und blendet ein rotes Quadrat im Vorschaufenster ein. In den Einstellungen sollte als „Tracker algorithm“ der Typ „DaSIAM“ ausgewählt werden. In der Zeitleiste geht man zum ersten Frame, platziert den roten Auswahlrahmen rund um das Objekt und klickt dann auf „Analyse“, um die Keyframes um das Objekt zu berechnen. Eine Verpixelung, etwa für Gesichter, kann zudem sofort ausgewählt werden.
Spleeter Musik in Spuren zerlegen

Gekonnt dekonstruiert: Spleeter ist ein Kommandozeilentool, das per KI und umfangreichen Modellen Musikdateien im MP3-Format in einzelne Spuren mit isolierten Instrumenten zerlegt.
IDG
So werden fertig gemischte Musikstücke wieder zu einzelnen Tracks: Das KI-Tool Spleeter bekam schon vor zwei Jahren nach seiner ersten Vorstellung viel Aufmerksamkeit. Es kann anhand von vortrainierten Modellen Musik im MP3-Format in zwei, vier oder fünf einzelne Spuren aufteilen.
Spleeter erkennt dabei Kategorien wie Gesang, Bass, Schlagzeug und Rhythmusgruppe. Das Kommandozeilentool nutzt die KI-Bibliothek „Tensorflow“ zur Analyse des Datenstroms in Musikstücken und den Encoder Ffmpeg zum Heraustrennen der isolierten Tracks in einzelne MP3-Dateien.
Das KI-Tool und das Training der Modelle stammt vom französischen Streamingdienst Deezer, der dazu den enormen, lizenzierten Katalog von Popmusik als Analysematerial zur Mustererkennung nutzen durfte. Auch diese Trainingsdaten liegen zur kostenlosen privaten Verwendung vor, müssen aber separat installiert werden.
Installation: Dank der Popularität gibt es eine Windows-Version von Spleeter, die eine mühsame Installation der einzelnen Python-Programmkomponenten erspart. Diese kompakte Portierung für Windows ist über den Paketmanager Chocolately verfügbar, der zunächst auf seine Einrichtung wartet. Dazu geht es über das Startmenü erst in die Power Shell von Windows, die ein Rechtsklick mit der Option „Als Administrator ausführen“ öffnet. In diese Kommandozeile schaltet der Befehl
Set-ExecutionPolicy AllSigned
die Ausführungsrechte mit der Eingabe „j“ frei. Dann installiert das Kommando
Set-ExecutionPolicy Bypass -Scope Process -Force; [System.Net.ServicePointManager]::SecurityProtocol = [System.Net.ServicePointManager]::SecurityProtocol -bor 3072; iex ((New-Object System.Net.WebClient).DownloadString('https://chocolatey.org/install.ps1'))
den Windows-Paketmanager Chocolately.
Dann kann der Paketmanager mit dieser Eingabe Spleeter in der Powershell installieren:
choco install spleeter-msvc-exe
Nun ist die Installation der Trainingsmodelle nötig. Dazu dient im gerade neu angelegten Verzeichnis „C:\ProgramData\chocolatey\lib\spleeter-msvc-exe\tools\models“ die Batchdatei „download_models.bat“, die ebenfalls in der Powershell aufgerufen wird und rund 1,2 GB an Daten herunterlädt – keine Kleinigkeit also. Zuletzt verlangt Spleeter noch die Installation der Visual C++ Redistributable von Microsoft.
So funktioniertʼs: Sind alle Schritte erledigt, kann es in der Powershell oder in der Eingabeaufforderung weitergehen. Der Aufruf
spleeter.exe datei.mp3
teilt eine vorliegende MP3-Datei im aktuellen Verzeichnis in Gesang und Instrumente auf, die es als einzelne MP3-Dateien in den Ordner ablegt. Dies ist das einfachste Anwendungsbeispiel, welches auch nur wenige Sekunden Rechenzeit auf einem aktuellen PC mit durchschnittlicher Leistung in Anspruch nimmt. Spleeter erkennt in der typischen Popmusik aber weitere Spuren zur Isolation, etwa Schlagzeug und Bass.
spleeter.exe -m 4stems datei.mp3
In diesem Beispiel sucht Spleeter mittels seiner Mustererkennung nach vier einzelnen Spuren in einem Musikstück, nämlich nach Gesang, Bass, Schlagzeug und Rhythmus/ Begleitung. Die Berechnung dauert etwas länger, bis diese Spuren dann als einzelne MP3-Dateien ins Arbeitsverzeichnis geschrieben sind.

Ein Blick auf die erzeugten Spuren im Audioeditor Audacity: Spleeter arbeitet bei der Trennung von Instrumenten und Gesang sehr genau, schneidet dabei aber hohe Frequenzen ab.
IDG
Falls im vorliegenden Musikstück die Begleitung ein markantes Alleinstellungsmerkmal aufweist, so kann Spleeter mit diesem Befehl auch in fünf Spuren aufteilen, was am besten mit Gesang, Bass, Schlagzeug, Klavier und Rhythmusgruppe funktioniert.
spleeter.exe -m 5stems datei.mp3
Gekonnt dekonstruiert: Spleeter ist ein Kommandozeilentool, das per KI und umfangreichen Modellen Musikdateien im MP3-Format in einzelne Spuren mit isolierten Instrumenten zerlegt.
Microsoft Edge – Bilder aufbessern

Adieu, sichtbare Pixel: Microsoft Edge kann Bilder im Web hochskalieren und damit verbessern. Die Option muss erst noch hier manuell aktiviert werden und involviert Microsoft- Server.
IDG
Mit seinen eigenen Rechenzentren im Rücken arbeitet Microsoft daran, alltägliche Programme mit möglichst vielen KI-Techniken auszustatten. Was davon auf Dauer sinnvoll ist, wird sich noch zeigen müssen. Zweifelsohne liefern die neuen Fähigkeiten des Webbrowsers Edge, Bilder und sogar Videos automatisch hochzuskalieren, sehr Proschöne Ergebnisse auf hochauflösenden Bildschirmen.
Installation: Auf Windows ist Microsoft Edge zwar schon vorinstalliert, die KI-Techniken des Browsers zur Bildverbesserung sind aber erst in der Entwicklerversion von Edge verfügbar. Die Setup-Datei dieser öffentlichen Vorschauversion des Microsoft-Browsers ist verfügbar.
So funktioniertʼs: Die Bildverbesserung erledigt der Browser nicht lokal auf dem eigenen Rechner, sondern sendet die Bilder zu den Servern von Microsoft, wo sie hochgerechnet und zurück zum Browser geschickt werden. Das bedeutet, dass Microsoft weiß und auswerten wird, welche Bilder Anwender im Web abrufen. Diese KI-Option ist deshalb nicht von Haus aus aktiviert. Stattdessen wartet die Funktion auf der Optionsseite unter der Adresse edge://settings/privacy/enhanceImages erst noch auf ihre Aktivierung über den angezeigten Schalter.
Dort ist diese Funktion auch gezielt für nur einzelne Webseiten aktivierbar. Erst in den Alpha-Versionen von Microsoft Edge namens „Canary“ ist die KI-Funktion vorhanden, auch um unscharfe Videos bis 720p-Auflösung mithilfe der eigenen GPU zu verbessern. Diese KI-Methode in Edge setzt neuere Grafikchips von AMD oder Nvidia samt passenden, proprietären Treibern voraus und schickt die Daten nicht zu Microsoft-Servern.
Vosk – Spracherkennung per KI

Von gesprochener Sprache zu Untertiteln: In diesem Beispiel haben wir Vosk die Tonspur eines englischsprachigen Youtube-Videos im MP4-Format erkennen lassen. Das Resultat ist diese SRT-Datei.
IDG
Vom gesprochenen, aufgezeichneten Wort zu einer sauberen Transkription ist der Weg heute nicht mehr weit. Das KI-Rahmenwerk Vosk, das auf der Spracherkennungs-Engine Kaldi aufbaut, ist ein Open-Source-Projekt der Johns Hopkins University.
Installation: Vosk verlangt unter Windows nach Python 3.11. Bei der Installation muss die Checkbox „Add Python to PATH“ aktiviert sein. In der Eingabeaufforderung installieren die zwei Befehle
pip install ffmpeg
pip install vosk
die Voraussetzungen für Vosk. Als Nächstes wird der Encoder/Decoder Ffmpeg in Form der Datei „ffmpeg-git-essentials.7z“ benötigt, Der Archivinhalt kommt in das neu angelegte Verzeichnis „C:\Program Files\ffmpeg“, damit dort im Unterordner „bin“ die Datei „ffmpeg.exe“ liegt. Nun muss der Pfad „C:\Program Files\ffmpeg|bin“ noch der Windows-Umgebungsvariablen „Path“ hinzugefügt werden. Das geht über „Windowssymbol –› Einstellungen –› System –› Erweiterte Systemeinstellungen –› Umgebungsvariablen –› Path –› Bearbeiten –› Neu“.
So funktioniertʼs: Anschließend geht es auf die Github-Webseite http://github.com/alphacep/vosk-api, um dort unter „Code –› Download ZIP“ einige Beispielscripts herunterzuladen, die in ein beliebiges Verzeichnis entpackt werden. Dort liegt im Unterordner „\python\vosk\transcriber“ das Beispielscript „transcriber.py“. Mit dem Aufruf
vosk-transcriber -l en-us -i test.mp4 -t srt -o englisch.srt
erstellt es aus der Videodatei „test.mp4“ die Untertiteldatei „englisch.srt“ durch Spracherkennung mit Zeitstempeln. Ein passendes Sprachmodell lädt das Script automatisch herunter. Die fertige Datei kann dann in weiteren Übersetzungsprogrammen weiterverarbeitet werden, um deutsche Untertitel zu erzeugen.
Digikam – Gesichtserkennung für Fotos

Digikam erkennt Gesichter: Aus den Bildern der eingelesenen Fotosammlung erstellt die Fotoverwaltung eine lokale Personendatenbank und erlaubt dann das Tagging und Suchen von Personen.
IDG
Das seit über 15 Jahren stetig weiterentwickelte Programm Digikam zur datenbankgestützten Organisation großer Bildbestände entstand ursprünglich für Linux und wird regelmäßig auch nach Windows portiert. Denn die Fähigkeiten von Digikam sind beachtlich: Neben der Sortierung und Kategorisierung von Aufnahmen nach Alben, Tags und Stichwörtern gibt es fortgeschrittene Sortierungsmöglichkeiten. Gesichtserkennung und die automatische Einstufung der Bildqualität von Aufnahmen sind zwei neuere Features der Fotoverwaltung, die auf KI basieren.
Installation: Digikam ist in Windows mit 64 Bit über ein Setup-Programm leicht installiert (114 MB). Das Installationsprogramm fragt zur Einrichtung einige Details mit sinnvollen Voreinstellungen ab. Nach dem ersten Aufruf von Digikam schlägt das Programm dann selbstständig vor, für die enthaltene Gesichtserkennung die benötigten KI-Modelldaten herunterzuladen, die rund weitere 420 Megabyte ausmachen.
So funktioniertʼs: Schon seit Ausgabe 2.0 experimentiert Digikam per Gesichtserkennung in Aufnahmen auf der Grundlage neuronaler Netze. Aber erst seit Version 7.2 kann sich diese KI-Technik in Digikam in der Praxis beweisen. Nach dem Öffnen eines Fotos zeigt die Bildanzeige das Symbol einer Person mit einem Plussymbol an. Dieses dient dazu, ein Gesicht mit Auswahlrechteck manuell zu markieren und mit einem Namen zu versehen.
Dies wiederholt man für ein paar weitere Bilder mit der Person, wobei dann der Name aus der angezeigten Liste ausgewählt wird. Über den Menüpunkt „Durchsuchen –› Personen“ ist dann die ganze Fotosammlung nach der gleichen Person durchsuchbar.
Hugin – Panoramen aus Fotoserien

Fügt Bildserien per Mustererkennung weitgehend automatisch zusammen: Hugin errechnet aus Serien benachbarter Bilder eine Szenerie oder ein Panoramabild. Dabei helfen die hier gezeigten Kontrollpunkte.
IDG
Und noch ein Werkzeug für Fotos, das viele Stunden der mühsamen Bildbearbeitung spart und dabei ganz neue Szenerien der Landschaftsfotografie erlaubt. Das Programm Hugin erstellt Panoramafotos aus überlappenden Serien von Einzelbildern. Panoramen sind besonders in der Landschaftsfotografie reizvoll, um dramatische Stimmungen einzufangen. Dies ist auch mit Smartphone-Apps seit einigen Jahren möglich. Hugin erlaubt dabei aber eine genaue Kontrolle über das Resultat und kann zusätzlich Einzelbilder auch in vertikalen Reihen verbinden.
Installation: Hugin ist ein Windows-Programm und muss einfach aus seinem ZIP-Archiv in einen beliebigen Ordner entpackt werden. Die ausführbare Datei finden sich als hugin.exe im Unterorder „bin“.
So funktioniertʼs: Hugin ist ein Werkzeug für Fortgeschrittene und man darf um längere Experimente nicht verlegen sein, bis alle Funktionen des Programms ergründet sind. Empfehlenswert ist, erst mal mit kleinen Panoramen aus zwei Einzelbildern zu beginnen, die dem Reiter „Bilder“ hinzugefügt werden. Für gute Ergebnisse sollte man immer die Brennweite aus den Metadaten der Einzelaufnahmen manuell ergänzen. Hinzugefügte Kontrollpunkte zwischen überlappenden Bildern über den gleichnamigen Reiter verbessern das Ergebnis erheblich.
Subsync – Untertitel synchronisieren

Zeitcodes in Untertiteldateien passend zum Video berechnen: Subsync nutzt eine Spracherkennung über das integrierte Python-Modul Pocketsphinx und analysiert die angegebene Videodatei.
IDG
Cineasten bevorzugen Filme und Serien in der Originalfassung ohne synchronisierte Dialoge. Eine Untertitelspur ist trotzdem hilfreich – und bei unbekannten Sprachen sowieso nötig.
Webseiten wie opensubtitles.org liefern Untertitel zu Serien und Filmen in Formaten, mit denen Mediaplayer wie VLC umgehen können. Die Schwierigkeit ist dabei oft, eine passende Untertiteldatei zu finden, die mit der vorliegenden Videodatei synchron läuft. Denn wenn die Untertitel zeitlich nicht zum gesprochenen Wort im Film passen, bleibt auch der Filmgenuss auf der Strecke.
Das freie Tool Subsync kann es richten: Mit Spracherkennung und künstlicher Intelligenz synchronisiert es die Untertiteldatei mit einer Videodatei.
Installation: Auch hier sind keine langen Exkurse in die Kommandozeile nötig. Auf der Projekt-Webseite gibt es unter https://github.com/sc0ty/subsync/releases einen Installer sowie eine portable Ausgabe für alle Windows-Versionen mit 64 Bit zum Download (gratis, 42 MB).
Der Aufruf dieser EXE-Datei entpackt das Programm in einen Unterordner, in welchem sich dann die Programmdatei findet.
So funktioniertʼs: In der Programmoberfläche kommt in das obere Feld „Subtitles“ der Pfad zur Untertiteldatei im SRT-Format, und daneben muss die Sprache dieser Datei angegeben werden. Darunter erwartet das Feld „References“ die Videodatei, und die Auswahl daneben wieder die Sprache.
Nach einem Klick auf Start wird Subsync dann die passenden Wörterbuchdateien zu den gewählten Sprachen herunterladen, was einige Dutzend Megabyte ausmacht.
Danach beginnt die Synchronisierung anhand gefundener Übereinstimmungen, und Subsync schreibt dazu die Zeitstempel der SRT-Datei neu
KI-Angriffe: Vorsicht vor neuen Betrugs-Techniken