
Systeme für künstliche Intelligenz können mit deutlich weniger Energie antrainiert werden.
Moderne KI-Tools verringern allerdings auch den Aufwand, um Deepfakes zu erstellen und Personen in Bildern oder Videos echt wirken zu lassen.
Ein deutsches Startup setzt dem eine KI-Plattform zur Erkennung von manipulierten Mediendateien entgegen.
Die in Deutschland gehostete Software vereint unterschiedliche KI-Modelle. Sie prüfen, ob das Gesicht getauscht oder Ausdruck und Mimik verändert wurden. Oder ob die Bewegung der Lippen zum gesprochenen Text passt.
Das System entdeckt Unregelmäßigkeiten bei Bildfrequenz, Beleuchtung im Video oder Bildkomprimierung und sogar, ob der Blutfluss in der Haut natürlich ist.
Zusätzlich wird nach ähnlichen Dateien im Internet gesucht. Genauigkeit des Systems: 98%.
Ein wichtiges Beweismittel für Videos mit angeblicher Zustimmung bei häuslicher Gewalt.



