In diesem Beitrag möchte ich die Learnings aus dem Prozess mit euch teilen.
Ziel des Videos war:
- zu experimentieren und Spaß zu haben 😂
- neue Tools zu lernen und die Möglichkeiten auszuloten
- das Thema des Songs mit KI-Visuals und meinen Schriften besser zu verdeutlichen
Der Song ist von mir, 100% human. Instrumente und Vocals im Homestudio aufgenommen, Drums per Drumcomputer.
Mixing und Mastering by: Lewis Kelly.
Tools: Midjourney, Runway, Lumalabs, Procreate und Premiere.
Prozess:
Meine Learnings im Umgang mit den verschiedenen Tools:
Midjourney
Ist für mich das beste Werkzeug für Bildergenerierung. Mit der --p Personalisierungsfunktion im Prompt kann man auf den vorher trainierten Style zurückgreifen. Die Funktion ist glaub ich erst seit Spätsommer/Herbst verfügbar. Das hat mir geholfen die Szenen besser zu gestalten und die Bildästhetik zu vereinheitlichen.
Die generierten Bilder habe ich dann in anderen Tools in Videos verwandelt:
Lumalabs
Super toll um zwei verschiedene Szenen mit Übergang zu kombinieren. Einfacher, aber auch eingeschränkter im Handling.
Man kann das Start und Endframe eingeben und es animiert die Übergänge. Das fehlt mir in Runway.
Runway
Die qualitativsten Ergebnisse. Teilweise nicht so einfach, das rauszubekommen was man will. Nicht jede Idee funktioniert gut. Und Credits kosten viel mehr verglichen mit anderen Tools. Dafür beeindruckende Ergebnisse.
Fazit
In meinem Fall für ein richtig „sickes“ Video haben auch die AI-Fehler, deformierte Gliedmaßen und andere Bugs ausgereicht. Spannend ist definitiv wie sich Generative AI im Video Bereich für DIY Artisten noch entwickeln wird.
Arbeitsaufwand ca. 26 h im Editing, Generieren, Schneiden etc. (ohne Songwriting…) Knappe 100 € in Abos, Tools und Credits investiert.
Spaß hatte ich dabei eine Menge. Der Kreativität sind hier keine Grenzen gesetzt.
Youtube-Link
Hier der Link auf Youtube: www.youtube.com/watch?v=b06_KKsUGaA




