YouTube Shorts versinkt im KI-Müll
Ich gebe es ja zu. Wenn am Abend meine Aufmerksamkeits- und Aufnahmefähigkeit nachläßt, dann schaue ich tatsächlich schon mal Hunde- oder auch Katzenvideos im »Shorts«-Format. Und es gibt da tatsächlich auch lustige, unerwartete darunter. Entweder verspielt, leicht trottelig oder – gerade bei Katzen – auch gemein (gegen Menschen und anderen Tieren). Bei solchen Videos schnellen dann die View-Zahlen, Daumen-Hoch- und Kommentarzahlen hoch.
Ich weiß nicht, wie es bei solchen Videos mit der Monetarisierung aussieht. Vermutlich bleibt da schon etwas hängen. Das dürfte dann auch der Grund sein, warum mittlerweile Leute hergehen und solche Videos per künstlicher Intelligenz generieren. Sie denken sich hübsche Stories aus, die beim Publikum Anklang finden: Kleinkind spielt an der Treppe, droht, sie hinabzustürzen. Haushund greift das Kind und zieht es weg von der Treppe. Oder noch dramatischer. Haushund greift Kleinkind und zieht es unter den Eßtisch. Sekundenbruchteile später wird die Wohnung von einem Erdbeben erschüttert, Teile fallen von der Decke, auch auf den Eßtisch und dem Bereich, wo das Kind spielte.
Tatsächlich sind diese Müll-Videos meist nach ein paar Sekunden zu erkennen: Einerseits sind oft die Geschichten zu perfekt und zu unwahrscheinlich, andererseits gibt es Artefakte (Bildelemente tauchen unerwartet auf oder verschwinden wieder), logische oder strukturelle Fehler in den Bildinhalten (fehlerhafte Teile an Geräten, Autos usw., falsche Anordnungen von Komponenten), falsche Bewegungsabläufe, Köpfe, die aneinander vorbei schauen, obwohl sie miteinander kommunizieren. Das Schlimme ist aber, daß es trotzdem offenbar vielen gar nicht auffällt. Schaut man in die Kommentare, kommt erst nach fünfzig oder hundert begeisterten Kommentaren dann man einer, der schreibt, daß es doch KI sei. Viele merken also gar nicht, wie sie manipuliert werden, obwohl es noch relativ offensichtlich ist.
Prinzipiell kann KI ja auch lustig sein. Ich denke da an Satire, in der zum Beispiel Politiker auf's Korn genommen werden. Ich hatte ja auch schon mal solche Videos verlinkt (Politiker als heruntergekommene Wohnungslose). Aber bei solchen Videos, wie oben beschrieben, fühle ich mich zum einen selber verarscht, zum anderen fürchte ich, daß auch ich irgendwann nicht mehr unterscheiden kann, was »echt« und was durch KI manipuliert oder gar vollständig generiert ist. Die an den Kommentaren und View-Zahlen tatsächlich ablesbare manipulative Eigenschaft für einen erheblichen Teil der Nutzer ist aber der wirklich kritische Aspekt. Ich bin mittlerweile durch solche Videos überzeugt, daß es eine Kennzeichnungspflicht unbedingt geben muß und daß gerade YouTube seine Bedingungen für Content-Autoren dringendst anpassen muß. Ein standardisiertes überlagerndes Symbol, das eingeblendet werden muß, ein Warnhinweis, wie er uns bei nicht-systemkonformen Videos häufig eingeblendet wird (Covid-19, Klima usw.), oder dergleichen. Und wenn nicht freiwillig: Automatische Bild- und Textanalysen sind ja technisch möglich, auch die Erkennung von KI-generierten Inhalten.