Die Untersuchung der Medienangelegenheiten ist, gelinde gesagt. Einige dieser Clips, manchmal mehr als 14 Millionen Mal, zeigen das diskrete „Veo“ -Fassermark oder werden durch Hashtags, die mit AI verbunden sind, eindeutig identifiziert. Jedes Video überschreitet nicht acht Sekunden, eine direkte Einschränkung von VEO 3, die im vergangenen Mai von Google gestartet wurde. Dieses Tool? Sie können narkotische Video- und Audiosequenzen aus einfachen schriftlichen Anweisungen generieren. Google behauptet jedoch laut und löschen „blockieren Sie die schädlichen Anfragen und Ergebnisse“. Und Tiktok verspricht, dass „Diskurs oder Hassverhalten keinen Platz in sich haben“. Offensichtlich gibt es eine Welt zwischen Verheißungen und trauriger Realität. Fehler sein, die es diesen digitalen Hass vermehren lassen.

Wie schaffen es diese abscheulichen rassistischen Videos, Moderationssysteme zu vereiteln?

Dies ist die große Frage, und es ist schwer mit Bedeutung. Trotz all der schönen Google -Erklärungen zur Blockierung von hasserfüllten Inhalten über VEO 3 und die unflexiblen Regeln von Tiktok gegen Stereotypen gehen diese Videos fröhlich durch die Netze des Netzes. Der Bericht von Media Matters ist überwältigend: Er weist auf bühne rassistische Darstellungen hin, die hauptsächlich auf schwarze Menschen mit abgenutzten Schüssen (Affen, gebratenes Hühnchen, Wassermelone) abzielen. Aber das Problem ist viel größer. Anti -semitischer Inhalt, Karikaturen, die Einwanderer oder Demonstranten nicht würdig sind und sogar die Forderung nach Gewalt („zerkleinerte“ Demonstranten durch Autos), wurden auf Tiktok entdeckt, aber auch YouTube oder Instagram. Dies zwingt uns, uns zu fragen: Die Erkennungs- und Mäßigungsmechanismen entsprechen der beeindruckenden Raffinesse von Kreationen durch künstliche Intelligenz ? Sieht aus wie nein oder noch nicht.

Wer sind die privilegierten Ziele dieser von AI erzeugten Hassvideos?

Die Analyse der belasteten Videos zeigt eine traurige Wahrheit: Die Ziele sind vielfältig und die Federn des Hasses, immer gleich. Neben den klassischen rassistischen Stereotypen streben diese Kreationen der KI auch nach Einwanderern an, die sie fälschlicherweise darstellen, manchmal sogar durch Gewalt gegen sie. Klare anti -semitische Darstellungen und rassistische Karikaturen, die auf asiatische Bevölkerung abzielen, wurden ebenfalls identifiziert, der Nachweis eines absichtlichen Wunsches, KI zu verwenden. Das Ziel ist klar: Verstärkung und Diversifizierung der Verbreitung von Online -Hass unter Verwendung der Kraft der Videogeneration Um die Netzwerke diskriminierender Botschaften in großem Umfang und in großem Umfang zu überfluten. Es ist ein echtes Kopfschmerz für den sozialen Zusammenhalt und, wie wir zugeben, für die reine und einfache Sicherheit der betroffenen Gemeinden.

Tiktok

Welche Verantwortung für Webgiganten und wie reagieren Gesetzgeber?

Angesichts dieser Explosion von Hassinhalten „hausgemacht“ von AI steht die Verantwortung von Plattformen wie Tiktok und Google offensichtlich im Zentrum der Debatten. Ihre internen Richtlinien sind klar, es ist wahr. Aber ihre Anwendung scheint sich zu beugen, überwältigt vom Volumen und der heimtückischen Natur dieser Videos. Ergebnis ? Gesetzgeber und Aufsichtsbehörden sind nicht untätig. Sie erhöhen den Druck auf technologische Unternehmen und erfordern robustere Filter und restriktivere Beschränkungen für ihre KI -Tools. Die Herausforderung ist kolosssal: Es geht darum, die Öffentlichkeit vor potenziell furchterregenden Missbräuchen künstlicher Intelligenz zu schützen. Vor allem seit letztem Jahr wurde bereits von einem Anstieg der „DeepFakes“, insbesondere einer pornografischen oder Desinformation, geprägt. Regulierung, verbunden mit einer fehlerlosen Zusammenarbeit zwischen allen Akteuren, wird daher absolut wichtig, um die Verwendung dieser Technologien zu überwachen Und verhindern, dass sie sich in beeindruckende Hassverstärker verwandeln. Die Zeit ist ernst, aber die Aktion ist möglich.

Fragen fair (FAQ)

Was ist Google Veo 3?

Google Veo 3 ist ein künstliches Intelligenz -Tool, das letztes Mai von Google gestartet wurde. Es ermöglicht Benutzern, Video- und Audioclips einfach aus Textbeschreibungen zu erstellen.

Sind diese rassistischen Videos nur auf Tiktok vorhanden?

Nein, obwohl Tiktok der Hauptvektor ist, bei dem diese Videos Millionen von Ansichten angesammelt haben, wurden ähnliche Inhalte auch auf anderen Plattformen wie YouTube und Instagram identifiziert.

Haben IA -Unternehmen Richtlinien gegen hasserfüllte Inhalte?

Ja, Unternehmen wie Google und Tiktok sagen, dass sie strenge Richtlinien haben, die Hassreden und schädliche Inhalte verbieten. Die Verbreitung dieser Videos bezweifelt jedoch die Wirksamkeit ihrer Anwendung.