La vidéo AI est encore détectable, pour l'instant. À mesure qu'elle s'améliore, elle trompera un pourcentage croissant de personnes jusqu'à atteindre 100%. Je crains que ce moment ne soit pas loin. Probablement dans cinq ans. Je ne pense pas que nous soyons préparés au chaos généralisé qu'elle va provoquer.
Pensez à combien de pièces politiques sont écrites sur des enregistrements ou des vidéos que les gens prétendent exister mais qui ne sont jamais présentées. Juste hier, j'ai vu un post d'un grand compte affirmant qu'un fonctionnaire du gouvernement lui avait dit qu'il avait vu une preuve vidéo de Trump en train de r*per un enfant. Vous vous souvenez de la supposée "vidéo de pipi" de Trump ? Ou comment il y aurait supposément un enregistrement de Trump utilisant le N-bomb ? La réponse rationnelle a toujours été de demander des preuves. Publiez la vidéo. Des photos ou cela ne s'est pas produit. Eh bien, nous atteignons un point où cette "preuve" sera triviale à générer avec l'IA. Elle sera indistinguable d'une vraie vidéo. Cela ne fera pas seulement croire aux mensonges. Cela rendra les gens sceptiques à l'égard de la réalité. Cela donnera aux personnes coupables la capacité de nier de manière plausible tout ce qui est capturé sur vidéo. Vous pensez que les vidéos de propagande de guerre générées par l'IA sont mauvaises maintenant ? Accrochez-vous.
Les commentaires sur les vidéos d'IA sont passés de "LOL, de la bouillie d'IA !" il y a moins d'un an à un nombre croissant de "@Grok, est-ce de l'IA ?" Et Grok se trompe fréquemment.
863