Par Kosisochukwu Charity Ani

La Première dame Melania Trump prend la parole, sous le regard du président Donald Trump, lors de la signature de la loi Take It Down Act dans la roseraie de la Maison Blanche, le lundi 19 mai 2025. Crédit photo : Evan Vucci/AP Photo

Les deepfakes, impressionnante dérive de l’intelligence artificielle, ont profondément transformé la création et la consommation de contenu médiatique. Leur pouvoir réside dans la fusion fluide entre art et innovation : permettre à des réalisateurs de ressusciter des figures historiques, de rajeunir des acteurs ou de concevoir des personnages virtuels saisissants, tout en réduisant les coûts et les délais de production.

Mais les deepfakes ne se limitent pas à l’industrie du divertissement. Ils trouvent également des usages dans le monde académique, le journalisme, l’accessibilité ou encore la communication visuelle. Pourtant, cette avancée technologique soulève de graves inquiétudes, car son réalisme en fait un outil aussi fascinant que potentiellement trompeur.

Une loi contre la pornographie non consentie générée par IA

Face à l’utilisation croissante de ces outils pour produire de la pornographie non consentie (visant principalement les femmes) et au préjudice réputationnel et psychologique que cela engendre, le président Donald Trump a promulgué le Take It Down Act le 19 mai 2025. Cette loi bipartisane criminalise la diffusion d’images intimes non consenties, incluant les deepfakes et les contenus dits de « revenge porn ». Elle impose aux plateformes sociales de retirer rapidement les contenus signalés, tout en donnant à la Federal Trade Commission (FTC) le pouvoir d’assurer le respect de la loi.

La cérémonie, organisée dans la roseraie de la Maison Blanche, représente une victoire politique majeure pour la Première dame Melania Trump, qui a soutenu la loi dans le cadre de son initiative Be Best, axée sur les problématiques liées à la drogue, au cyberharcèlement et à la santé mentale des enfants.
Lors d’un événement organisé au Capitole, elle a plaidé pour la proposition :

« C’est bouleversant de voir des adolescentes, en particulier des filles, devoir affronter les effets destructeurs des contenus malveillants en ligne comme les deepfakes. »
Elle a ajouté :
« Cet environnement toxique peut être gravement nocif. Nous devons mettre leur bien-être en priorité, en leur fournissant les outils nécessaires pour naviguer dans ce paysage numérique hostile. Chaque jeune mérite un espace en ligne sûr, libre de toute menace d’exploitation ou de préjudice. »

Une crise mondiale des deepfakes

Le détournement de la technologie des deepfakes est devenu une préoccupation planétaire. Ce qui était initialement un outil de créativité et de progrès est désormais une arme de désinformation et de nuisance. Une technologie autrefois valorisante et divertissante manipule aujourd’hui la vérité, abuse les individus et mine la confiance publique — allant, dans les cas les plus graves, jusqu’à ruiner des vies.

Des cas emblématiques ont marqué l’opinion publique : des images explicites générées par IA de la chanteuse Taylor Swift ont circulé massivement sur les réseaux sociaux avant d’être supprimées. En Australie, des élèves ont fabriqué des deepfakes à caractère sexuel de leurs camarades et enseignants, entraînant des arrestations et l’adoption de lois fédérales criminalisant ces actes. Des initiatives éducatives ont également été lancées pour prévenir les abus d’images chez les mineurs.

En Espagne, plus de 20 adolescentes ont reçu des images dénudées d’elles-mêmes créées par IA à partir de photos extraites de leurs réseaux sociaux. Même le président Trump n’a pas échappé à ce phénomène : une vidéo générée par IA, le montrant en train d’embrasser les pieds d’Elon Musk, a été diffusée sur les écrans internes du ministère du Logement et du Développement urbain (HUD).

Réactions législatives à l’international

Le sénateur Ted Cruz a déclaré dans un communiqué du Sénat américain :

« Alors que les acteurs malveillants continuent d’exploiter les technologies émergentes comme l’IA générative, le Take It Down Act est crucial pour mettre fin à la propagation de contenus sexuels exploitants en ligne, tenir les grandes plateformes pour responsables, et redonner du pouvoir aux victimes de pornographie de vengeance et de deepfakes. »

Dans le monde entier, les gouvernements ont commencé à légiférer sur les enjeux posés par cette technologie. Avant l’adoption de la loi américaine, l’Union européenne, la Chine, l’Australie, le Royaume-Uni et la France avaient adopté des textes encadrant l’IA, majoritairement centrés sur l’usurpation d’identité et la fraude, laissant de côté la problématique spécifique de la pornographie non consentie générée par IA.

La loi Take It Down Act représente une étape importante dans la lutte contre ce phénomène. Toutefois, elle fait l’objet de nombreuses critiques : son vocabulaire vague pourrait entraîner une censure excessive, elle ne prévoit aucun processus de contre-notification, et pourrait être utilisée à mauvais escient pour réduire au silence les voix dissidentes. Les défenseurs de la vie privée alertent sur le risque de fragiliser le chiffrement des communications, en incitant les plateformes à surveiller les contenus privés. Les plus petites plateformes, quant à elles, pourraient ne pas être en mesure de répondre aux exigences de retrait sous 48 heures, ce qui pourrait mener à une modération excessive.

En outre, les zones d’ombre dans les définitions juridiques et les exemptions prévues soulèvent des interrogations sur l’application concrète de la loi, d’autant plus que la FTC, en charge de son exécution, est perçue comme politiquement déséquilibrée.

Une avancée majeure, mais des défis persistants

L’adoption du Take It Down Act marque une avancée significative face aux abus liés aux deepfakes à caractère sexuel. Toutefois, les limites de la loi en matière de clarté, d’efficacité et de protection des droits numériques montrent que le combat est loin d’être terminé. Face à l’évolution rapide des capacités de l’intelligence artificielle, les gouvernements, les entreprises technologiques et la société civile doivent unir leurs efforts pour mettre en place des stratégies globales. L’objectif : protéger les individus contre l’exploitation et préserver l’intégrité du numérique.