Skip to main content

7 Fév, 2024

L’UE propose d’ériger en infraction pénale les abus sexuels commis sur des enfants et les « deepfakes » générés par l’IA

L’UE propose d’ériger en infraction pénale les abus sexuels commis sur des enfants et les « deepfakes » générés par l’IA

La Commission européenne a annoncé aujourd’hui que les images générées par l’IA et d’autres formes de « deepfakes » représentant des abus sexuels commis sur des enfants (CSA: Child Sexual Abuse) pourraient être érigées en infractions pénales dans l’Union européenne, dans le cadre d’un projet visant à actualiser la législation existante pour tenir compte de l’évolution technologique.

Elle propose également de créer une nouvelle infraction pénale pour la diffusion en direct d’abus sexuels sur des enfants. La possession et l’échange de « manuels pédophiles » seraient également érigés en infraction pénale dans le cadre de ce projet, qui fait partie d’un ensemble plus large de mesures destinées, selon l’UE, à renforcer la prévention de la CSA, notamment en sensibilisant davantage aux risques en ligne et en permettant aux victimes de signaler plus facilement les infractions et d’obtenir de l’aide (notamment en leur accordant le droit à une compensation financière).

La proposition de mise à jour des règles actuelles de l’UE dans ce domaine, qui datent de 2011, comprend également des changements concernant le signalement obligatoire des infractions.

En mai 2022, la Commission a présenté un autre projet législatif relatif à la CSA, visant à établir un cadre qui pourrait obliger les services numériques à utiliser des technologies automatisées pour détecter et signaler le matériel pédopornographique (CSAM: Child Sexual Abuse Material) existant ou nouveau circulant sur leurs plateformes, ainsi que pour identifier et signaler les activités de manipulation psychologique (grooming) ciblant les enfants.

Le projet d’analyse des contenus pédopornographiques s’est avéré très controversé et continue de diviser les législateurs au Parlement et au Conseil. Il a également éveillé des soupçons quant aux liens de la Commission avec des lobbyistes spécialisés dans la sécurité des enfants et a soulevé d’autres questions embarrassantes pour l’exécutif européen, à la suite d’une incursion juridiquement discutable dans les publicités microciblées pour promouvoir la proposition.

La décision de la Commission de donner la priorité au ciblage des plates-formes de messagerie numérique pour lutter contre la CSA a suscité de nombreuses critiques selon lesquelles les législateurs de l’Union européenne se concentrent sur le mauvais domaine pour lutter contre un problème de société complexe, ce qui pourrait avoir généré une certaine pression pour qu’elle présente des propositions complémentaires. (Ce n’est pas ce que dit la Commission, bien sûr ; elle décrit le paquet d’aujourd’hui comme « complémentaire » à sa proposition précédente sur l’analyse du CSAM).

Cela dit, moins de deux ans après la présentation du plan controversé de balayage des messages privés, l’attention portée aux risques liés aux « deepfakes » et à l’imagerie générée par l’IA s’est considérablement accrue, notamment en raison de l’utilisation abusive de cette technologie pour produire des CSAM et des craintes que ce contenu synthétique ne rende encore plus difficile l’identification des véritables victimes par les autorités chargées de l’application de la loi. L’essor viral de l’IA générative a donc clairement incité les législateurs à revoir les règles.

« La présence accrue des enfants en ligne et les progrès technologiques créent de nouvelles possibilités d’abus », indique la Commission dans un communiqué de presse publié aujourd’hui. Elle précise également que la proposition vise à « réduire l’impunité généralisée des abus sexuels et de l’exploitation des enfants en ligne ».

Une analyse d’impact réalisée par la Commission avant la présentation de la proposition a identifié la présence accrue des enfants en ligne et les « derniers développements technologiques » comme des domaines qui créent de nouvelles possibilités d’abus sexuels sur les enfants. La Commission s’inquiète également des différences entre les cadres juridiques des États membres, qui freinent la lutte contre les abus, et souhaite améliorer les efforts « limités » déployés actuellement pour prévenir les abus sexuels et aider les victimes.

« L’évolution rapide des technologies crée de nouvelles possibilités d’abus sexuels d’enfants en ligne et pose des problèmes aux services répressifs pour enquêter sur ce crime extrêmement grave et largement répandu », a ajouté Ylva Johansson, commissaire chargée des affaires intérieures, dans une déclaration de soutien. « Un droit pénal solide est essentiel et nous prenons aujourd’hui une mesure clé pour nous assurer que nous disposons d’outils juridiques efficaces pour sauver les enfants et traduire les auteurs en justice. Nous tenons les engagements que nous avons pris dans la stratégie de l’UE pour une lutte plus efficace contre les abus sexuels commis sur les enfants, présentée en juillet 2020 ».

En ce qui concerne les risques de sécurité en ligne pour les enfants, la proposition de la Commission vise à encourager les États membres à accroître leurs investissements dans la « sensibilisation ».

Comme pour le plan d’analyse du CSAM, il appartiendra aux colégislateurs de l’UE, au Parlement et au Conseil, de déterminer la forme finale des propositions. Le temps est compté avant les élections législatives et le renouvellement du collège des commissaires prévu pour la fin de l’année. Toutefois, les propositions de lutte contre les MMCS présentées aujourd’hui pourraient s’avérer moins conflictuelles que le plan de balayage des messages. Il est donc possible que ce dernier soit adopté alors que l’autre reste bloqué.

Si un accord est trouvé sur la manière de modifier la directive actuelle sur la lutte contre la CSA, il entrera en vigueur 20 jours après sa publication au Journal officiel de l’UE, selon la Commission.

https://techcrunch.com/2024/02/06/eu-csa-deepfakes/

https://ec.europa.eu/commission/presscorner/detail/fr/qanda_24_643