4.3 | Utilisation de l’IA et l’EU AI Act – Approfondissement pour la pratique
Ce que vous savez déjà
- L’AI Act de l’UE ne concerne pas seulement les développeurs, mais aussi les utilisateurs d’IA.
- La transparence, le contrôle de la qualité et la protection des données sont des principes fondamentaux importants.
- Certains contenus générés par l’IA doivent être identifiés comme tels.
- Dans l’utilisation de l’IA, vous êtes responsable des résultats.
Ce que vous apprendrez dans ce module
- Comprendre en détail les cinq principales obligations pour les utilisateurs d’IA.
- Des aides pratiques à la formulation pour l’identification des contenus IA.
- Comment établir une utilisation responsable de l’IA au sein de votre équipe.
- Des solutions concrètes pour des cas d’utilisation typiques au quotidien.
1. Votre responsabilité étendue avec l’IA
En tant que Navigateur, vous avez accès à plus de fonctionnalités d’IA et, par conséquent, à plus de responsabilités. Vous n’utilisez pas seulement les assistants prédéfinis sur la plateforme xpand, mais potentiellement aussi des outils externes comme ChatGPT ou des systèmes d’IA spécialisés.
Avec l’entrée en vigueur prochaine de l’AI Act de l’UE, l’utilisation responsable de l’IA acquiert une dimension juridique qui vous concerne directement. Vous découvrirez ci-dessous ce que cela signifie concrètement pour votre quotidien professionnel.
Important pour vous en tant qu’utilisateur : Certaines obligations de transparence et de formation vous concernent directement.
2. Les 5 obligations en détail
Lorsque les systèmes d’IA interagissent avec des humains, cela doit être transparent. Les utilisateurs doivent savoir qu’ils communiquent avec une IA – et non avec un humain.
- Concerne : les chatbots, les systèmes de service client automatisés, la téléphonie par IA.
- Mise en œuvre : identification claire, par ex. « Je suis un assistant IA » au début de l’interaction.
Les contenus générés par l’IA qui ne sont pas facilement reconnaissables comme tels doivent être identifiés.
- Concerne : les images, vidéos, audios, et parfois aussi les textes – surtout s’ils semblent très réalistes.
- Mise en œuvre : identification claire comme « Cette image a été créée avec l’IA » ou un filigrane.
Pour les décisions importantes, l’IA peut apporter son aide, mais ne doit pas décider seule. Le facteur humain reste essentiel.
- Concerne : les évaluations, les décisions d’embauche, l’attribution de ressources.
- Mise en œuvre : « Human in the loop » – l’IA fournit des suggestions, l’humain prend la décision finale.
Les collaborateurs doivent être formés de manière adéquate avant d’utiliser des systèmes d’IA pouvant avoir un impact sur autrui.
- Concerne : tous ceux qui travaillent régulièrement avec des outils d’IA, en particulier pour la prise de décision.
- Mise en œuvre : formations, directives, apprentissage continu.
Vous restez responsable, y compris sur le plan juridique, des résultats obtenus avec le soutien de l’IA.
- Concerne : toute forme de contenu généré par l’IA que vous utilisez ou partagez.
- Mise en œuvre : contrôle de la qualité, vérification des faits et, si nécessaire, documentation de vos étapes de vérification.
3. Qu’est-ce qui s’applique concrètement au quotidien professionnel ?
Exemple 1 : Vous utilisez ChatGPT ou d’autres outils d’IA externes pour rédiger un e-mail client.
- En principe, c’est possible.
- Mais : le texte doit être vérifié par vous-même, être conforme au RGPD, et la prudence est de mise avec les contenus sensibles.
- Avec les outils externes, veillez à ne jamais saisir d’informations confidentielles.
Exemple 2 : Vous reprenez intégralement un rapport généré par l’IA pour une présentation client.
- Transparence nécessaire : mentionner le soutien de l’IA.
- La vérification de tous les faits et affirmations relève de votre responsabilité.
- Les adaptations aux besoins spécifiques du client doivent toujours être effectuées par vous.
Exemple 3 : Vous créez des images ou des vidéos d’un réalisme trompeur avec l’IA à des fins marketing.
- Obligation d’identifier le contenu comme généré par l’IA.
- La responsabilité juridique d’une éventuelle tromperie vous incombe.
- Vérifiez si la représentation est compatible avec les directives de l’entreprise.
4. Exemples de formulation pour l’identification
Pour les documents internes ou les e-mails :
Pour la communication externe (par ex. information client) :
Pour les médias (par ex. intranet, dépliants) :
5. Ce qui est également important
- Ne jamais saisir de données sensibles dans des outils d’IA publics, même sous une forme légèrement modifiée.
- Toujours faire la distinction entre les outils d’IA internes (plateforme xpand) et les services publics (ChatGPT, etc.).
- Suivre régulièrement les mises à jour des réglementations en évolution.
- Élaborer des directives internes pour les applications critiques avant l’entrée en vigueur complète de l’AI Act de l’UE.
6. Conseil xpand
Notre conseil pour la pratique :
Établissez un flux de travail IA dans votre équipe. Définissez des processus clairs : quand l’utilisation de l’IA est-elle judicieuse ? Qui vérifie les résultats ? Comment la documentation est-elle effectuée ? Une approche structurée crée de la sécurité et fait gagner du temps à long terme.
7. Pour conclure
Avec l’AI Act de l’UE, une nouvelle ère de la réglementation de l’IA commence. En tant que Navigateur, vous êtes maintenant en position de participer activement à ce changement et de devenir un modèle pour une utilisation responsable de l’IA.
En tant que Navigateur, vous pouvez être un exemple avec vos connaissances étendues et aider les autres à utiliser l’IA de manière juridiquement sûre.
Vous n’êtes pas seul. Sur la plateforme xpandAI, vous trouverez des modèles, des règles et des partenaires pour un quotidien souverain avec l’IA.
Fiche d’information : « L’AI Act de l’UE expliqué en 3 minutes »
Télécharger (PDF, 1.2 Mo)
Interview : « 10 questions sur l’AI Act de l’UE »
Lire maintenant
Ce qu’il faut retenir
- L’AI Act de l’UE ne concerne pas seulement les développeurs d’IA, mais aussi vous, en tant qu’utilisateur avancé d’IA.
- Vous devriez tenir compte des 5 obligations principales – transparence, identification, contrôle humain, développement des compétences et prise de responsabilité – dans votre travail quotidien.
- L’identification claire des contenus générés par l’IA est un principe clé de l’utilisation responsable de l’IA.
- Établissez dans votre équipe un flux de travail IA structuré qui tient déjà compte des exigences légales.
Avec l’AI Act de l’UE, une nouvelle ère de la réglementation de l’IA commence. En tant que Navigateur, vous êtes maintenant en position de participer activement à ce changement et de devenir un modèle pour une utilisation responsable de l’IA.
En tant que Navigateur, vous pouvez être un exemple avec vos connaissances étendues et aider les autres à utiliser l’IA de manière juridiquement sûre.
Vous n’êtes pas seul. Sur la plateforme xpandAI, vous trouverez des modèles, des règles et des partenaires pour un quotidien souverain avec l’IA.
Télécharger (PDF, 1.2 Mo)
Lire maintenant
Ce qu’il faut retenir
- L’AI Act de l’UE ne concerne pas seulement les développeurs d’IA, mais aussi vous, en tant qu’utilisateur avancé d’IA.
- Vous devriez tenir compte des 5 obligations principales – transparence, identification, contrôle humain, développement des compétences et prise de responsabilité – dans votre travail quotidien.
- L’identification claire des contenus générés par l’IA est un principe clé de l’utilisation responsable de l’IA.
- Établissez dans votre équipe un flux de travail IA structuré qui tient déjà compte des exigences légales.