4.1 | Les bases de la protection des données : qu’est-ce qui a sa place dans un prompt et qu’est-ce qui n’en a pas ?

Module 4.1 : Protection des données dans les prompts

Principes de base de la protection des données dans les prompts d’IA

1. Identifier les données sensibles

Avant d’envoyer un prompt à un modèle d’IA, vous devez savoir quels types de données sont particulièrement dignes de protection :

Données à caractère personnel
Noms, adresses e-mail, numéros de téléphone, adresses, dates de naissance
Informations critiques pour l’entreprise
Projets internes, données financières, stratégies, produits non commercialisés
Informations confidentielles
Données clients, données des employés, contrats, identifiants
Données particulièrement sensibles
Données de santé, convictions religieuses/politiques, données biométriques

2. La règle de base : ce qu’il ne faut pas partager

Remarque : L’utilisation de l’IA doit être convenue/approuvée au sein de l’entreprise.

Avant chaque prompt, demandez-vous : « Partagerais-je cette information publiquement ? »

Si la réponse est « Non », vous devriez soit omettre cette information, soit l’anonymiser. Plus l’information est confidentielle, plus vous devez être prudent.

Données particulièrement à risque :

  • Mots de passe et identifiants
  • Chiffres financiers internes
  • Données personnelles de clients ou d’employés
  • Informations couvertes par des accords de non-divulgation (NDA)
  • Stratégies ou informations sur des produits non encore publiés

3. Techniques d’anonymisation pratiques

Avec ces méthodes simples, vous pouvez concevoir des prompts qui ne contiennent pas de données sensibles tout en obtenant de bons résultats :

Remplacer les noms

Au lieu de vrais noms, utilisez des désignations génériques ou des substituants :

  • « Client A » au lieu de « Jean Dupont »
  • « Employé B » au lieu de « Sarah Martin »

Utiliser des substituants

Remplacez les informations concrètes par des substituants :

  • « NOM_ENTREPRISE » au lieu du vrai nom de l’entreprise
  • « NOM_PRODUIT » au lieu du produit réel

Généraliser les données

Décrivez les informations de manière plus générale :

  • « Une entreprise de taille moyenne » au lieu d’une entreprise concrète
  • « Un montant à cinq chiffres » au lieu de la somme exacte

Utiliser des exemples types

Remplacez les exemples réels par des exemples similaires mais fictifs :

  • Remplacer un vrai e-mail par une version similaire mais inventée
  • Remplacer des données réelles par des données d’échantillon représentatives

4. Exemples concrets : Problématique vs. Inoffensif

Problématique
« Rédige un e-mail à Jean Dupont (jean@exemple-entreprise.fr) concernant son paiement en retard de 5 820 € »

Contient des données personnelles (nom, e-mail) et des données financières concrètes.

Inoffensif
« Rédige un e-mail à un client concernant un paiement en retard d’un montant moyen à quatre chiffres »

Anonymisé et généralisé, mais toujours ciblé.

Problématique
« Analyse le dernier entretien de feedback avec Sarah Martin (comptabilité), qui s’est plainte d’une charge de travail trop élevée et de stress. Elle a pris 12 jours de maladie au dernier trimestre. »

Contient des données personnelles et particulièrement sensibles (nom, service, informations de santé).

Inoffensif
« Comment puis-je soutenir une employée qui montre des signes de surmenage ? Quelles mesures pourraient aider à améliorer son équilibre vie professionnelle-vie privée et à promouvoir son bien-être au travail ? »

Se concentre sur le soutien et le bien-être, sans divulguer de données personnelles.

Travailler en toute sécurité et conformément à la protection des données avec xpandAI

La plateforme xpandAI vous offre un environnement sécurisé où vous pouvez utiliser des outils d’IA sans vous soucier de la protection des données.

Conforme au RGPD

Tous les assistants xpandAI sont sécurisés par un contrat de traitement des données (DPA) avec OpenAI. Dans la section libre, les modèles sans DPA sont signalés par une note.

Traitement sécurisé

Vos entrées sont traitées avec les normes de sécurité les plus modernes et ne sont pas utilisées à des fins non autorisées.

Politique de données transparente

Transparence totale sur la manière et la raison pour lesquelles vos données sont utilisées – pas de conditions d’utilisation cachées.

Zone de test idéale

La plateforme est l’endroit idéal pour essayer et apprendre à utiliser les outils d’IA dans un environnement sécurisé.

À retenir

  • Évitez les données personnelles et confidentielles dans les prompts
  • Utilisez des techniques simples d’anonymisation
  • En cas de doute : mieux vaut être trop prudent que trop laxiste avec les données
  • Les meilleurs prompts se passent de données sensibles et fournissent quand même de bons résultats
  • Assurez-vous que les outils que vous utilisez sont conformes au RGPD et que les données sont traitées en toute sécurité