Votre entreprise est-elle conforme à la Loi 25 ? En savoir plus →
Blogue Cybersécurité & Loi 25
Intelligence artificielle Loi 25 Shadow AI PME & municipalités

Vos employés utilisent l'IA.
Vos données, elles, voyagent.

ChatGPT, Copilot, Gemini, Claude — ces outils transforment la productivité de vos équipes. Mais ce que ces plateformes font des données confidentielles, des renseignements clients et des dossiers d'employés mérite une attention immédiate de la haute direction.

Par Michel Monette, RPRP — Synéra 4 mai 2026 · 8 min de lecture

Imaginez un de vos employés qui, un lundi matin, ouvre ChatGPT pour rédiger plus vite un compte-rendu de réunion. Il y colle les noms des clients présents, quelques chiffres financiers, peut-être une décision stratégique. Cinq minutes plus tard, il clôt sa session, satisfait. Ce qu'il ignore : ces données viennent de quitter votre organisation, de traverser des frontières, et d'alimenter potentiellement l'entraînement du prochain modèle d'OpenAI. Sans consentement. Sans avis. Et peut-être en contravention directe avec la Loi 25.

Ce scénario n'est pas hypothétique. Il se produit en ce moment même dans vos équipes, dans celles de vos fournisseurs, dans les administrations qui vous entourent. Selon la Cloud Security Alliance, citée par La Presse, quatre employés sur cinq (82 %) dans le monde pratiquent une forme d'IA fantôme — c'est-à-dire l'utilisation d'outils d'intelligence artificielle sans autorisation explicite de leur organisation.

Alerte · Enquête canadienne 2026

Le commissaire à la vie privée du Canada, Philippe Dufresne, et ses homologues du Québec (CAI), de l'Alberta et de la Colombie-Britannique ont conclu conjointement qu'OpenAI a violé plusieurs lois canadiennes et québécoises sur la protection des renseignements personnels en développant ChatGPT — notamment en collectant excessivement des données sans consentement valide. Sources : Le Devoir · Radio-Canada.

Ce rapport est un signal d'alarme que les dirigeants ne peuvent plus ignorer. À la tête d'une municipalité, d'une PME ou d'un OBNL, vous êtes personnellement responsable des renseignements personnels que votre organisation collecte, traite et confie à des tiers — y compris des tiers que vos employés utilisent à votre insu.

Que font vraiment ces IA avec vos données ?

Tous les grands modèles de langage (LLM) fonctionnent selon le même principe : vous leur soumettez du texte (une question, un document, une demande), ils génèrent une réponse. Ce que les interfaces grand public ne disent pas clairement, c'est ce qui se passe avec votre texte une fois envoyé.

Trois enjeux fondamentaux se posent pour toute organisation :

Les 4 grandes plateformes au banc d'essai

Voici ce que chaque grand acteur dit — et ne dit pas — du traitement de vos données.

Plateforme Entraînement (gratuit) Version entreprise Hébergement Risque Loi 25
ChatGPT
OpenAI
Oui par défaut
Opt-out possible
Non (Teams / Enterprise) États-Unis
CLOUD Act
Élevé
Claude
Anthropic
Oui depuis sept. 2025
Opt-out possible
Non (for Work / Enterprise)
Garanti par contrat
É.-U. / UE disp.
CLOUD Act (É.-U.)
Modéré
Microsoft Copilot
Microsoft 365
Non (M365 entreprise) Non
Mais accès large aux fichiers internes
É.-U. + Azure CA
CLOUD Act
Modéré–Élevé
Gemini
Google
Oui par défaut
Opt-out, rétention min. 72 h
Non (Workspace pro)
DPA requis
États-Unis
CLOUD Act
Élevé (gratuit)

ChatGPT (OpenAI) — l'incontournable qui collecte large

OpenAI précise dans sa politique de confidentialité que les conversations des versions gratuites et payantes individuelles peuvent être utilisées pour entraîner ses modèles, sauf opposition explicite de l'utilisateur. L'opt-out existe, mais il est peu visible. En janvier 2025, l'autorité italienne de protection des données (Garante) a infligé une amende de 15 millions d'euros à OpenAI pour violation du RGPD. En version Teams ou Enterprise, les données ne sont pas utilisées pour l'entraînement — mais cela suppose un contrat actif et une configuration correcte.

Claude (Anthropic) — le mieux structuré, mais pas exempt de risques

Selon une analyse comparative 2026, Claude est considéré comme le LLM le plus conforme au RGPD. En version for Work ou Enterprise, Anthropic garantit contractuellement ne jamais utiliser les données clients pour entraîner ses modèles, une garantie auditée par Ernst & Young en septembre 2025. Cependant, depuis août 2025, les versions gratuites et individuelles (Pro, Max) permettent l'utilisation des conversations pour l'entraînement si l'utilisateur ne s'y oppose pas avant la date butoir indiquée. Comme pour les autres plateformes, les usages non encadrés (shadow AI) restent le talon d'Achille.

Microsoft Copilot — puissant, mais révélateur de vos failles internes

Microsoft garantit que les données Microsoft 365 Copilot ne sont pas utilisées pour entraîner les modèles de base. Bonne nouvelle. Le problème est ailleurs : Copilot fonctionne comme une lampe torche puissante braquée sur l'ensemble de vos fichiers. Il accède à tout ce que l'utilisateur peut voir dans Microsoft 365 — courriels, SharePoint, Teams, OneDrive. Selon une étude Concentric AI (2025), Copilot accède en moyenne à environ 3 millions de dossiers confidentiels par organisation — dont des milliers partagés sans restriction d'accès. Si vos permissions internes sont mal configurées, Copilot devient un amplificateur de fuites — sans qu'aucune donnée ne quitte votre tenant.

Google Gemini — le plus gourmand en données personnelles

Selon une étude de Surfshark, Google Gemini est l'assistant IA qui collecte le plus d'informations parmi les grands modèles analysés. En version gratuite (compte Gmail personnel), vos conversations, vos fichiers, votre localisation et votre historique peuvent alimenter l'entraînement de Gemini. La version Google Workspace avec accord de traitement des données (DPA) signé offre de meilleures garanties — mais cela suppose une organisation qui a fait la démarche, ce qui est loin d'être universel.

« Quand un employé transmet des données clients à ChatGPT sans autorisation explicite, l'entreprise est passible d'une amende en vertu de la Loi 25. » — Nick Dooley, The Altercation Company · La Presse, 1er mai 2026

Loi 25 : ce que ça change concrètement pour vous

La Loi 25 (LPRPSP) impose des obligations précises à toute organisation qui collecte ou transmet des renseignements personnels de résidents du Québec. Ces obligations s'appliquent aussi aux données transmises à des services d'IA.

Cinq obligations qui s'appliquent directement à l'IA

01
Évaluation des facteurs relatifs à la vie privée (ÉFVP)

Avant d'utiliser un outil d'IA qui traite des renseignements personnels, une évaluation formelle des risques est requise (art. 3.3). Aucune ÉFVP ne signifie aucune justification documentée — donc aucune défense en cas de contrôle CAI.

02
Consentement des personnes concernées

Vos clients, usagers et employés dont les données sont traitées doivent être informés et consentir. On ne peut pas le faire à leur insu — y compris quand la donnée transite par un agent conversationnel.

03
Responsable désigné (RPRP)

Chaque organisation doit désigner un responsable de la protection des renseignements personnels (art. 3.1). Pour les PME, le RPRP à la demande externalisé est une réponse adaptée.

04
Communication de renseignements hors Québec

Tout transfert vers un service hébergé hors Québec — y compris des serveurs Azure ou AWS canadiens soumis au CLOUD Act américain — exige une évaluation préalable (art. 17). C'est le cœur du problème avec ChatGPT, Gemini et leurs équivalents.

05
Déclaration d'incident de confidentialité

Si un employé a transmis des renseignements personnels à une IA non autorisée, vous avez peut-être l'obligation de déclarer un incident à la CAI dans les meilleurs délais, et de notifier les personnes concernées s'il y a risque sérieux de préjudice.

À retenir · double contrainte légale

L'IA fantôme crée une double contrainte. Le CLOUD Act américain permet aux autorités américaines d'accéder aux données détenues par des entreprises américaines, même au Canada. La Loi 25, elle, oblige à protéger ces mêmes données. Les organisations sont prises en étau entre deux régimes incompatibles — et c'est leur responsabilité d'en gérer le risque. Les sanctions atteignent 25 M$ ou 4 % du chiffre d'affaires mondial (art. 93).

Cas réel

Samsung, 2023 — le cas d'école que toute organisation devrait connaître

En l'espace d'un mois, trois ingénieurs de Samsung Semiconductor ont involontairement transmis du code source propriétaire, des notes de réunion internes et des informations sur des défauts d'équipements à ChatGPT. Ces données sont devenues propriété d'OpenAI et ont potentiellement été intégrées au corpus d'entraînement. Samsung a aussitôt interdit ChatGPT sur tous ses appareils d'entreprise. Mais les données, elles, ne reviendront jamais.

Six leviers concrets pour protéger vos données

Protéger ses données ne signifie pas renoncer à l'IA. Cela signifie utiliser l'IA intelligemment, en choisissant le bon outil pour le bon usage, et en mettant en place les garde-fous nécessaires. Voici six leviers complémentaires.

Levier 1

Versions entreprise avec contrat de traitement

ChatGPT Teams/Enterprise, Claude for Work, Microsoft 365 Copilot, Google Workspace pro — tous offrent des garanties contractuelles (DPA) de non-utilisation des données pour l'entraînement. C'est la première barrière à établir.

Levier 2

IA locale sur GPU (Ollama, LM Studio)

Des outils comme Ollama ou LM Studio permettent de déployer un LLM directement sur un serveur ou un poste équipé d'un GPU. Aucune donnée ne quitte votre infrastructure — la solution maximale pour les données très sensibles.

Levier 3

Politique d'utilisation de l'IA écrite

Définir par écrit quels outils sont autorisés, pour quels usages, avec quelles données — et former tous vos employés. Sans politique écrite, vous n'avez aucun recours en cas d'incident.

Levier 4

Gouvernance des accès (avant Copilot)

Avant tout déploiement de Microsoft 365 Copilot, auditer et restreindre les permissions internes. Ce que Copilot peut lire, vos employés (ou un compte compromis) peuvent extraire. L'audit préalable n'est pas négociable.

Levier 5

ÉFVP pour chaque outil d'IA

Documenter formellement les risques liés à chaque outil d'IA traitant des renseignements personnels — exigé par la Loi 25 pour tout transfert de données hors Québec.

Levier 6

Détection de l'IA fantôme (CASB / DLP)

Mettre en place des outils de surveillance réseau pour détecter l'utilisation d'outils d'IA non autorisés — avant qu'une fuite ne force une déclaration obligatoire à la CAI.

Focus : l'IA locale sur GPU — la souveraineté à votre portée

L'alternative la plus radicale — et la plus sécuritaire — est l'IA déployée localement. Des outils comme Ollama ou LM Studio permettent d'installer et d'exécuter des modèles open source (Llama 3, Mistral, Qwen, DeepSeek) directement sur votre matériel.

Avantages concrets

Aucune donnée ne quitte votre réseau, aucun abonnement à une plateforme tierce, aucune dépendance au CLOUD Act américain, conformité Loi 25 simplifiée, et fonctionnement hors ligne possible. En 2026, déployer un LLM souverain prend moins d'une heure et coûte 0 $ par requête une fois le matériel en place.

Pour des usages professionnels courants — rédaction, résumés, analyse de documents internes, génération de code — un poste équipé d'un GPU NVIDIA récent (RTX 4070 ou mieux) suffit à exécuter des modèles de 7 à 14 milliards de paramètres avec d'excellentes performances. Pour un déploiement multi-utilisateurs (5 à 50 employés), un serveur dédié avec GPU permet à toute l'équipe de bénéficier d'une IA maison, sans aucune donnée qui sort.

Synéra accompagne votre organisation dans l'évaluation, la sélection et le déploiement d'une solution d'IA locale adaptée à votre contexte — du poste individuel jusqu'au serveur partagé.

Plan d'action : ce qu'il faut faire dès ce trimestre

La fenêtre pour agir de façon proactive se referme. Les enquêtes réglementaires se multiplient, la CAI dispose de pouvoirs d'ordonnance et d'amende, et vos pairs commencent à mettre en place leur gouvernance IA. Voici un plan d'action immédiat pour les dirigeants.

1
Faire l'inventaire des outils d'IA utilisés

Officiellement et officieusement (shadow AI). Vous ne pouvez pas gérer ce que vous ne voyez pas.

2
Désigner formellement un RPRP

Si ce n'est pas déjà fait. Exigé par la Loi 25 depuis septembre 2022. Le RPRP à la demande est une option économique pour les PME.

3
Adopter une politique d'utilisation de l'IA

Écrite, communiquée à tous les employés et signée. C'est votre principale ligne de défense en cas de contrôle.

4
Réaliser une ÉFVP pour chaque outil d'IA

Pour tout outil traitant des données de clients, usagers ou employés. Documente votre diligence.

5
Passer aux versions entreprise avec DPA signé

Pour les outils cloud que vous conservez. Ou évaluer une solution d'IA locale pour les usages les plus sensibles.

6
Former les équipes

Un employé bien informé est votre meilleure défense contre l'IA fantôme. La formation se documente, comme tout le reste.

Loi 25 & gouvernance IA — Synéra

Faire le point sur votre exposition IA et votre conformité Loi 25

Synéra accompagne les municipalités, les PME et les OBNL du Québec dans le diagnostic de leur exposition IA, la rédaction de leur politique d'utilisation et la mise en place d'une gouvernance adaptée à leur taille — sans jargon et sans surdimensionnement.

Demander un diagnostic Synéra Voir le RPRP à la demande

Pour aller plus loin

Forfaits Synéra mentionnés dans cet article

Suivre l'auteur et Synéra

Cet article est rédigé à des fins d'information générale et de sensibilisation. Il ne constitue pas un avis juridique. Pour toute question relative à votre situation spécifique, communiquez avec Synéra ou avec votre conseiller juridique.

Articles connexes

IA & gouvernance
L'ère post-Mythos : pourquoi la protection des données personnelles devient un enjeu de gouvernance
Lire l'article →
Loi 25
RPRP à la demande : pourquoi ce rôle devient incontournable pour les PME québécoises
Lire l'article →
Cybersécurité
Les 7 erreurs de cybersécurité les plus courantes dans les PME québécoises
Lire l'article →