Nous croyons qu'une intelligence artificielle utile est d'abord une intelligence artificielle responsable. Cette charte énonce nos engagements concrets en la matière.
Nos cinq principes directeurs
Transparence
Nous informons clairement les utilisateurs lorsqu'un système d'IA est utilisé dans une interaction ou un traitement.
Équité
Nous veillons à ce que nos systèmes d'IA n'entraînent pas de discriminations injustifiées fondées sur des caractéristiques personnelles.
Responsabilité
Nous assumons pleinement les décisions produites ou assistées par l'IA dans le cadre de nos services.
Protection de la vie privée
Les renseignements traités par l'IA bénéficient de la même rigueur de protection que tous les autres renseignements personnels.
Supervision humaine
Toute décision significative pour une personne fait l'objet d'une supervision humaine active.
Nos engagements envers nos clients
- Vous informer clairement lors d'une interaction avec un système d'IA.
- Superviser humainement toute décision significative.
- Offrir un recours humain sur simple demande.
- Protéger les renseignements personnels avec des mesures techniques et organisationnelles appropriées.
Cadre de gouvernance
- Un responsable de la protection des renseignements personnels (RPRP) est nommé et accessible.
- Un comité IA se réunit mensuellement pour évaluer les usages et les risques.
- Tout nouvel outil ou usage d'IA doit suivre une procédure d'approbation rigoureuse.
- Cette charte est révisée annuellement pour refléter l'évolution des pratiques et des attentes.
Formation et AI literacy (article 4 du Règlement IA)
L’article 4 du Règlement (UE) 2024/1689 sur l’intelligence artificielle (« EU AI Act »), en application depuis le 2 février 2025, impose aux fournisseurs et déployeurs de systèmes d’IA de garantir un niveau suffisant de littératie en IA pour leur personnel et leurs partenaires. MEMORA solutions inc. respecte cette obligation par un plan de formation structuré en 4 niveaux.
Plan de formation MEMORA — 4 niveaux
- Niveau 1 — Fondamentaux IA (2 h) : tous les employés. Concepts de base, éthique, biais, hallucinations, IA générative.
- Niveau 2 — Utilisation responsable (4 h) : utilisateurs IA quotidienne. Bonnes pratiques chatbot Léo, anti-fuite données, vérification factuelle.
- Niveau 3 — Déploiement et supervision (8 h) : responsables produits/projets IA. EFVP (Loi 25 art. 27), AIA (ISO 42005), red teaming, journaux IA (AI Act art. 19).
- Niveau 4 — Gouvernance et conformité (16 h) : direction et RPRP. Triple verrou Loi 25 + RGPD + AI Act, registre IA Annexe F, gestion incidents IA, communication CAI.
Traçabilité et registre
Toutes les formations IA suivies par les membres de l’équipe MEMORA et nos consultants externes sont consignées dans un registre interne, conservé 5 ans conformément à la Loi 25 (RLRQ c. P-39.1, art. 3.1). Une attestation signée est délivrée à chaque participant. Le plan est revu annuellement (référence : ISO/IEC 42001 et NIST AI RMF).
Engagement client
MEMORA recommande à ses clients PME québécois et européens de mettre en place leur propre plan de formation AI literacy. Sur demande à [email protected], nous pouvons partager notre cadre méthodologique simplifié et nos modèles d’attestation.
Politique de marquage des contenus générés par IA
MEMORA s’engage publiquement à marquer clairement tout contenu généré ou substantiellement assisté par intelligence artificielle, anticipant ainsi l’entrée en vigueur du Règlement européen sur l’IA (AI Act) prévue en août 2026.
Ce que MEMORA marque visuellement comme contenu IA
- Réponses du chatbot Léo (déjà identifié dans la section 6 de notre politique de confidentialité)
- Articles de blogue substantiellement rédigés avec assistance IA (transparence éditoriale)
- Images et vidéos générées par IA dans nos communications
Ce que MEMORA ne fait jamais
- Deepfake d’une personne sans consentement écrit
- Manipulation d’image cliente sans divulgation claire
- Présentation d’un contenu IA comme étant produit par un humain
Notre engagement de transparence garantit que tout contenu IA est identifiable par un lecteur humain en moins de 5 secondes, jamais caché en pied de page.
Pour toute découverte de contenu IA non marqué, écrivez à [email protected].
Signaler une préoccupation éthique
Si vous constatez un écart à cette charte ou une préoccupation éthique liée à notre usage de l'IA, écrivez-nous à : [email protected]. Nous accusons réception dans les 48 heures et traitons votre signalement dans un délai de 30 jours.
Voir aussi
Pour la liste complète de nos sous-traitants (sub-processors), notre registre public d'incidents et notre rapport de transparence, consultez notre Trust Center.
Engagement public
Cette charte s'inspire directement de l'Annexe E « Template de charte IA interne » du livre L'IA sans se faire poursuivre de Stéphane Lapointe (2026). Elle traduit notre volonté de transparence réelle - pas seulement de discours - et sera mise à jour chaque année.
Pour comprendre vos droits face à une décision automatisée prise par l'un de nos systèmes, consultez la page dédiée : Droit à l'explication des décisions automatisées (Loi 25 art. 12.1, RGPD art. 22, AI Act art. 86).
Contact éthique : [email protected]
Dernière mise à jour : 30 avril 2026. Prochaine révision : avril 2027.