Cette page explique avec transparence comment MEMORA solutions intègre l’intelligence artificielle dans ses processus et livrables. Elle complète notre charte d’utilisation responsable de l’IA et anticipe les obligations de l’article 50 du Règlement (UE) 2024/1689 entrant en vigueur le 2 août 2026.
Notre philosophie : amplifier l’humain, pas le remplacer
Nous utilisons l’intelligence artificielle comme un outil puissant pour stimuler le brainstorming, accélérer les recherches et structurer efficacement les idées. Elle nous permet d’explorer rapidement différentes pistes, de croiser les sources et d’optimiser certaines tâches reconnues comme pertinentes et utiles.
Cependant, derrière chaque projet, ce sont des humains qui travaillent en étroite collaboration avec l’IA. Notre expertise, notre jugement et notre sens critique guident chaque étape du processus. L’IA amplifie nos capacités, mais ce sont nos décisions, notre créativité et notre compréhension du contexte qui donnent toute la valeur au résultat final.
Cette synergie entre l’humain et la technologie nous permet de produire des contenus riches, réfléchis et adaptés aux réalités concrètes, tout en maintenant un haut niveau de rigueur et de pertinence.
Périmètre : où nous utilisons l’IA, où nous ne l’utilisons pas
Notre usage de l’IA est délibérément ciblé et encadré. Voici les tâches assistées par IA et celles que nous réservons strictement à l’humain.
Tâches assistées par IA chez MEMORA
- recherche documentaire et veille technologique ;
- brainstorming et structuration d’idées ;
- aide à la rédaction d’articles de blogue (révision humaine systématique avant publication) ;
- génération d’images d’illustration (toujours marquées) ;
- analyse de données quantitatives (validation humaine) ;
- suggestions de code (revue humaine obligatoire avant merge) ;
- orientation initiale via le chatbot Léo.
Tâches strictement humaines chez MEMORA
- décisions stratégiques pour vous ;
- rédaction finale d’avis juridiques, EFVP et registres IA ;
- relation client et négociation contractuelle ;
- validation du livrable final avant envoi ;
- gestion des incidents et signalements RPRP ;
- rédaction des politiques légales ;
- supervision humaine (AI Act art. 14) systématique.
Répartition humain-IA par livrable (transparence opérationnelle)
La répartition ci-dessous reflète notre pratique opérationnelle en 2026, mesurée sur un échantillon représentatif de livrables.
| Type de livrable | Part IA | Part humaine |
|---|---|---|
| Article de blogue | 40 % | 60 % |
| Recherche juridique | 30 % | 70 % |
| Code Laravel sur mesure | 35 % | 65 % |
| Audit conformité Loi 25 / RGPD | 10 % | 90 % |
| Stratégie marketing client | 5 % | 95 % |
| Avis juridique formel | 0 % | 100 % |
Pourcentages indicatifs, mesurés sur 50 livrables en 2026, révisés trimestriellement.
Conformité réglementaire
- Article 50 du Règlement (UE) 2024/1689 (entrée en vigueur 2 août 2026) – disclosure systématique sur livrables avec lien vers charte ;
- Loi 25 art. 12.1 – droit à l’explication automatisée détaillé sur notre page dédiée ;
- Projet C-27 / LIAD canadien – surveillance active de l’évolution réglementaire ;
- RGPD art. 22 + EDPB Recommendations 1/2023 sur les modèles fondationaux ;
- Code civil du Québec art. 1474 – supervision humaine obligatoire pour décisions à effet juridique.
Vos droits et options
- Opt-out du traitement IA en écrivant à [email protected] avec la mention « opt-out IA » ;
- Demande d’explication détaillée d’un livrable selon Loi 25 art. 35 (réponse sous 30 jours) ;
- Consultation gratuite avec un humain avant validation finale d’un livrable assisté par IA ;
- Signalement d’une préoccupation éthique à [email protected].
Engagements mesurables et révision
- Audit interne semestriel publié sur le Trust Center ;
- Mise à jour de cette page à chaque changement substantiel d’outil IA (révision trimestrielle minimum) ;
- Formation continue de l’équipe en 4 niveaux (article 4 du Règlement IA, détails dans la charte d’utilisation responsable de l’IA) ;
- Bilan public publié chaque automne sur memora.solutions/blog.
Pour aller plus loin
- Charte d’utilisation responsable de l’IA ;
- Droit à l’explication des décisions automatisées ;
- Trust Center (sous-traitants & incidents) ;
- Politique de confidentialité.
Version 1.0, publiée le 1er mai 2026. Prochaine révision : août 2026 (entrée en vigueur de l’article 50 du Règlement IA).