Importer
Importer un fichier, coller du texte, ou utiliser la Data Room pour traiter plusieurs documents.
Guide
SafeDoc sécurise l’usage des IA externes grâce à un processus simple : anonymiser, analyser, désanonymiser.
Un flux contrôlable : import → détection → remplacement → vérification → export (et restauration optionnelle).
Document unique, texte collé, ou traitement multi-documents via Data Room.
Choisissez le type de remplacement et le niveau N1 → N2 (N3 en roadmap Q3 2026) selon votre risque.
Texte prêt à copier + mapping (si réversible) + indicateurs de risque résiduel.
Importer un fichier, coller du texte, ou utiliser la Data Room pour traiter plusieurs documents.
Réinjecter localement les valeurs à partir d’un mapping_xxx.json et d’une réponse IA tokenisée.
Analyse multi-documents avec pseudonymes cohérents sur tout le lot.
En mode pseudonymisation, l’entité “Carrefour” reste le même pseudonyme dans tous les documents.
Idéal pour due diligence, lots contractuels, dossiers multi-pièces.
Remplacement par tokens génériques : [PERSONNE], [LIEU]…
Quand vous ne voulez conserver aucun lien entre occurrences.
Tokens numérotés et cohérents : [PERSONNE_1], [ORG_2].
Parfait pour garder le “fil” narratif (même entité → même identifiant).
Remplacements lisibles (noms/adresses inventés) pour un texte “naturel”.
Pratique pour relire ou présenter, sans exposer les vraies valeurs.
Plus vous montez en niveau, plus SafeDoc réduit la capacité de ré-identification par le contexte (dates, montants, lieux, style).
Tokenisation PII / nettoyage de base.
Généralisation et réduction contextuelle renforcées.
Protections supplémentaires. Roadmap Q3 2026.
Le but est de conserver le sens utile tout en diminuant l’identifiabilité.
Vérifier, filtrer et ajuster ce qui doit être anonymisé.
Copier le résultat anonymisé + récupérer mapping/rapport si nécessaire.
La détection peut produire des faux positifs (masquage excessif) ou des faux négatifs (oubli). Les indicateurs (scan résiduel / leakage score) aident à évaluer le risque, mais ne remplacent pas une vérification humaine.
Collez la réponse de l’IA contenant les tokens, puis importez votre mapping pour réinjecter localement les valeurs.
Prêt à tester sur un document réel ?