Quand l’IA garantit la confidentialité des données
IA
Décryptage

Quand l’IA garantit la confidentialité des données

L’Intelligence artificielle (IA) inquiète. Peur de perdre son emploi, peur de voir ses données personnelles pillées, peur d’un monde en mutation. Malgré quelques études rassurantes, notamment sur le front de l’emploi, l’IA intrigue autant qu’elle fascine.

Comment la définir ? L’IA est une série de systèmes informatiques évolués ayant la capacité d’observer leur environnement, de résoudre des problèmes, de prendre des décisions et de s’améliorer au fil du temps (machine-learning).

Pour des entreprises qui manipulent des milliers, sinon des millions, d’e-mails, informations et autres données sensibles, l’Intelligence Artificielle répond à un enjeu stratégique. Conjuguer efficacité, protection et sécurité des données personnelles, tel est le pari réussi de deux start-up de la communauté French IoT Impact x Technologie : Golem.ai et Sarus.

👉 Lire aussi : Une éthique de la donnée passe-t-elle par une éthique de l’IA ?

Golem.ai : l’IA contextuelle  

La solution Golem.ai est une IA qui comprend le langage naturel et texte afin d’analyser, catégoriser et traiter automatiquement tous les messages et pièces jointes. Elle s’adresse à des secteurs aussi divers que l’assurance, la défense, le retail, le transport logistique. Son CEO Killian Vermersch a révolutionné la relation client par une méthode bien rodée : « D’abord, il faut déterminer ce qui est confidentiel. Quand les données sont trop sensibles, comme dans la santé ou la défense, on installe tout simplement la solution chez notre client. Dans tous les cas, nos sources de données ne mélangent jamais deux clients ou deux contextes ne devant pas l’être. », explique-t-il.

Voici l’une des clés de l’IA contextuelle. C’est un peu l’opposé des IA génératives de type ChatGPT qui glanent sur la Toile des connaissances aussi générales que superficielles. En clair, ChatGPT propose d’excellents modèles-types de lettres administratives mais peine à comprendre les subtilités de tel ou tel cas particulier. « Notre IA inclut une connaissance générique du langage mais crée un contexte spécifique avec chaque projet de nos clients », précise Killian Vermersch.

Prenons l’exemple d’un assureur. Chaque jour, il reçoit des dizaines de milliers d’e-mails. L’agent d’assurance n’ayant pas le temps de lire un dossier de 50 pages sur un sinistre, l’IA de Golem.ai synthétise l’information nécessaire. Alors que ChatGPT se perdrait entre les différentes acceptions du terme opération, l’IA de Golem comprend le sens des mots en fonction du contexte avec un taux de fiabilité de 90-95%. Ainsi, l’outil « extraie l’information pour qu’en un clic, l’agent puisse alimenter le CRM avec les données du message. Potentiellement, on va jusqu’à générer un brouillon de réponse prêt à être envoyé », résume le CEO de Golem.ai. Un être humain prend ensuite le relais pour interagir avec les assurés avec toute l’empathie nécessaire.

Quid du stockage des données ? Golem.ai les conserve le temps strictement nécessaire. « Avec certains clients, on garde la donnée cinq minutes chrono ! », souligne Killian Vermersch. Comme les enregistrements de Mission impossible, la boîte noire des clients de Golem.ai finit par s’autodétruire.

La start-up a développé une version de l’IA capable de progresser sans stocker les données.

Sarus : la confidentialité différentielle (confidential privacy)

De la santé à la finance, une autre start-up utilise l’IA pour permettre l’analyse de données en toute confidentialité : Sarus. Cette solution est dédiée aux data scientists et leur permet de traiter de la donnée sans jamais y avoir accès.

Son CEO Maxime Agostini affiche un niveau d’exigence éthique bien supérieur au RGPD (Règlement Général sur la Protection des Données). « Ce texte protège l’information et le consentement des utilisateurs, pas la confidentialité des données. Une fois que vous avez cliqué sur le bandeau « j’accepte les cookies », la donnée circule », expose le cofondateur de Sarus.

Exemple : un hôpital recense tous les cas de cancer soignés dans ses murs. Or, pour établir des statistiques, un chercheur doit croiser les informations sur l’âge et le sexe des malades. Comment peut-il accomplir sa tâche sans accéder aux données personnelles ? Sarus a trouvé la solution : un logiciel qui permet de manipuler les données en les maintenant sous cloche. Si le chercheur n’a aucun accès direct aux données brutes, il peut effectuer tous les calculs qu’il souhaite.

Et si ledit chercheur veut observer des lignes de données ? Dans ce cas, le logiciel de Sarus génère des échantillons-type fictifs. « Une partie de notre travail est de générer ces fausses données. L’expérience du chercheur reste celle qu’il aurait eu s’il avait eu accès aux données. », indique le CEO de Sarus.

👉 Lire aussi : Tout savoir sur le métier de Data scientist

Par ce procédé, les clients de Sarus entraînent leurs propres modèles d’IA en utilisant des données sensibles. Durant la phase d’apprentissage comme lors de son utilisation ultérieure, le risque de fuite de données disparaît.

Le résultat des calculs ne trahit aucune donnée. Là réside le principe de la confidentialité différentielle (confidential privacy). Elle est pas belle, la vie avec l’IA ?

Partager

Articles similaires

TeachUp-Startup-du-mois-blog-french-iot-laposte.fr
illustration belle histoire golem docaposte
Intelligence artificielle
Les différents niveaux de l'intelligence artificielle