RGPD et cybersécurité
Depuis l’entrée en vigueur du RGPD, le Règlement européen sur la protection des données, les entreprises sont contraintes de renforcer leurs systèmes de sécurité visant à protéger les données personnelles qu’elles possèdent. La cybersécurité doit ainsi être au cœur des préoccupations majeures des entreprises.
Les consommateurs renseignant de plus en plus de données personnelles sur différents sites et applications, ces dernières représentent aussi bien un gisement de valeur pour les entreprises qu’une potentielle proie pour les hackers. Et pour cause, garantir la protection des données personnelles de leurs clients est de plus en plus difficile pour les entreprises. En effet, les interactions croissantes entre leurs services et les smartphones des particuliers rendent plus fragile leur système de cybersécurité, de même que la professionnalisation des hackers. D’où le déploiement du RGPD, qui rappelons-le, vise à renforcer le droit des citoyens européens vis-à-vis de l’usage de leurs données personnelles.
Se pose alors la question suivante : comment une entreprise peut-elle adapter sa stratégie de cybersécurité pour faire du RGPD un bénéfice et non un frein à son business ? L’intelligence artificielle (IA) peut-elle lui venir en aide ?
Comment l’IA permet de protéger la data ?
Pour qu’une entreprise puisse remplir ses obligations vis-à-vis du RGPD, les outils de gouvernance et de gestion des risques jouent un rôle particulièrement important. Ainsi, deux types de mesures doivent être adoptées. D’une part, des mesures techniques incluant le déploiement de technologies permettant de protéger et d’arbitrer l’accès aux systèmes informatiques d’une entreprise ; d’autre part des mesures organisationnelles impliquant des processus de contrôle concernant les tierces personnes amenées à être en contact avec les données de l’entreprise. Ces mesures doivent également permettre le contrôle des modalités d’entrée d’une donnée ainsi que la manière dont cette donnée est utilisée.
Toutes ces mesures sont destinées à assurer une sécurité maximale des données d’une entreprise, de manière à les protéger de tout piratage, diffusion illégale ou utilisation inappropriée. De même, ces mesures techniques et organisationnelles visant à protéger la data devront être régulièrement révisées afin d’être au plus près des nouveaux usages des consommateurs et demeurer conformes au RGPD.
Dans ce contexte, il apparaît évident que l’homme seul ne peut faire face à ces enjeux et que l’intelligence artificielle peut être un atout.
Depuis plusieurs années déjà, l’intelligence artificielle est une technologie à laquelle les entreprises font appel quel que soit leur domaine d’activité. Amélioration des performances, compétitivité… Les entreprises n’ont eu d’autre choix que d’entrer dans l’ère du digital grâce aux apports de l’IA, cette dernière permettant notamment de prédire les besoins des consommateurs et d’y répondre de manière anticipative. En ce qui concerne la protection des données personnelles, là aussi l’intelligence artificielle se révèle être une aide indispensable pour les entreprises amenées à traiter des masses d’informations.
En premier lieu, les algorithmes d’IA sont en mesure d’évaluer de façon quantitative les risques encourus par les données détenues sur un réseau, et les retranscrire sous forme de note. Et ce, quels que soient le type d’équipements et de menaces. Les logiciels de cybersécurité s’appuyant sur l’intelligence artificielle peuvent ainsi détecter automatiquement les failles potentielles du réseau d’une entreprise ainsi que les programmes malveillants ou indésirables.
L’IA est également en mesure de détecter, analyser et défendre un système face à des cyberattaques même massives, grâce à des analyses précises et automatisées des activités malveillantes. L’intelligence artificielle est même capable de détecter un logiciel malveillant tentant de se faire passer pour un utilisateur humain. De quoi permettre aux entreprises de bloquer en temps réel toutes les formes de cyberattaques, même les plus sophistiquées.
Outre la sécurisation des données vis-à-vis des attaques extérieures, l’IA est également capable, côté réseaux IT, de lutter contre les fraudes lors de transactions en temps réel, par exemple.
Enfin, l’intelligence artificielle est également d’une grande aide dans le traitement en lui-même des données personnelles des utilisateurs. En effet, outre la sécurisation maximale de ce type de données, le RGPD impose aux entreprises de ne collecter que les données nécessaires à leurs activités, ainsi qu’à établir une cartographie précise de ces données au sein de l’entreprise. Les données personnelles dites sensibles doivent également être identifiées et traitées comme il se doit. Des logiciels adaptés au secteur d’activité ou contexte métier des entreprises s’appuient sur des algorithmes d’IA afin de mener à bien ces missions.
Nous l’avons vu, l’apport de l’intelligence artificielle dans la protection des données personnelles est désormais incontournable et tout à fait souhaitable, dans un contexte de Big Data où les actes de malveillance, toujours plus sophistiqués, se multiplient. Cependant, peut-on faire totalement confiance à l’IA pour la cybersécurité ?
Peut-on faire entièrement confiance à l’IA pour le traitement des données personnelles ?
Il existe tout de même certaines limites à l’utilisation de l’intelligence artificielle dans la protection des données personnelles. Des limites d’ordre éthique et moral d’une part, mais également des cas où la protection des données personnelles se révèle être un frein à l’IA.
Prenons pour exemple les algorithmes qui utilisent les données personnelles pour prédire et analyser les comportements des consommateurs. Lors d’un passage en caisse automatique notamment, la caméra va capturer les mouvements du client afin d’identifier si tous les articles ont bien été encaissés. Se faisant, elle sera amenée à reconnaître le visage du consommateur dans sa base de données. Bien que l’information ne sera pas forcément conservée, elle se retrouve tout de même traitée par les logiciels d’intelligence artificielle, ce qui est discutable d’un point de vue moral. Autre problème éthique apporté par l’IA au service des données personnelles, en Chine, un système de scoring des personnes (SCS : Système de Crédit Social) est en cours de déploiement. Les citoyens seront désormais assujettis à une note sociale, laquelle dépend d’une appréciation positive ou négative de leurs actes, aussi minimes soient-ils.
Enfin, les régions du monde qui ne sont pas soumises à des textes législatifs régissant l’utilisation des données personnelles auront, de fait, un potentiel de recherche et de développement plus avancé que les territoires où la réglementation freine le développement des algorithmes. La raison en est toute simple : plus les données sont nombreuses et variées, plus les résultats affichés par les logiciels d’IA se font précis et adéquats. Un risque de dépendance technologique n’est donc pas à exclure.
Laisser un commentaire
Participez-vous à la discussion?N'hésitez pas à contribuer!