Chat GPT, Bard, MidJourney, Dall-e… de nouvelles opportunités, certes mais aussi de nouveaux risques.
4 mois après l’adoption par le Parlement européen de l’AI Act, l’ENISA – Agence de cybersécurité de l’Union Européenne, publie un rapport mettant en garde contre les risques de l’IA générative. Alors que l’IA prend une place de plus en plus importante dans notre quotidien, les risques liés à cette nouvelle technologie ne sont pas toujours bien connus.
Une place toujours plus importante
L’intelligence artificielle occupe une place de plus en plus importante dans notre quotidien. Chat GPT, qui est capable de générer du texte à partir des questions qui lui sont posées, en est un excellent exemple.
Ce robot conversationnel développé par OpenAI, est devenu l’application grand public à la croissance la plus rapide de l’histoire. Selon UBS, Chat GPT comptait 100 millions d’utilisateurs actifs deux mois après son lancement. Un score que même le réseau social Tik Tok, pourtant viral, a mis 9 mois à atteindre.
Pourtant, si cet outil est très populaire, les utilisateurs ne sont pas toujours conscients des risques qu’il comporte. En mars 2023, Chat GPT a ainsi été mis hors ligne pendant plusieurs heures à la suite d’une grave fuite de données sensibles d’utilisateurs.
L’Union Européenne légifère
Face à l’ampleur du phénomène de l’IA générative (comme Chat GPT ou son équivalent chez Google, Bard), le Parlement européen a adopté le mercredi 14 juin 2023 l’AI Act. Il s’agit d’un texte de régulation de l’IA qui vise à créer un cadre réglementaire pour la mise au marché en mettant l’accent sur les questions de sécurité, de santé et de droits fondamentaux.
Dans son rapport du 19 octobre 2023, l’Agence de l’Union européenne pour la cybersécurité (Enisa) a également identifié et mis en garde contre plusieurs typologies de risques liés à l’IA. Elle met notamment en avant l’amélioration des cyberattaques.
Des attaques plus sophistiquées
En effet, avec l’IA, les cyberattaques peuvent être plus efficaces, car elles sont plus réalistes et à plus grande échelle.
L’époque des tentatives de smishing (phishing par SMS) ou des emails de phishings truffés de fautes d’orthographe ou d’incohérences est révolue. Avec à l’IA générative, les cyberattaquants pourront préparer des arnaques plus crédibles. Il en va de même pour les arnaques téléphoniques : avec le développement des deepfakes, ils peuvent se faire passer pour d’autres personnes en clonant leur voix !
Et des risques pour les données
Les risques associés à l’IA générative résident également dans les informations confiées à ces outils. Il est essentiel d’être vigilant sur ce qui leur est demandé, car ils ne garantissent pas la confidentialité de ces données.
Samsung en a récemment fait les frais. Des employés auraient saisi des informations confidentielles et stratégiques dans Chat GPT. Comme pour toute IA générative, ces informations ont ensuite été transformées en données d’entraînement pour l’IA afin d’améliorer la précision de ses futures réponses. Ces informations pouvaient ensuite être partagées avec d’autres utilisateurs extérieurs à l’entreprise pour répondre à leurs questions.
Des secrets d’entreprise à portée de clic dont il est facile d’imaginer les impacts dévastateurs s’ils tombaient entre les mains d’une personne malveillante.