Un homme avec une capuche derrière un ordinateur portable.
olegdudko / 123rf

Au cours de la dernière année, rapporte le magazine CFO, 75% des 650 responsables de la cybersécurité qui ont participé à un sondage ont dit qu’ils ont assisté à une hausse d’attaques informatiques malveillantes. Et sur ce nombre, 85% attribuaient ces attaques à des fraudeurs ayant recours à l’intelligence artificielle générative.

Tandis que les entreprises recourent de plus en plus à l’IA générative, 46% des spécialistes de la sécurité avertissent qu’elles vont devenir plus vulnérables aux cyberattaques qu’elles ne l’étaient auparavant. Les pourcentages de répondants qui identifient les principales zones de vulnérabilité oscillent tous un peu au-dessus du tiers. Ainsi, 37% prévoient une hausse d’attaques de type « phishing » indétectables, 39% se soucient de problèmes de vie privée tandis que 33% disent assister à une augmentation du nombre et de la vélocité des attaques en même temps qu’à un recours à des falsifications profondes pour orchestrer les attaques.

Les cybercriminels gagnent

Comme le souligne CFO, la principale raison qui explique une intensification des cyberattaques est simple : les criminels gagnent. Contre toute attente, on découvre que 47% des répondants disent que leur compagnie a mis en place une politique acceptant de payer n’importe quelle rançon exigée par des cyber pirates, un pourcentage en hausse de 13% depuis l’année précédente. Dans la dernière année, 42% des participants disent avoir payé pour que des données qui leur avaient été volées leur soient retournées; l’année précédente, ce pourcentage était de 32%.

Ironiquement, cette complaisance à l’endroit des cyberfraudeurs est loin d’avoir garanti quelque indemnité que ce soit : 45% de ceux qui ont payé une rançon aux cyber criminels ont vu leurs données exposées quand même. On comprend pourquoi, parmi les hauts dirigeants, 62% des répondants disent que les ransomwares constituent leur principale préoccupation.

Une des vertus majeures de l’IA générative tient à sa capacité d’apprentissage extrêmement rapide qui peut lui permettre, dans le cas de cyberattaques, d’évoluer et de s’adapter pour éviter la détection par les systèmes de sécurité traditionnelle, souligne une analyse de Dataconomy.

Par bonheur, ces mêmes habiletés peuvent être mises à contribution pour améliorer la cyber sécurité en analysant de vastes quantités de données pour déceler des tendances et anomalies susceptibles de révéler une attaque. Des systèmes de protection à base d’IA peuvent être mis au point pour répondre de façon automatique et systématique à des cybermenaces, par exemple en déconnectant des systèmes infectés ou en mettant en quarantaine des fichiers malicieux.

Risques étendus de l’IA

Cependant, les risques de l’IA générative ne se limitent pas aux cyberattaques, soutient une étude de McKinsey. D’autres zones de vulnérabilité concernent le manque de transparence et d’explicitation, l’introduction de bais et de discrimination, le manque de supervision humaine et la vie privée.

Dans le cas de la transparence, un manque de visibilité sur la manière dont un modèle a été développé (par exemple, la manière dont les ensembles de données alimentant un modèle ont été combinés) ou l’incapacité d’expliquer comment un modèle est parvenu à un résultat particulier peut entraîner des problèmes. Cela peut entraîner des conséquences légales; par exemple si un consommateur demande à savoir comment ses données ont été utilisées, l’organisation qui utilise les données devra savoir dans quels modèles les données ont été introduites.

Les applications d’IA, si elles ne sont pas mises en œuvre et testées correctement, peuvent présenter des problèmes de performance susceptibles d’enfreindre des garanties contractuelles et, dans des cas extrêmes, menacer la sécurité des personnes. McKinsey donne l’exemple d’un modèle qui aurait été développé pour garantir la mise à jour en temps voulu des machines dans l’industrie manufacturière ou minière ; une défaillance de ce modèle pourrait constituer une négligence dans le cadre d’un contrat et entraîner des réclamations pour dommages.

Les dangers à la vie privée sont nombreux en tenant compte du fait que les données sont au fondement de tout modèle d’IA. Les lois sur la protection de la vie privée en vigueur dans le monde entier déterminent la manière dont les entreprises peuvent utiliser les données, tandis que les attentes des consommateurs fixent des normes. Le non-respect de ces lois et de ces normes peut entraîner un préjudice pour les consommateurs. Et même si l’utilisation des données est légale, un usage inadéquat peut endommager la réputation d’une entreprise et en éloigner ses clients.