
Dans le secteur financier, où les risques sont majeurs et les décisions lourdes de conséquences, l’intelligence artificielle (IA) ne peut pas fonctionner en pilote automatique. Elle doit être considérée comme un employé ultrarapide, mais sans discernement, qui nécessite la supervision d’un humain, affirme Ashee Sarin, leader régionale de marché au Québec pour Omnia AI, le groupe d’intelligence artificielle (IA) de Deloitte.
Lors d’un panel portant sur les enjeux de l’IA dans les services financiers à l’occasion du 18e Colloque québécois sur l’investissement de l’Association des marchés de valeurs et des investissements (AMVI), le 8 mai à Montréal, plusieurs experts ont partagé des solutions contre les dérives potentielles des modèles d’IA. Ils ont également souligné que, dans l’industrie financière, les projets d’IA ne sont pas que technologiques. Ils sont profondément humains.
Dans les cas d’usage courant, comme les recommandations d’achat de produits sur Amazon, c’est l’utilisateur qui filtre les résultats. Cependant, dans les services financiers, un encadrement plus structuré est nécessaire entre autres en raison des obligations réglementaires, signale Ashee Sarin. Entre les hallucinations des modèles d’IA, les obligations réglementaires qui évoluent et les enjeux de réputation, les risques sont nombreux et variés pour les firmes. D’où l’importance de bien encadrer l’IA en effectuant un suivi en continu de ses actions, d’en suivre la trace et d’utiliser une technologie appropriée pour y parvenir.
Selon Ashee Sarin, la gestion des risques liés à l’IA repose sur trois lignes de défense : les employés en contact direct avec les clients, en première ligne, les systèmes de contrôle, en deuxième, et une surveillance indépendante en troisième. Des contrôles doivent être présents sur chacune de ces lignes de défense. « Chaque étape du cycle de vie d’un modèle IA doit être contrôlée : des données injectées, à la vérification du modèle, jusqu’à l’analyse des résultats. »
IA sous surveillance chez Desjardins
Non seulement la supervision humaine est utile, mais elle est rendue obligatoire par la réglementation, ajoute Fanny Guertin, directrice principale données et analytique, Gestion de patrimoine et assurance de personnes (GPAP) au Mouvement Desjardins. En effet, la réglementation interdit à une IA de prendre seule des décisions déterminantes. Un algorithme ne peut pas refuser un service ou pénaliser un client sans validation humaine. « Sur chaque transaction de Desjardins (qui fait appel à l’IA), il y a un humain qui vérifie que tout est conforme », dit-elle.
Chez GPAP, la supervision est multicouche. Un premier modèle détermine les transactions contrôlées en priorité, un deuxième valide les résultats du premier, et un humain intervient en bout de chaîne. Cette approche en cascade permet de maintenir un niveau de contrôle élevé tout en éliminant les tâches à faible valeur ajoutée. « C’est l’employé le plus productif possible qui va être contrôlé et vérifié », indique Fanny Guertin, faisant référence à l’IA comme étant cet employé.
Choisir les bons combats
Cette structure ne garantit pas des gains de productivité immédiats, indique Fanny Guertin. « Les bénéfices sont modestes au départ, mais le retour sur investissement se concrétise à moyen terme. » D’autant que les vérifications peuvent être automatisées en partie, ce qui permet d’optimiser les ressources sans sacrifier la conformité.
Pour générer de la valeur réelle, encore faut-il savoir où l’IA peut être utile. Il faut d’abord bien définir les problématiques d’affaires à résoudre, la valeur que l’on veut créer pour les clients et comment simplifier les processus internes.
GPAP utilise par exemple l’intelligence documentaire pour accélérer le traitement des demandes de prêts hypothécaires. L’IA lit les documents en format papier ou numérique et propose des recommandations. Cette technologie est aussi déployée en financement et pour traiter les réclamations d’assurance.
Erreur chez Air Canada
Mais que se passe-t-il quand un modèle utilisant l’IA déraille ? Jocelyn Auger, avocat associé chez Fasken, spécialisé en droit commercial et technologies de l’information, souligne que l’absence de gouvernance liée aux modèles d’IA est encore fréquente, même chez les grandes entreprises.
Il cite le cas d’un client d’Air Canada induit en erreur par un agent conversationnel au sujet d’un rabais pour un billet d’avion en raison d’un deuil familial. Le robot a communiqué une information erronée au client, qui l’a privé du rabais. Le client a poursuivi Air Canada et a gagné, car le tribunal a statué que la compagnie était responsable des propos de son chatbot, soulignant qu’un robot représente l’entreprise autant qu’un employé.
Selon lui, une gouvernance efficace des modèles d’IA exige un suivi humain constant ainsi qu’une formation appropriée des employés : « Même si les erreurs sont inévitables, la manière de les gérer est cruciale ».
Les firmes utilisatrices d’IA restent imputables de ces erreurs : « Il ne faut pas oublier que toutes les autres lois demeurent en vigueur. Dans l’histoire d’Air Canada, ce n’est pas une loi sur l’IA (comme telle) qui s’appliquait », a-t-il dit.
Par ailleurs, Pascale Toupin, directrice de l’encadrement des intermédiaires à l’Autorité des marchés financiers (AMF) a noté dans un autre panel que les Autorités canadiennes en valeurs mobilières (ACVM) ont publié le 5 décembre 2024 l’Avis 11-348 du personnel des ACVM et de consultation, Applicabilité du droit canadien des valeurs mobilières à l’utilisation des systèmes d’intelligence artificielle dans les marchés des capitaux.
L’avis, qui se voulait également une consultation a permis à l’AMF d’avoir le point de vue de l’industrie sur la pertinence ou non d’incorporer un encadrement supplémentaire de l’IA alors que la réglementation actuelle vise une neutralité technologique. Selon elle, l’enjeu de l’explicabilité des décisions et actions de l’IA est pertinent pour les firmes, tout comme la formation du personnel et l’importance de bien comprendre les sources d’informations utilisées par l’IA.
« On est attentifs aux commentaires reçus. On va suivre les travaux de l’Organisation internationale des commissions de valeurs (OICV) qui devrait publier des indications en 2025 ou en 2026 sur la question (de l’IA) », a indiqué Pascale Toupin.
Qualité des données
Autre facteur critique : la qualité des données. « Des données inexactes ou mal structurées peuvent compromettre les performances des modèles », indique Fanny Guertin. Dans le secteur des réclamations médicales, par exemple, une mauvaise catégorisation des données peut générer des résultats inexploitables.
S’ajoute à cela la complexité juridique. Jocelyn Auger précise que les obligations de protection des renseignements personnels (Loi 25) freinent l’adoption de l’IA dans les secteurs réglementés. « Les organisations peinent à déterminer où leurs données sont stockées et comment elles sont utilisées par les fournisseurs de solutions d’IA. Le langage contractuel flou de certains fournisseurs ajoute à l’incertitude. Si bien que certains clients refusent que l’IA soit utilisée dans la prestation de services. »
Pour éviter tout faux pas réglementaire, certaines institutions limitent l’usage de leurs outils, comme Morningstar, où les chatbots ne sont pas autorisés à fournir des conseils financiers personnalisés.
Selon un sondage effectué dans l’assistance, 78 % des personnes utilisent déjà l’IA dans leur travail, principalement pour l’analyse de données (39 %) et la conformité (37 %), suivis par la relation client (20 %). Mais, malgré cette adoption massive, le niveau de confort reste variable.
La clé de la réussite ? « L’alignement avec les systèmes existants, et surtout l’adhésion des utilisateurs », dit Fanny Guertin. Car un outil, aussi puissant soit-il, est inutile s’il n’est pas utilisé ou compris par les équipes, estime la spécialiste. La gestion du changement devient alors le nerf de la guerre.