Loi sur la protection des renseignements personnels et les documents électroniques – Finance et Investissement https://www.finance-investissement.com Source de nouvelles du Canada pour les professionnels financiers Wed, 21 May 2025 10:58:34 +0000 fr-CA hourly 1 https://wordpress.org/?v=5.9.3 https://www.finance-investissement.com/wp-content/uploads/sites/2/2018/02/cropped-fav-icon-fi-1-32x32.png Loi sur la protection des renseignements personnels et les documents électroniques – Finance et Investissement https://www.finance-investissement.com 32 32 « Il faut traiter l’IA comme un employé qui n’a pas de jugement » https://www.finance-investissement.com/nouvelles/actualites/il-faut-traiter-lia-comme-un-employe-qui-na-pas-de-jugement/ Wed, 21 May 2025 10:58:34 +0000 https://www.finance-investissement.com/?p=107370 COLLOQUE AMVI 2025 — Et surveiller son travail.

L’article « Il faut traiter l’IA comme un employé qui n’a pas de jugement » est apparu en premier sur Finance et Investissement.

]]>
Dans le secteur financier, où les risques sont majeurs et les décisions lourdes de conséquences, l’intelligence artificielle (IA) ne peut pas fonctionner en pilote automatique. Elle doit être considérée comme un employé ultrarapide, mais sans discernement, qui nécessite la supervision d’un humain, affirme Ashee Sarin, leader régionale de marché au Québec pour Omnia AI, le groupe d’intelligence artificielle (IA) de Deloitte.

Lors d’un panel portant sur les enjeux de l’IA dans les services financiers à l’occasion du 18e Colloque québécois sur l’investissement de l’Association des marchés de valeurs et des investissements (AMVI), le 8 mai à Montréal, plusieurs experts ont partagé des solutions contre les dérives potentielles des modèles d’IA. Ils ont également souligné que, dans l’industrie financière, les projets d’IA ne sont pas que technologiques. Ils sont profondément humains.

Dans les cas d’usage courant, comme les recommandations d’achat de produits sur Amazon, c’est l’utilisateur qui filtre les résultats. Cependant, dans les services financiers, un encadrement plus structuré est nécessaire entre autres en raison des obligations réglementaires, signale Ashee Sarin. Entre les hallucinations des modèles d’IA, les obligations réglementaires qui évoluent et les enjeux de réputation, les risques sont nombreux et variés pour les firmes. D’où l’importance de bien encadrer l’IA en effectuant un suivi en continu de ses actions, d’en suivre la trace et d’utiliser une technologie appropriée pour y parvenir.

Selon Ashee Sarin, la gestion des risques liés à l’IA repose sur trois lignes de défense : les employés en contact direct avec les clients, en première ligne, les systèmes de contrôle, en deuxième, et une surveillance indépendante en troisième. Des contrôles doivent être présents sur chacune de ces lignes de défense. « Chaque étape du cycle de vie d’un modèle IA doit être contrôlée : des données injectées, à la vérification du modèle, jusqu’à l’analyse des résultats. »

IA sous surveillance chez Desjardins

Non seulement la supervision humaine est utile, mais elle est rendue obligatoire par la réglementation, ajoute Fanny Guertin, directrice principale données et analytique, Gestion de patrimoine et assurance de personnes (GPAP) au Mouvement Desjardins. En effet, la réglementation interdit à une IA de prendre seule des décisions déterminantes. Un algorithme ne peut pas refuser un service ou pénaliser un client sans validation humaine. « Sur chaque transaction de Desjardins (qui fait appel à l’IA), il y a un humain qui vérifie que tout est conforme », dit-elle.

Chez GPAP, la supervision est multicouche. Un premier modèle détermine les transactions contrôlées en priorité, un deuxième valide les résultats du premier, et un humain intervient en bout de chaîne. Cette approche en cascade permet de maintenir un niveau de contrôle élevé tout en éliminant les tâches à faible valeur ajoutée. « C’est l’employé le plus productif possible qui va être contrôlé et vérifié », indique Fanny Guertin, faisant référence à l’IA comme étant cet employé.

Choisir les bons combats

Cette structure ne garantit pas des gains de productivité immédiats, indique Fanny Guertin. « Les bénéfices sont modestes au départ, mais le retour sur investissement se concrétise à moyen terme. » D’autant que les vérifications peuvent être automatisées en partie, ce qui permet d’optimiser les ressources sans sacrifier la conformité.

Pour générer de la valeur réelle, encore faut-il savoir où l’IA peut être utile. Il faut d’abord bien définir les problématiques d’affaires à résoudre, la valeur que l’on veut créer pour les clients et comment simplifier les processus internes.

GPAP utilise par exemple l’intelligence documentaire pour accélérer le traitement des demandes de prêts hypothécaires. L’IA lit les documents en format papier ou numérique et propose des recommandations. Cette technologie est aussi déployée en financement et pour traiter les réclamations d’assurance.

Erreur chez Air Canada

Mais que se passe-t-il quand un modèle utilisant l’IA déraille ? Jocelyn Auger, avocat associé chez Fasken, spécialisé en droit commercial et technologies de l’information, souligne que l’absence de gouvernance liée aux modèles d’IA est encore fréquente, même chez les grandes entreprises.

Il cite le cas d’un client d’Air Canada induit en erreur par un agent conversationnel au sujet d’un rabais pour un billet d’avion en raison d’un deuil familial. Le robot a communiqué une information erronée au client, qui l’a privé du rabais. Le client a poursuivi Air Canada et a gagné, car le tribunal a statué que la compagnie était responsable des propos de son chatbot, soulignant qu’un robot représente l’entreprise autant qu’un employé.

Selon lui, une gouvernance efficace des modèles d’IA exige un suivi humain constant ainsi qu’une formation appropriée des employés : « Même si les erreurs sont inévitables, la manière de les gérer est cruciale ».

Les firmes utilisatrices d’IA restent imputables de ces erreurs : « Il ne faut pas oublier que toutes les autres lois demeurent en vigueur. Dans l’histoire d’Air Canada, ce n’est pas une loi sur l’IA (comme telle) qui s’appliquait », a-t-il dit.

Par ailleurs, Pascale Toupin, directrice de l’encadrement des intermédiaires à l’Autorité des marchés financiers (AMF) a noté dans un autre panel que les Autorités canadiennes en valeurs mobilières (ACVM) ont publié le 5 décembre 2024 l’Avis 11-348 du personnel des ACVM et de consultation, Applicabilité du droit canadien des valeurs mobilières à l’utilisation des systèmes d’intelligence artificielle dans les marchés des capitaux.

L’avis, qui se voulait également une consultation a permis à l’AMF d’avoir le point de vue de l’industrie sur la pertinence ou non d’incorporer un encadrement supplémentaire de l’IA alors que la réglementation actuelle vise une neutralité technologique. Selon elle, l’enjeu de l’explicabilité des décisions et actions de l’IA est pertinent pour les firmes, tout comme la formation du personnel et l’importance de bien comprendre les sources d’informations utilisées par l’IA.

« On est attentifs aux commentaires reçus. On va suivre les travaux de l’Organisation internationale des commissions de valeurs (OICV) qui devrait publier des indications en 2025 ou en 2026 sur la question (de l’IA) », a indiqué Pascale Toupin.

Qualité des données

Autre facteur critique : la qualité des données. « Des données inexactes ou mal structurées peuvent compromettre les performances des modèles », indique Fanny Guertin. Dans le secteur des réclamations médicales, par exemple, une mauvaise catégorisation des données peut générer des résultats inexploitables.

S’ajoute à cela la complexité juridique. Jocelyn Auger précise que les obligations de protection des renseignements personnels (Loi 25) freinent l’adoption de l’IA dans les secteurs réglementés. « Les organisations peinent à déterminer où leurs données sont stockées et comment elles sont utilisées par les fournisseurs de solutions d’IA. Le langage contractuel flou de certains fournisseurs ajoute à l’incertitude. Si bien que certains clients refusent que l’IA soit utilisée dans la prestation de services. »

Pour éviter tout faux pas réglementaire, certaines institutions limitent l’usage de leurs outils, comme Morningstar, où les chatbots ne sont pas autorisés à fournir des conseils financiers personnalisés.

Selon un sondage effectué dans l’assistance, 78 % des personnes utilisent déjà l’IA dans leur travail, principalement pour l’analyse de données (39 %) et la conformité (37 %), suivis par la relation client (20 %). Mais, malgré cette adoption massive, le niveau de confort reste variable.

La clé de la réussite ? « L’alignement avec les systèmes existants, et surtout l’adhésion des utilisateurs », dit Fanny Guertin. Car un outil, aussi puissant soit-il, est inutile s’il n’est pas utilisé ou compris par les équipes, estime la spécialiste. La gestion du changement devient alors le nerf de la guerre.

L’article « Il faut traiter l’IA comme un employé qui n’a pas de jugement » est apparu en premier sur Finance et Investissement.

]]>
Risques technologiques : le secteur a besoin de clarté https://www.finance-investissement.com/dossiers_/etudes-et-sondages/risques-technologiques-le-secteur-a-besoin-de-clarte/ Mon, 12 May 2025 10:05:17 +0000 https://www.finance-investissement.com/?p=107023 On souhaite obtenir du soutien des régulateurs.

L’article Risques technologiques : le secteur a besoin de clarté est apparu en premier sur Finance et Investissement.

]]>
La technologie prend une place de plus en plus centrale dans les activités des institutions financières et des représentants ainsi que dans les communications avec les clients. Cette transformation rapide, conjuguée à la montée des risques technologiques, notamment en matière de cybersécurité, suscite une vigilance accrue chez les responsables de la conformité, dont certains affirment avoir besoin de soutien sur ce plan, selon le Pointage des régulateurs 2025.

Les répondants ont évalué la pertinence des interventions des régulateurs face aux changements technologiques. L’importance accordée à ce critère est élevée (8,7 sur 10) et stable par rapport à 2024. En revanche, la note moyenne reste faible : 5,8 sur 10 ou moins pour l’Autorité des marchés financiers (AMF), 6,1 pour la Chambre de la sécurité financière (CSF) et 6,8 pour l’Organisme canadien de réglementation des investissements (OCRI).

Les participants ont aussi évalué le soutien des régulateurs concernant la cybersécurité et les risques technologiques. Cette année encore, l’importance moyenne accordée à ce critère reste élevée (8,4), bien qu’en baisse comparativement à 2024 (9,1). Les régulateurs affichent tous une hausse de leurs notes par rapport à 2024, pour s’établir en 2025 à 5,3 et 6,3 pour l’AMF, à 6,1 pour la CSF et à 6,9 pour l’OCRI.

Les efforts des régulateurs semblent appréciés, mais les besoins des firmes restent grands, selon des répondants. Les risques évoluent sans relâche. On veut bien intégrer l’intelligence artificielle (IA) aux processus d’affaires, comme l’interrelation entre les employés, les robots conversationnels et la création de rapports automatisés. On s’inquiète également de la cybersécurité et de la protection des renseignements personnels.

« Le piratage et le vol de données sont les deux éléments qui nous préoccupent le plus », affirme Maxime Gauthier, président et chef de la conformité de Mérici Services financiers.

L’émergence d’outils d’IA, comme les deepfakes et les modèles de langage génératif, facilite l’imitation de clients ou de conseillers, augmentant les risques d’accès non autorisé ou de transactions frauduleuses, signale Martin Boulianne, gestionnaire de portefeuille adjoint à Patrimoine Richardson. Les attaques par l’ingénierie sociale, les violations de données et rançongiciels et la désinformation sur les réseaux sociaux, qui peuvent influencer rapidement le comportement des investisseurs et provoquer une panique inutile sur les marchés, sont les risques qui retiennent l’attention.

« La sécurité des données et la protection des avoirs de nos clients, ce n’est pas qu’une obligation réglementaire, c’est un pilier de la relation de confiance avec eux », dit Martin Boulianne.

Pour atténuer les risques, les firmes mettent en place diverses mesures de protection, telles que l’authentification multifactorielle, des canaux de communication chiffrés pour garder les échanges confidentiels, la formation continue des équipes et la vérification systématique des transactions importantes.

L’augmentation de la numérisation des documents constitue un facteur de risque, considérant les vols de données ou d’identité potentiels, selon des répondants. Un client pourrait également se plaindre en fonction de son interprétation d’une protection adéquate, note un sondé.

De plus, la multiplication des moyens de communication utilisés par les clients complique la tâche des services de conformité. « Les firmes ne sont pas en mesure de les suivre comme le régulateur le voudrait », déplore un sondé. Un autre fait remarquer que certains outils ne sont pas à la hauteur pour aider les représentants à répondre adéquatement aux exigences réglementaires.

Par exemple, dans certaines firmes, l’accès aux échanges entre clients et représentants demeure partiel, ce qui complique la gestion des risques. Dans le courtage de plein exercice, un répondant évoque un manque de clarté autour de l’usage des messageries électroniques et des technologies liées au télétravail.

Les communications écrites deviennent aussi plus délicates en raison de la crainte liée à la perte de renseignements personnels. Les échanges par messagerie texte, notamment, posent un risque supplémentaire, rapporte un répondant.

« Si même les agences gouvernementales les plus sérieuses et sécurisées peuvent être piratées, nous ne sommes pas entièrement à l’abri. De l’autre côté, nos processus et la formation donnée à l’interne nous offrent une protection raisonnable sur les enjeux de deepfake ou de communication », déclare Maxime Gauthier.

Face à ces défis, plusieurs avis témoignent d’une certaine frustration.

Un répondant issu du secteur de l’assurance de personnes et de l’épargne collective soulève des lacunes dans le soutien offert par l’AMF et la CSF. « On nous réfère à des politiques générales et floues qui datent déjà. On ne sent pas qu’ils comprennent l’ampleur des défis en matière de cybersécurité et de développement technologique », observe-t-il.

Maxime Gauthier dit recevoir « peu ou pas de soutien » des régulateurs face aux risques. « On comprend que les régulateurs préfèrent ne pas se mouiller, mais la vitesse à laquelle les technologies évoluent, les risques croissants que cela représente et les coûts astronomiques font qu’il serait apprécié d’avoir plus de soutien, ne serait-ce qu’en termes de vigie, de recommandations de bonnes pratiques plus précises, de fourniture d’experts pour tester nos systèmes ou encore de mutualisation de certains risques ».

Martin Boulianne observe que « l’OCRI et l’AMF établissent un cadre réglementaire qui protège les investisseurs tout en encourageant les firmes à maintenir un haut niveau de vigilance et d’amélioration continue en cybersécurité ».

Les régulateurs doivent continuer d’aviser les firmes de leurs obligations en matière de protection des renseignements personnels et cybersécurité, mais ne peuvent s’improviser experts en la matière, juge Jean-Paul Bureaud, président et chef de la direction de FAIR Canada : « C’est difficile pour les régulateurs d’en faire davantage, car tout le monde utilise un système différent. C’est un enjeu pour la firme, pour son conseil d’administration. Bon nombre d’entre eux sont conscients des cyberrisques et des enjeux de l’IA, dont de les exposer à une responsabilité potentielle. »

Pour combler le besoin de soutien du secteur, les régulateurs pourraient créer des formations ou des études de cas où des spécialistes en cybersécurité et en technologie s’allieraient avec eux pour éduquer l’industrie. Elisabeth Chamberland, chef de la conformité, Services en placement PEAK, mentionne une formation organisée par l’OCRI à Toronto qui a été très appréciée par certains responsables des technologies de PEAK. Une formation analogue en français au Québec serait bienvenue.

Un répondant cite le bon « niveau de collaboration et de discussions » de l’OCRI sur les enjeux de cybersécurité. Un autre salue sa proactivité dans les discussions sur la nécessité d’automatiser certaines exigences réglementaires administrativement lourdes. Un acteur de l’épargne collective souligne « l’écoute et l’ouverture » de l’OCRI à l’égard de l’automatisation.

Dans le cadre d’une consultation, des membres de l’OCRI ont demandé de clarifier les règles qui concernent le recours à la technologie pour gérer les processus réglementaires. En réponse, l’OCRI a proposé de permettre aux courtiers membres d’automatiser certaines tâches ou activités. « Ces changements favoriseront la demande accrue de recours aux technologies de réglementation, ce qui aidera à réduire au minimum le risque lié à la conformité, à améliorer les résultats et à réduire les coûts », écrit l’OCRI dans une réponse à nos questions.

L’organisme encourage les courtiers à évaluer régulièrement leurs systèmes afin de détecter les lacunes importantes. « L’OCRI organise des exercices de simulation et fournit sur son site Web des ressources instructives en matière de cybersécurité, dont un outil d’autoévaluation de la cybersécurité », ajoute le régulateur.

En réponse aux commentaires du répondant sur la clarté des politiques, la CSF indique qu’elle encadre les conseillers, en établissant des principes de bonnes pratiques, mais qu’elle n’encadre pas les firmes. « Les firmes ont la responsabilité de fournir les outils technologiques permettant aux conseillers de respecter les règles d’exercice. La CSF collabore toutefois avec l’industrie. Nous travaillons par exemple en concertation au développement de nouvelles formations sur l’IA », note-t-elle.

Quant à elle, l’AMF juge que son encadrement accorde une grande flexibilité quant au choix des méthodes et des processus devant être mis en place pour assurer une bonne gouvernance et une gestion des risques technologiques. « Chaque entreprise peut moduler les moyens qu’elle prend et les outils qu’elle utilise pour prévenir les risques qui lui sont propres », précise-t-elle, en plus « d’adapter au besoin sa stratégie à de nouveaux risques ».

Pour assurer un encadrement adéquat à la transformation numérique, l’AMF poursuit certaines initiatives. « À titre d’exemple, elle a récemment collaboré avec les Organismes canadiens de réglementation en assurance à la publication d’un outil axé sur la préparation à la cybersécurité dans l’utilisation de l’intelligence générative. Une initiative en cours vise à échanger notamment avec les cabinets et les représentants en assurance sur les défis auxquels ils sont confrontés à l’égard de divers risques émergents, dont l’utilisation responsable de l’intelligence artificielle et la cybersécurité. »

L’AMF souligne que le Règlement sur la gestion et le signalement des incidents de sécurité de l’information de certaines institutions financières et des agents d’évaluation du crédit, qui est entré en vigueur le 23 avril, prévoit l’obligation de développer une politique de gestion des incidents et d’aviser l’AMF en cas d’incident de sécurité de l’information.

En ce qui concerne l’encadrement en valeurs mobilières, l’AMF les invite à consulter notamment l’Avis 11-326 du personnel des ACVM — Cybersécurité. « En vue de gérer les risques associés à une cybermenace, les personnes inscrites doivent être conscientes des enjeux de la cybercriminalité et adopter des mesures de protection et de sécurité adéquates pour se protéger ainsi que leurs clients ou les parties intéressées. Les personnes inscrites devraient évaluer si leurs systèmes de gestion des risques leur permettent de gérer les risques liés à la cybercriminalité en conformité avec les pratiques commerciales prudentes. »

L’AMF maintient aussi une surveillance du secteur financier qui vise notamment à optimiser sa capacité à intervenir rapidement pour assurer la protection des consommateurs et adapter son encadrement à l’innovation : « L’AMF demeure à l’écoute des préoccupations exprimées par le secteur et poursuit ses initiatives visant à le soutenir face à ces risques. »

Avec la collaboration de Guillaume Poulin-Goyer

Pour accéder au tableau, cliquez ici.

L’article Risques technologiques : le secteur a besoin de clarté est apparu en premier sur Finance et Investissement.

]]>
Mieux protéger les consommateurs contre les risques liés aux TI https://www.finance-investissement.com/nouvelles/actualites/mieux-proteger-les-consommateurs-contre-les-risques-lies-aux-ti/ Fri, 17 Nov 2023 10:45:13 +0000 https://www.finance-investissement.com/?p=97456 L’ARSF publie sa ligne directrice définitive sur la gestion de ces risques.

L’article Mieux protéger les consommateurs contre les risques liés aux TI est apparu en premier sur Finance et Investissement.

]]>
Toujours dans l’optique de mieux protéger les consommateurs, l’Autorité ontarienne de réglementation des services financiers (ARSF) s’attaque concrètement aux risques préjudiciables liés aux TI, comme les cybermenaces, et publie la version définitive de sa ligne directrice sur la gestion des risques liés aux technologies de l’information (TI).

Cette version finale, qui est le fruit des modifications apportées au projet initial après les commentaires recueillis entre le 23 janvier et le 31 mars 2023, devrait aider les personnes et secteurs réglementés par l’ARSF à mieux gérer les menaces liées aux TI pour leurs systèmes, leur infrastructure et leurs données informatiques.

Dans celle-ci on retrouve notamment sept pratiques pour une gestion efficace des risques liés aux TI; un processus pour avertir l’ARSF en cas d’incident ainsi que des exigences sectorielles visant les caisses, les compagnies d’assurances constituées en Ontario et les assureurs réciproques ainsi que les administrateurs de régimes de retraite.

Parmi les changements apportés par rapport à la ligne directrice initiale, on notera :

  • une modification de la date d’entrée en vigueur : celle-ci a été repoussée à avril 2024 (au lieu de juin 2023);
  • une mise à jour dur délai de signalement d’un incident : il est maintenant demandé de rapporter l’incident « dès que possible, généralement dans un délai de 48 à 72 heures »;
  • et davantage de souplesse dans la façon d’informer l’ARSF d’un incident important, notamment au moyen d’un portail sécurisé.

À noter que malgré ces lignes directrices, les entités réglementées sont tenues de respecter les exigences existantes concernant les risques liés aux TI et la protection des renseignements personnels, notamment les exigences de la Loi sur la protection des renseignements personnels et les documents électroniques.

L’article Mieux protéger les consommateurs contre les risques liés aux TI est apparu en premier sur Finance et Investissement.

]]>
Données personnelles: amendes jusqu’à 25 M $ selon le projet de loi https://www.finance-investissement.com/nouvelles/actualites/donnees-personnelles-amendes-jusqua-25-m-selon-le-projet-de-loi/ Fri, 12 Jun 2020 18:39:25 +0000 https://www.finance-investissement.com/?p=67201 Présentement, elles sont plafonnées à 10 000 $.

L’article Données personnelles: amendes jusqu’à 25 M $ selon le projet de loi est apparu en premier sur Finance et Investissement.

]]>
Québec n’entend plus badiner avec les entreprises qui négligent la protection des renseignements personnels de leurs clients.

La ministre de la Justice, Sonia LeBel, a déposé vendredi un projet de loi qui permettra d’imposer des amendes pouvant aller jusqu’à 25 millions de dollars (M$) ou jusqu’à 4 % du chiffre d’affaires mondial de l’entreprise si le montant est plus élevé.

« Nos lois actuelles manquent de mordant », a tranché la ministre en présentant la pièce législative qui vise à imposer des « sanctions dissuasives » pour les contrevenants.

À l’heure actuelle, les amendes vont de 1000 $ à 10 000 $, alors que Québec vise à fixer désormais l’amende minimale à 15 000 $.

« Ceux qui ont vécu un vol d’identité le savent: les conséquences peuvent être très lourdes et vous suivre pendant de nombreuses années », a noté la ministre LeBel en conférence de presse.

Le projet de loi 64, que la ministre a qualifié d’« extrêmement costaud », vise à redonner aux citoyens le plein contrôle de leurs renseignements personnels et responsabiliser les organisations qui utilisent ces renseignements, a-t-elle expliqué.

Sonia LeBel a donné un exemple que tous les internautes ont vécu pour illustrer un des moyens de défense prévus.

« Vous êtes allés magasiner un barbecue. Tout d’un coup sur votre Facebook et sur votre Instagram on vous offre des barbecues à répétition. Avec le projet de loi, je vais pouvoir désactiver cette fonction-là et de dire moi je veux magasiner un barbecue sans après ça me faire bombarder. »

Le citoyen devra donner un consentement « éclairé » et « distinct » à l’utilisation de ses renseignements personnels. Autrement dit, l’entreprise devra lui expliquer clairement ce à quoi son client s’apprête à consentir et le faire à chaque étape.

Les entreprises auront aussi l’obligation de détruire ou anonymiser les renseignements personnels quand l’utilisation prévue sera terminée. Quoi qu’il en soit, un citoyen pourra exiger à tout moment que ses renseignements soient détruits.

Toutes les entreprises faisant des affaires au Québec devront également informer la Commission d’accès à l’information et les citoyens d’une fuite de données, de même que tenir un registre de toutes les brèches de confidentialité.

Le projet de loi, qui est inspiré d’une législation européenne, s’applique aux renseignements personnels des clients québécois de toutes les entreprises qui font des affaires dans la province, y compris les entreprises à charte fédérale. Les partis politiques seront également soumis à certaines dispositions.

Un juge déterminera le montant de l’amende en fonction de la gravité de l’incident, notamment le nombre de personnes touchées, s’il s’agit d’une première condamnation, si l’entreprise a reçu des avertissements, si elle a respecté les balises, etc.

Les renseignements de millions de Québécois ont été compromis lors de plusieurs fuites de données au cours des dernières années, dont un vol qui a touché 4,4 millions de membres du Mouvement Desjardins.

La ministre a été incapable de dire à ce stade-ci si son projet de loi aurait permis d’éviter la fuite de données chez Desjardins. Elle estime cependant que son projet de loi s’ajoute à la Politique gouvernementale de cybersécurité et au projet de loi sur les agences de crédit pour former un « trio » qui contribuera à « minimiser le risque ».

L’étude du projet de loi commencera à l’automne.

L’article Données personnelles: amendes jusqu’à 25 M $ selon le projet de loi est apparu en premier sur Finance et Investissement.

]]>
La loi sur la protection de la vie privée devrait se durcir https://www.finance-investissement.com/nouvelles/actualites/la-loi-sur-la-protection-de-la-vie-privee-devrait-se-durcir/ Thu, 07 Nov 2019 13:44:54 +0000 https://www.finance-investissement.com/?p=62228 La loi fédérale sur la protection de la vie privée devrait changer dans les années à venir. Le secteur canadien des valeurs mobilières sera confronté à de nombreux défis pour la respecter, prévient le président de l’Association canadienne du commerce des valeurs mobilières (ACCVM).

L’article La loi sur la protection de la vie privée devrait se durcir est apparu en premier sur Finance et Investissement.

]]>
En juin dernier, le Commissariat à la protection de la vie privée (Commissariat) a publié un document de réflexion sur la circulation transfrontalière des documents personnels qui a suscité de vives réactions de la part des organismes concernés, notamment l’ACCVM.

Dans ce document, le Commissariat allait à l’encontre de sa position actuelle. Alors qu’avant le Commissariat considérait la communication de renseignements personnels aux fins de traitement comme une « utilisation » et non comme une « communication » de renseignements personnels à l’agence de traitement, il voulait commencer à considérer cet échange comme une véritable communication changeant ainsi les règles s’appliquant à ces transferts.

Si cette loi était passée, il aurait désormais été nécessaire d’obtenir le consentement de la personne sur laquelle portent les renseignements avant de pouvoir les donner à l’agence de traitement.

Dans sa plus récente lettre, Ian Russel, président et chef de la direction de l’ACCVM, relevait trois problèmes pour l’industrie et les courtiers si une telle loi avait été acceptée :

  • Il est compliqué de revenir sur une pratique qui est bien entérinée et justement, avoir recours à des tiers pour traiter des données à l’extérieur du Canada est une pratique bien établie.
  • Ce revirement aurait imposé un très lourd fardeau financier aux sociétés de courtage et autres institutions financières qui font régulièrement affaire avec des fournisseurs de services au Canada et à l’étranger. Elles auraient dû revoir en profondeur leurs pratiques.
  • Les exigences qui étaient proposées en matière de consentement étaient particulièrement poussées, même par rapport aux règles sur la protection de la vie privée en vigueur en Union européenne, qui sont reconnues pour être parmi les plus sévères du monde.

Face aux réactions de l’industrie, le Commissariat a fini par se rétracter, mais pour moins longtemps qu’on le pense, affirme Ian Russel.

Le gouvernement fédéral s’implique

Le gouvernement fédéral se penche également sur la question. Il a déjà lancé un appel à commentaires sur les changements à la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE) qu’il propose. Parmi ces changements, on retrouve, entre autres, des règlements sur la circulation transfrontalière des données.

Les changements visent à améliorer le contrôle sur les renseignements personnels, à harmoniser davantage les lois sur la protection de la vie privée dans le pays et avec l’Union européenne, mais pourraient avoir un gros impact pour les acteurs du secteur financier.

Parmi les changements les plus importants apportés à LPRPDE, il y a notamment :

  • Exiger des organisations qu’elles fournissent aux individus des informations précises dans un langage clair de l’utilisation qu’elle prévoit faire de leurs renseignements personnels;
  • Interdire le regroupement du consentement dans le cadre d’un contrat;
  • Que les clients soient informés de l’utilisation de processus décisionnels automatisés, des facteurs ayant une incidence sur la décision et de la logique sur laquelle la décision est fondée;
  • Que les pratiques soient plus transparentes et que les organisations démontrent qu’elles agissent de manière responsable notamment dans le contexte de la circulation transfrontalière des données;
  • Accorder explicitement aux individus le droit de demander que leurs renseignements soient transmis d’une organisation à une autre dans un format numérique normalisé, si un tel format existe;
  • Accorder davantage de pouvoir au Commissariat pour la mise en application de la LPRPDE;
  • Que les individus puissent demander de supprimer leurs renseignements personnels, sous certaines réserves;
  • Exiger des organisations qu’elles informent les autres organisations auxquelles les renseignements ont été communiqués de la modification ou la suppression de ceux-ci.

« Tout cela augmentera beaucoup le coût du capital et les frais d’exploitation des sociétés de courtage tout en engageant davantage leurs responsabilités », note Ian Russel dans sa lettre.

Selon lui, le secteur des valeurs mobilières devra intervenir rapidement dans les prochains mois pour faire en sorte que les règles proposées soient « pratiques, absolument nécessaires, basées sur le bon sens et qu’il n’y ait pas de chevauchement avec la réglementation sur les valeurs mobilières ».

Il propose que le Commissariat collabore avec les régulateurs financiers et les institutions assujetties à la loi pour coordonner la mise en application de la réglementation. Mais il estime que les règles proposées par le gouvernement devront être instaurées progressivement sur une longue période afin d’en réaliser les objectifs.

L’article La loi sur la protection de la vie privée devrait se durcir est apparu en premier sur Finance et Investissement.

]]>