Un nombre croissant de clients se tournent vers des outils d’intelligence artificielle (IA) pour mieux comprendre les concepts financiers, obtenir des conseils, voire remettre en question les recommandations de leur conseiller. Comment réagir ?
Une récente étude de la fintech Betterment relayée par Financial Planning révèle que les millénariaux et la génération Z sont plus enclins que leurs aînés à utiliser l’IA pour gérer leurs finances personnelles. Plus de la moitié d’entre eux (53 %) déclarent utiliser l’IA pour obtenir des conseils financiers, dont 38 % de manière hebdomadaire. Et près de la moitié de ces utilisateurs affirment que l’IA les aide à prendre de meilleures décisions.
Pourtant ils demeurent prudents : seulement 30 % des répondants disent faire confiance à l’IA pour leurs finances et à peine 25 % accepteraient de lui confier leur portefeuille. Et ils ont raison, dit Matt Chancey, fondateur de Tax Alpha Companies. Il souligne que l’IA, si elle est fréquemment utilisée pour trouver réponse à des questions, peut toutefois se tromper, un phénomène appelé « hallucination », même si ses réponses sont de plus en plus précises.
De plus, en finance, un des principaux problèmes de l’IA réside dans le manque de personnalisation. La technologie offre souvent des conseils génériques, sans tenir compte des spécificités de chaque situation, soit parce que les questions sont mal formulées, soit parce que l’utilisateur ne sait pas interpréter les réponses.
Une conseillère indique quant à elle que certains clients copient-collent ses recommandations dans ChatGPT et reviennent avec des réponses générées par l’IA qui sont déconnectées du contexte réel voire carrément fausses.
Andrew Lo, directeur du Laboratoire d’ingénierie financière au Massachussetts Technology Institute (MIT), a étudié le sujet. Il signale dans Fortune que « suivre les conseils d’une IA dans des domaines comme la finance, la santé ou le droit peut être dangereux ». Le chercheur a documenté un cas où l’IA a inventé des noms d’auteurs pour justifier ses réponses. « Dans un contexte où chaque décision peut coûter cher, ces erreurs peuvent avoir des conséquences graves. »
Autre risque : l’absence de transparence. ChatGPT pourrait, par exemple, recommander d’investir dans Microsoft sans mentionner que l’entreprise a investi plus de 13 milliards de dollars dans OpenAI. Un conflit d’intérêts potentiel invisible pour l’utilisateur moyen.
Comment adopter l’IA intelligemment
Avant tout, les experts recommandent de bien gérer les attentes. Plutôt que de rejeter l’usage de l’IA par les clients, il vaut mieux le reconnaître, l’encadrer et en faire une occasion d’éducation financière ou encore l’utiliser pour renforcer le lien de confiance.
Ainsi, l’IA peut être un bon point de départ pour établir un budget ou améliorer un dossier de crédit. Cependant, la valeur ajoutée du conseil humain s’exprime lorsqu’il s’agit d’élaborer une stratégie personnalisée complexe, tenant compte par exemple d’héritages, d’aspects fiscaux ou de l’état de santé du client.
Michael Donnelly, directeur par intérim de la croissance chez CFP Board, estime que les conseillers qui intègrent l’IA comme outil pour automatiser certaines tâches répétitives et consacrer plus de temps aux relations clients auront une longueur d’avance. Ceux qui ignorent ou rejettent la technologie risquent plutôt de se faire dépasser, voire remplacer, estime-t-il.
Andrew Lo plaide pour une régulation plus stricte : « Aujourd’hui, l’IA fonctionne sans garde-fou. Il faut un encadrement similaire à celui qui s’applique aux produits financiers complexes. »
Pour rendre l’usage de l’IA plus sûr, il propose trois pistes concrètes :
- Former les investisseurs à détecter les erreurs potentielles de l’IA.
- Intégrer des mécanismes de sécurité dans les modèles eux-mêmes pour détecter les abus.
- Mettre en place une réglementation limitant certaines fonctionnalités selon le profil de l’utilisateur.