Les robots auront-ils une éthique?
ktsdesign / 123rf

Michel Mailloux, planificateur financier et président de Déontologie.ca, a sensibilisé les participants au Colloque en finance, mardi, à cet enjeu trop souvent ignoré et qui semble soulever plus de questions que de réponses.

« Les robots attaquent. Croyez-vous qu’ils offrent un service-conseil éthique? Non! C’est avant tout l’automatisation de la gestion et du rééquilibrage du portefeuille au moyen d’un algorithme afin de faire correspondre l’investissement au profil de risque du client. »

Selon Michel Mailloux, les robots actuels n’offrent que des services techniques et ne font appel à aucun jugement professionnel. Il s’agit plutôt de cobot, anglicisme pour désigner un robot qui collabore avec un humain ou collaborative robot.

Pourquoi alors se soucier d’éthique si actuellement un humain ou une firme est responsable de ce qu’il offre au client? Parce qu’on est, « à un algorithme près » de voir naître un vrai robot financier qui devra avoir un encadrement éthique, selon le conférencier. Voici quelques bonnes questions à se poser d’ici là.

1. Qui éduquera les robots?

Pour programmer son logiciel Watson, d’IBM, Citigroup a jumelé un conseiller et un informaticien afin d’enseigner au robot les comportements souhaités.

Le risque est que le conseiller-enseignant agisse selon différentes formes d’éthiques. En effet, selon Michel Mailloux, il existe trois principales formes. L’éthique déontologique porte sur l’évaluation morale des actions selon le respect de normes professionnelles. L’éthique des conséquences porte sur l’évaluation des actions selon qu’elles contribuent à améliorer l’état du monde. Et l’éthique de la vertu fait porter l’évaluation morale sur les personnes. Selon cette dernière forme, un geste peut être éthique ou non selon l’intention de son auteur.

Lire aussi – Conseillers-robots: une industrie canadienne homogène

Même si les régulateurs prônent l’éthique déontologique, les conseillers « utilisent de façon plus pondérée ces deux autres éthiques », dit Michel Mailloux.

Il donne l’exemple d’une jeune trentenaire célibataire gagnant un revenu au-dessus de la moyenne, ayant un excellent régime de retraite et un profil conservateur sans perte de capital.

« Si vous la servez en fonction de l’équipe de la vertu. Vous jugez ce qui est le meilleur pour la cliente. C’est votre intention et vous recommandez un fonds cycle de vie qui est dynamique. Si vous agissez sur l’éthique des conséquences, vous lui offrez un CPG ou un fonds distinct parce que je lui garantis qu’elle ne perdra pas de capital. Vous répondez à ce qu’elle veut et la conséquence qu’elle veut éviter, c’est de perdre de l’argent, explique Michel Mailloux. En déontologie, parce que j’ai bâti un profil conservateur, je dois lui donner un fonds conservateur. L’éthique qui va être donnée au robot va influencer les réponses du robot. Ce n’est pas neutre. C’est un domaine où vous (les conseillers humains) avez un avantage sur les robots. »

2. Un robot est-il meilleur qu’un conseiller?

Dans certains cas, la réponse est oui, notamment dans l’analyse grande quantité de produits ou dans l’analyse de besoin financier, selon Michel Mailloux.

« Un robot ne va pas détourner les fonds de ses clients car il a besoin d’argent pour se payer un weekend de voyage? », note-t-il.

Dans d’autres situations, le conseiller en chair et en os est meilleur. C’est le cas notamment lorsque vient le temps d’appliquer les concepts de finance comportementale et de coaching financier, tout comme l’analyse de l’aversion au risque d’un client ou l’analyse de la rétroaction donnée par un client.

Michel Mailloux a examiné les forces et les faiblesses des conseillers et des robots en fonction de huit éléments qui constituent les normes consensuelles de gestion patrimoniale. Le robot déclasse l’humain dans la moitié de ces éléments, si bien que l’humain déclasse le robot dans l’autre moitié.

L’équipe humain-robot, elle, permet de pallier à la fois les plus grandes faiblesses des humains et des robots.

3. Le robot devrait-il être diplômé?

Si un conseiller doit suivre plusieurs formations avant d’obtenir un titre, il pourrait être pertinent qu’un robot soit aussi diplômé avant de pouvoir aider des clients, selon Michel Mailloux.

« Est-ce que les robots devraient passer des tests chaque année? demande-t-il. Le robot est en soi beaucoup plus risqué. Le robot A ne sera pas le même A, deux ans plus tard, car je vais lui avoir injecté des sous-outils différents depuis », dit Michel Mailloux.