À mesure que les modèles d’intelligence artificielle (IA) se multiplient dans le secteur financier, tant chez les investisseurs que chez les décideurs publics, de nouvelles recherches du Conseil des gouverneurs de la Réserve fédérale des États-Unis (Fed) montrent qu’ils tendent à se comporter comme des humains dans la prise de décisions économiques simples, tout en demeurant facilement influençables.
Dans un nouveau document de travail du personnel, des chercheurs de la Fed examinent la manière dont les modèles d’IA prennent des décisions économiques.
« À mesure que les grands modèles de langage assument des rôles en matière de conseil financier, de négociation et d’analyse des politiques publiques, la compréhension de leurs objectifs implicites devient aussi importante que celle de leur exactitude », souligne le document.
Par exemple, un modèle qui est un bon outil de prévision, mais qui présente certains biais décisionnels, « pourrait effectuer des choix inattendus ou sous-optimaux du point de vue de l’utilisateur du modèle », indiquent les auteurs.
Pour évaluer la prise de décision des modèles, les chercheurs ont recours à des expériences classiques issues de la théorie des jeux. Ils constatent que les modèles se comportent souvent de manière très similaire aux humains dans des expériences comparables.
Ainsi, dans des jeux où un modèle doit répartir une somme donnée entre lui-même et une autre partie, les chercheurs observent que « la plupart des modèles proposent un partage presque égal, même dans des situations où un agent strictement intéressé par son propre gain ne partagerait pas ».
Ces résultats correspondent largement à ceux observés dans les expériences menées auprès d’humains. En fait, les modèles ont démontré « une aversion encore plus marquée à l’égard des résultats inéquitables que ce que suggèrent habituellement les données humaines », notent les chercheurs.
Toutefois, l’étude conclut également que cette « apparente équité est fragile : lorsque le contexte économique de la tâche est masqué ou reformulé, les allocations évoluent vers des comportements plus intéressés ».
Par exemple, les chercheurs ont constaté que « présenter une décision comme un échange de devises plutôt que comme une allocation de ressources […] peut modifier le comportement de façon systématique ».
Selon le document, ces changements de comportement sont plus prononcés dans des jeux simples et ponctuels de répartition que dans des tâches plus complexes.
« Dans ces environnements dynamiques, les préférences des modèles semblent moins stables et davantage influencées par le hasard ou par des indices propres au contexte », précise le rapport.
En définitive, l’étude conclut que les modèles d’IA « ne sont pas de simples outils de calcul neutres, mais présentent plutôt des tendances comportementales structurées et quantifiables », des tendances qui sont flexibles, plutôt que figées.
Par conséquent, les auteurs estiment qu’« il existe un besoin clair d’outils de diagnostic plus performants afin d’identifier et d’ajuster les objectifs que les modèles poursuivent implicitement ».