À l’aube de cette nouvelle année, nous sommes toujours captivés par les conversations portant sur l’intelligence artificielle, particulièrement en raison de son application de plus en plus fréquente par le biais d’outils tels que ChatGPT et Copilot. Des collaborateurs de l’ICA ont déjà abordé l’IA de divers angles (notamment les principes et la réglementation de l’IA en général, son incidence sur l’actuariat et l’utilisation de l’IA et la formation en la matière pour les actuaires). Je voulais toutefois y ajouter un nouveau point de vue, c’est-à-dire celui de quelqu’un qui n’en connaît absolument pas le fonctionnement, mais qui a réfléchi à savoir si la profession actuarielle devrait s’en inquiéter.
En préambule, je devrais mentionner que l’univers de l’IA grouille d’activité, non seulement au chapitre du développement, mais également en ce qui concerne les types de contraintes – d’ordre éthique et autres – qui devraient être mises en place. Si vous désirez en savoir plus au sujet de ce qui se passe dans ce domaine, je vous invite à prendre connaissance des articles susmentionnés, ainsi que d’autres sources énumérées dans cette note de bas de page[1], parce qu’il n’en sera pas question dans cet article.
La difficulté de l’IA sur le plan de l’exactitude et du contexte
Mon point de vue ici est plutôt celui d’un piéton, à savoir l’interaction qu’aura la personne moyenne avec l’IA. Comme bien d’autres utilisateurs, j’ai d’abord été intrigué par ChatGPT, qui peut vous produire en un clin d’œil une dissertation ou un article sur le thème de votre choix. Ce genre de technologie, à laquelle on a accès d’un simple clic, permet d’économiser temps et effort lorsque l’on doit produire du contenu. Je me suis donc, bien entendu, prêté au jeu.
Pour ce faire, je me suis servi d’un de mes intérêts personnels obscurs. J’ai demandé à ChatGPT de me parler des cartes de hockey Topps produites pour la saison 1964-1965 de la LNH (110 cartes « tall boys » – si vous les avez vues, vous savez de quoi je parle). J’ai obtenu sur-le-champ une description très bien écrite de la collection. Celle-ci comportait également des erreurs factuelles importantes. ChatGPT semblait croire que les cartes présentaient des autographes reproduits (ce qui n’était pas le cas), que l’endos était imprimé à l’encre rouge et bleu (rouge et noir, dans les faits) et qu’elles comportaient une partie à gratter avec une pièce de monnaie, qui sont apparues qu’au cours de la saison suivante de la LNH. Croyez-le ou non, il s’agissait d’une amélioration! Plus tôt en 2024, ChatGPT croyait que les photos figurant sur les cartes étaient en noir et blanc (hein?) et que la collection contenait la carte de recrue de Bobby Orr (deux ans trop tôt).
Et après, vous me direz, est-ce si grave? ChatGPT a commis quelques erreurs factuelles au sujet d’une collection sportive obscure. J’ai tenté, par cet exemple, de démontrer que les faits présentés ne semblent pas faire l’objet d’une contre-vérification. Il me semble que cette capacité de vérifier l’exactitude de ses affirmations constitue un processus important auquel nous, humains, nous soumettons, mais que l’IA néglige à l’heure actuelle. Lorsque je rédige un courriel, je procède toujours à une relecture avant de l’envoyer, à la recherche d’éventuelles erreurs. ChatGPT ne procède manifestement pas à une telle vérification. Et comment le pourrait-il? Sur Internet, la désinformation est dans bien des cas présentée comme de l’information réelle. Je ne vois pas très bien comment un algorithme est en mesure de déterminer ce qui est exact et ce qui ne l’est pas.
En notre qualité d’actuaires, nous sommes maîtres dans l’art de conjuguer des renseignements issus de données avec le jugement professionnel, une compétence qui demeure exclusive aux humains.
Les limites de la créativité de l’IA
Le texte généré par l’IA est, disons-le, plutôt ennuyeux. On dirait un texte rédigé par une machine, ce qui est le cas, n’est-ce pas! Je lisais des passages provenant de ChatGPT et ceux-ci me rappelaient cette personne que nous connaissons tous qui est capable de parler avec éloquence d’un sujet en tenant un propos sans substance. Une excellente forme, mais pas vraiment de contenu.
Mais, direz-vous, cela n’est pas important lorsque nous demandons à ChatGPT de produire quelques paragraphes d’information. Après tout, nous voulons seulement quelques mots et non pas quelque chose qu’Albert Camus aurait pu écrire. En effet, ça peut faire l’affaire, à condition de se limiter à cela. Mais l’IA s’insinue aussi dans d’autres domaines.
Vous vous souviendrez peut-être du lancement, en 2023, d’une « nouvelle » chanson des Beatles, « Now and Then », produite avec l’aide de l’IA. On pourrait croire qu’un tel événement susciterait l’enthousiasme chez les gens comme moi, dont les goûts musicaux sont enracinés solidement vers la fin des années 1960 et le début des années 1970 (et pour cause). Mais le produit fini m’a déçu. Il m’a fallu quelques minutes pour comprendre pourquoi, mais j’ai fini par me rendre compte que le rendu correspondait davantage à celui d’un enregistrement de 2023, dépourvu des influences de la période qui rendait la musique pop si créative et attrayante.
Autrement dit, c’est ce à quoi les Beatles pourraient s’apparenter si les Beatles n’avaient pas existé. (Merci à l’IA de m’avoir fait rédiger une phrase aussi floue.)
En fin de compte, si l’IA est en mesure d’imiter la structure et la forme, elle demeure dépourvue de la profondeur (et de l’âme) que l’on doit à la créativité humaine et qu’aucune machine n’est vraiment en mesure de reproduire.
Responsabilité et discernement humain
Vous pourriez considérer les critiques précédentes comme mineures, comme des objections à une technologie très impressionnante – encore naissante – de la part de quelqu’un qui refuse d’évoluer avec son temps (d’ailleurs, c’était tellement mieux dans mon temps). Mais il y a d’autres considérations qui devraient nous faire réfléchir, notamment celle de la responsabilité.
Dans le cadre du travail, l’IA peut être un excellent outil pour économiser du temps, mais que se passe-t-il lorsqu’elle commet une erreur? Qui en assume la responsabilité? Nous aimons (lire : détestons) tous entendre un nouvel actuaire présenter des résultats qui semblent illogiques et défendre son travail en disant : « c’est ce que le modèle m’a donné ». Si vous vous fiez à l’IA pour, par exemple, prendre une décision de placement pour vous-même et que celle-ci s’avère mal avisée en fin de compte, la conversation se termine là, c’est-à-dire que vous ne pourrez pas obtenir d’explication, de justification, ni même d’excuses.
« Mais nous pouvons programmer l’IA de sorte qu’elle ne commette pas d’erreurs! »
Cet énoncé suppose qu’il existe une formule pour résoudre chaque problème, mais ce n’est pas le cas. En notre qualité d’actuaires, nous sommes mieux avisés et c’est là que se trouve l’intersection entre l’IA et la réalité de notre profession. Nous nous distinguons grâce à notre capacité d’appliquer notre discernement professionnel, d’assimiler des renseignements issus de diverses sources et de procéder à notre meilleure estimation. Pour ce faire, nous allions la capacité technique à des compétences plus intuitives. L’IA peut être entraînée à la capacité technique, mais je doute de ses capacités sur le plan intuitif.
Dans une autre optique, si vous effectuez une tâche qui suit une formule et un processus stricts, cette tâche peut (et devrait probablement) être remplacée par un algorithme. Mais ce n’est pas ce que font les actuaires. Le fait que l’éventail de la pratique actuarielle ne soit pas suffisamment étroit peut être frustrant, mais telle est la nature de notre domaine.
L’intelligence artificielle : un outil et non pas un substitut
Tous ces points ont un thème en commun, soit le fait que le facteur humain demeure essentiel. C’est ce qui nous permet à nous, actuaires, d’offrir des points de vue particuliers; c’est cette capacité d’évaluer divers éléments d’information, d’y réagir et de concevoir des recommandations et des solutions créatives. Oui, l’IA remplacera probablement certaines fonctions plus répétitives, mais nous sommes déjà passés par là.
Jadis, les actuaires passaient des heures à créer manuellement des tableaux des valeurs d’actualisation, un processus rendu obsolète par les programmes informatiques. Cette avancée a-t-elle mis au chômage des étudiants en actuariat? Bien sûr que non, parce que notre domaine est une science. La science s’assortit d’une source intarissable de choses à apprendre et à maîtriser, et tous les outils que nous élaborons nous aident simplement à passer plus rapidement au domaine d’investigation suivant.
Nous pouvons accueillir l’IA dans l’univers actuariel, mais il ne s’agit que d’un des nombreux outils qui sont à notre disposition et non pas d’un moyen de nous remplacer. Je suis tout à fait conscient du fait que nous n’en sommes qu’aux premiers pas, mais la reproduction du comportement humain et de la prise de décision par des humains sera un redoutable défi, d’autant plus que nous ne comprenons souvent même pas nous-mêmes ce comportement, même dans les meilleurs moments. Et n’oublions pas l’importance que revêt le facteur humain dans nos activités.
Après tout, je doute vraiment qu’un article rédigé par l’IA puisse arriver à réunir l’actuariat, les Beatles et les cartes de hockey. Voilà une chose dont nous devrions être reconnaissants.
Cet article reflète l’opinion de l’auteur et il ne représente pas une position officielle de l’ICA.