{"id":354329,"date":"2024-06-05T18:20:00","date_gmt":"2024-06-05T22:20:00","guid":{"rendered":"https:\/\/www.cia-ica.ca\/news\/simplicite-interpretabilite-et-selection-efficace-des-variables-grace-a-la-regression-lasso\/"},"modified":"2024-10-02T09:20:33","modified_gmt":"2024-10-02T13:20:33","slug":"simplicite-interpretabilite-et-selection-efficace-des-variables-grace-a-la-regression-lasso","status":"publish","type":"news","link":"https:\/\/www.cia-ica.ca\/fr\/news\/simplicite-interpretabilite-et-selection-efficace-des-variables-grace-a-la-regression-lasso\/","title":{"rendered":"Simplicit\u00e9, interpr\u00e9tabilit\u00e9 et s\u00e9lection efficace des variables gr\u00e2ce \u00e0 la r\u00e9gression LASSO"},"content":{"rendered":"\n<p><strong><em>Par David Hatherell et Louis Rossouw<\/em><\/strong><\/p>\n\n\n\n<p>Ces derni\u00e8res ann\u00e9es, les champs de l\u2019apprentissage automatique, de l\u2019apprentissage profond et de l\u2019analytique avanc\u00e9e ont r\u00e9volutionn\u00e9 plusieurs domaines, notamment la mod\u00e9lisation de la mortalit\u00e9. Ces technologies dernier cri pr\u00e9sentent des avantages concrets, car elles am\u00e9liorent la pr\u00e9cision, l\u2019interpr\u00e9tabilit\u00e9 et l\u2019efficacit\u00e9 des mod\u00e8les pr\u00e9dictifs.<\/p>\n\n\n\n<p>Dans cet article, nous \u00e9tudions les concepts cl\u00e9s d\u2019une technique de ce genre \u2013 la r\u00e9gression LASSO (<em>Least Absolute Shrinkage and Selection Operator<\/em>) \u2013 et examinons ses avantages distinctifs. Par ailleurs, nous montrons comment la r\u00e9gression LASSO se d\u00e9marque en tant que technique puissante permettant de contourner les difficult\u00e9s courantes qu\u2019entra\u00eene l\u2019existence de plusieurs variables pr\u00e9dictives.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Comprendre la r\u00e9gression LASSO<\/h2>\n\n\n\n<p>La r\u00e9gression LASSO s\u2019appuie sur les principes de la r\u00e9gression lin\u00e9aire g\u00e9n\u00e9ralis\u00e9e, tout en introduisant un terme de r\u00e9gularisation qui am\u00e9liore la performance du mod\u00e8le. La technique cherche \u00e0 minimiser la formule suivante&nbsp;:<\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter size-full\"><img decoding=\"async\" src=\"https:\/\/www.cia-ica.ca\/app\/uploads\/2024\/10\/image-1-3.png\" alt=\"Formule d'\u00e9quation\" class=\"wp-image-4289\"\/><\/figure><\/div>\n\n\n<p>o\u00f9&nbsp;:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><em>y<\/em><sub>\u2148<\/sub> repr\u00e9sente la variable de r\u00e9ponse de la i<sup>e<\/sup> observation.<\/li>\n\n\n\n<li>\u03c7<sub><em>\u2148j<\/em><\/sub> repr\u00e9sente la j<sup>e<\/sup> valeur de la variable ind\u00e9pendante de la i<sup>e<\/sup> observation.<\/li>\n\n\n\n<li>\u03b2<sub><em>j<\/em><\/sub> repr\u00e9sente le coefficient de r\u00e9gression associ\u00e9 \u00e0 la j<sup>e<\/sup> valeur de la variable ind\u00e9pendante.<\/li>\n\n\n\n<li>\u03bb repr\u00e9sente le terme de r\u00e9gularisation.<\/li>\n<\/ul>\n\n\n\n<p>Dans les mod\u00e8les lin\u00e9aires g\u00e9n\u00e9ralis\u00e9s (MLG), nous estimons les coefficients suivant la m\u00e9thode des moindres carr\u00e9s ordinaires (MMCO). La technique LASSO ajoute un terme de p\u00e9nalit\u00e9 \u00e0 l\u2019\u00e9quation de la MMCO afin de minimiser l\u2019erreur. La p\u00e9nalit\u00e9 totale appliqu\u00e9e correspond \u00e0 la somme des valeurs absolues des coefficients, multipli\u00e9e par un certain lambda. Si le lambda a une valeur nulle, nous obtenons l\u2019\u00e9quation de la MMCO qui comprend toutes les variables de la formule des mod\u00e8les.<\/p>\n\n\n\n<p>L\u2019augmentation des coefficients fait tendre lambda vers z\u00e9ro et entra\u00eene la mise \u00e0 z\u00e9ro de certains de ces coefficients (supprimant de fait la variable du mod\u00e8le). De cette fa\u00e7on, le mod\u00e8le LASSO d\u00e9termine quelles variables ont une influence sur le r\u00e9sultat r\u00e9el en se fondant sur les donn\u00e9es fournies.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Validation crois\u00e9e<\/h2>\n\n\n\n<p>La validation crois\u00e9e est couramment utilis\u00e9e par diverses techniques d\u2019apprentissage automatique pour \u00e9valuer et \u00e9tablir des hyperparam\u00e8tres sans utiliser de donn\u00e9es r\u00e9serv\u00e9es ou donn\u00e9es de test distinctes. Cela vise \u00e0 r\u00e9duire le risque de surajustement des donn\u00e9es. La validation crois\u00e9e suit les \u00e9tapes suivantes&nbsp;:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li>Diviser les donn\u00e9es d\u2019entra\u00eenement en plusieurs blocs (disons cinq).<\/li>\n\n\n\n<li>Ajuster un mod\u00e8le \u00e0 quatre blocs de donn\u00e9es et effectuer la validation au moyen du cinqui\u00e8me.<\/li>\n\n\n\n<li>R\u00e9p\u00e9ter le processus jusqu\u2019\u00e0 ce que chaque bloc ait \u00e9t\u00e9 utilis\u00e9.<\/li>\n\n\n\n<li>Calculer la moyenne du terme d\u2019erreur sur la totalit\u00e9 des blocs.<\/li>\n<\/ol>\n\n\n\n<p>Dans le cas de la r\u00e9gression LASSO avec validation crois\u00e9e, cette derni\u00e8re sert \u00e0 d\u00e9finir les param\u00e8tres lambda. Il en r\u00e9sulte des mod\u00e8les qui d\u00e9pendent du niveau et de la coh\u00e9rence des relations entre les donn\u00e9es. Par cons\u00e9quent, ces mod\u00e8les sont moins enclins au surajustement.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Trois avantages de la r\u00e9gression LASSO avec validation crois\u00e9e<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">S\u00e9lection de variables<\/h3>\n\n\n\n<p>En int\u00e9grant un terme de p\u00e9nalisation, la r\u00e9gression LASSO optimise conjointement deux aspects critiques&nbsp;:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li>Qualit\u00e9 de l\u2019ajustement&nbsp;: \u00e0 l\u2019instar des MLG, la r\u00e9gression LASSO vise l\u2019obtention d\u2019un bon ajustement aux donn\u00e9es.<\/li>\n\n\n\n<li>Structure des coefficients&nbsp;: la r\u00e9gression LASSO cherche une structure souhaitable pour les coefficients estim\u00e9s.<\/li>\n<\/ol>\n\n\n\n<p>La p\u00e9nalit\u00e9 incite certains coefficients \u00e0 diminuer et, dans certains cas, \u00e0 devenir nuls. Ce compromis fait en sorte que le mod\u00e8le conserve les variables les plus importantes et en \u00e9limine d\u2019autres. Le mod\u00e8le ainsi obtenu est plus simple, plus facile \u00e0 comprendre et moins enclin au surajustement.<\/p>\n\n\n\n<p>M\u00eame dans les cas o\u00f9 les donn\u00e9es comportent peu de variables, l\u2019int\u00e9gration d\u2019interactions entre les variables dans le mod\u00e8le peut conduire \u00e0 l\u2019existence de centaines, voire de milliers de variables uniques en interaction. La r\u00e9gression LASSO g\u00e8re bien les interactions entre les variables pr\u00e9dictives, y compris le traitement de la colin\u00e9arit\u00e9.<\/p>\n\n\n\n<p>Pour r\u00e9duire davantage le nombre de variables dans le mod\u00e8le, on peut d\u00e9lib\u00e9r\u00e9ment simplifier la r\u00e9gression LASSO en utilisant un lambda plus grand que celui que sugg\u00e8re la validation crois\u00e9e, ce qui peut \u00eatre souhaitable dans certains cas.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Consid\u00e9ration des hypoth\u00e8ses existantes<\/h3>\n\n\n\n<p>En utilisant comme point de d\u00e9part une table de mortalit\u00e9 existante, les mod\u00e8les LASSO peuvent int\u00e9grer des hypoth\u00e8ses existantes. L\u2019utilisation d\u2019une valeur lambda, \u00e9tablie par validation crois\u00e9e, produit un mod\u00e8le qui met en balance les hypoth\u00e8ses existantes et les donn\u00e9es. Ce mod\u00e8le s\u2019ajuste au plus pr\u00e8s des donn\u00e9es statistiques, lorsqu\u2019elles sont suffisamment nombreuses, et au plus pr\u00e8s des hypoth\u00e8ses existantes, lorsque les donn\u00e9es statistiques sont peu nombreuses.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Interpr\u00e9tabilit\u00e9<\/h3>\n\n\n\n<p>En plus d\u2019avoir moins de coefficients, la r\u00e9gression LASSO produit des r\u00e9sultats sous une forme semblable \u00e0 celle des MLG. Cette coh\u00e9rence est avantageuse pour les actuaires qui connaissent d\u00e9j\u00e0 bien les MLG. En fournissant une formule interpr\u00e9table pour g\u00e9n\u00e9rer des pr\u00e9dictions, la r\u00e9gression LASSO permet aux sp\u00e9cialistes de bien comprendre les principaux facteurs qui sous-tendent les pr\u00e9dictions du mod\u00e8le, \u00e9vitant ainsi la complexit\u00e9 des \u00ab&nbsp;mod\u00e8les en bo\u00eete noire&nbsp;\u00bb.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">En r\u00e9sum\u00e9<\/h2>\n\n\n\n<p>La r\u00e9gression LASSO combine les avantages des m\u00e9thodes avanc\u00e9es d\u2019apprentissage automatique et la simplicit\u00e9 des MLG. Elle permet de s\u00e9lectionner efficacement des variables parmi une multitude de possibilit\u00e9s, tout en consid\u00e9rant les hypoth\u00e8ses existantes. Le terme de p\u00e9nalit\u00e9 fait en sorte que seuls les coefficients pertinents sont inclus pour les variables ayant suffisamment de donn\u00e9es \u00e0 l\u2019appui.<\/p>\n\n\n\n<p>Pour l\u2019essentiel, disons que la r\u00e9gression LASSO pousse \u00e0 l\u2019utilisation de mod\u00e8les simples dans lesquels seules les variables les plus importantes contribuent de fa\u00e7on significative aux r\u00e9sultats. Ces mod\u00e8les ont des coefficients que les actuaires peuvent facilement interpr\u00e9ter et utiliser pour \u00e9tablir des hypoth\u00e8ses.<\/p>\n\n\n\n<p><em>Cet article pr\u00e9sente l\u2019opinion de ses auteurs et ne constitue pas un \u00e9nonc\u00e9 officiel de l\u2019ICA.<\/em><\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Ouvrage de r\u00e9f\u00e9rence<\/h2>\n\n\n\n<p>TIBSHIRANI, Robert. \u00ab <a href=\"https:\/\/rss.onlinelibrary.wiley.com\/doi\/10.1111\/j.2517-6161.1996.tb02080.x\" target=\"_blank\" rel=\"noopener\" title=\"\">Regression Shrinkage and Selection via the Lasso<\/a> \u00bb, <em>Journal of the Royal Statistical Society<\/em>,s\u00e9rie B (m\u00e9thodologique),1996,vol.&nbsp;58, n<sup>o<\/sup>&nbsp;1, p.&nbsp;267-288.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Ces derni\u00e8res ann\u00e9es, les champs de l\u2019apprentissage automatique, de l\u2019apprentissage profond et de l\u2019analytique avanc\u00e9e ont r\u00e9volutionn\u00e9 plusieurs domaines, notamment la mod\u00e9lisation de la mortalit\u00e9. Ces technologies dernier cri pr\u00e9sentent des avantages concrets, car elles am\u00e9liorent la pr\u00e9cision, l\u2019interpr\u00e9tabilit\u00e9 et l\u2019efficacit\u00e9 des mod\u00e8les pr\u00e9dictifs.<\/p>\n","protected":false},"author":23331,"featured_media":353221,"template":"","meta":{"_acf_changed":false,"ep_exclude_from_search":false,"wicket_organization":""},"news-category":[308],"news-topic":[293],"class_list":["post-354329","news","type-news","status-publish","has-post-thumbnail","hentry","news-category-articles-fr","news-topic-science-des-onnees"],"acf":[],"_links":{"self":[{"href":"https:\/\/www.cia-ica.ca\/fr\/wp-json\/wp\/v2\/news\/354329","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.cia-ica.ca\/fr\/wp-json\/wp\/v2\/news"}],"about":[{"href":"https:\/\/www.cia-ica.ca\/fr\/wp-json\/wp\/v2\/types\/news"}],"author":[{"embeddable":true,"href":"https:\/\/www.cia-ica.ca\/fr\/wp-json\/wp\/v2\/users\/23331"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.cia-ica.ca\/fr\/wp-json\/wp\/v2\/media\/353221"}],"wp:attachment":[{"href":"https:\/\/www.cia-ica.ca\/fr\/wp-json\/wp\/v2\/media?parent=354329"}],"wp:term":[{"taxonomy":"news-category","embeddable":true,"href":"https:\/\/www.cia-ica.ca\/fr\/wp-json\/wp\/v2\/news-category?post=354329"},{"taxonomy":"news-topic","embeddable":true,"href":"https:\/\/www.cia-ica.ca\/fr\/wp-json\/wp\/v2\/news-topic?post=354329"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}