[ad_1]
Le gouverneur Lael Brainard de la Réserve fédérale américaine récemment A prononcé un discours en soulignant l’importance de l’équité et de la gouvernance responsable lors de l’utilisation de l’apprentissage automatique pour prendre des décisions face aux consommateurs. Alors que le discours a été prononcé dans le cadre d’un colloque sur l’utilisation responsable ML dans les services financiers, elle a mentionné que l’intégration de l’explicabilité et de la responsabilité dans les modèles est primordiale tous les domaines dans lequel l’apprentissage automatique est utilisé.
Le discours du gouverneur Brainard souligne l’importance de la mise en œuvre la gouvernance pour tous vos efforts d’apprentissage automatique, en particulier, mais sans s’y limiter, ceux des secteurs hautement réglementés tels que la banque, l’assurance et la santé.
L’un des principaux points à retenir du discours est que le ML représente une nouvelle frontière pour la prise de décision automatisée, et les régulateurs reconsidèrent et adaptent rapidement leurs politiques à la lumière de ce changement de paradigme. Elle a mentionné que plus de 45 millions d’Américains n’ont pas de pointage de crédit ou n’ont pas suffisamment de données personnelles récentes pour permettre de générer un score mis à jour. Selon le Consumer Financial Protection Bureau, la majorité des Américains qui correspondent à ce profil sont noirs ou hispaniques. En raison de ce déséquilibre dans le système existant, poursuit-elle, il est crucial que des modèles soient générés afin de remédier, ou du moins ne pas aggraver, ce biais existant. C’est un point auquel les régulateurs sont attentifs et ne prennent pas à la légère. Un modèle efficace doit prendre en compte les biais sur lesquels il est formé.
Cependant, de nombreux modèles ne parviennent pas à faire exactement cela. Le gouverneur Brainard a mentionné que les modèles modernes complexes d’apprentissage en profondeur, tels que les réseaux de neurones, fonctionnent souvent comme des «boîtes noires». Autrement dit, ils prennent des décisions en prenant des données et en crachant des prédictions. Pourtant, il n’y a souvent aucun aperçu du processus par lequel ils le font, à moins que des modèles spécifiques conçus pour l’explicabilité ne soient utilisés. Dans le cas où des décisions sont prises qui ont un impact sur la vie des gens sur la base des résultats d’un modèle, le gouverneur Brainard a noté qu’il est crucial et parfois même légalement mandaté d’avoir un aperçu du processus de prise de décision. Par exemple, «les lois sur la protection des consommateurs exigent des prêteurs qui refusent d’offrir un crédit à la consommation – ou d’offrir un crédit à des conditions matériellement moins bonnes que celles offertes aux autres – de fournir au consommateur une explication des raisons de la décision.
Ce n’est pas seulement l’opacité des modèles de ML qui peut entraîner des problèmes pour les entreprises. Souvent, les modèles présentent des biais en raison des données sur lesquelles ils sont formés, en particulier lorsque ces données reflètent des préjugés humains préexistants, mais pas immédiatement évidents. Pour cette raison, il est important de revoir constamment les données utilisées pour entraîner un modèle et de l’ajuster de manière à contrer les biais. Cela peut souvent signifier une formation sur différentes itérations d’un ensemble de données dans le cadre de la MLOps processus, pour lequel il est crucial de pouvoir suivre les différentes versions de données et de modèles. Ce n’est qu’en se concentrant sur la minimisation des biais dans les modèles que des résultats véritablement équitables peuvent être obtenus pour le consommateur.
Le gouverneur Brainard a également mentionné que des problèmes objectifs de qualité du modèle peuvent introduire des erreurs dans les prédictions qui affectent l’utilisateur final. Modèles inexacts résultant de dérive du modèle, une mauvaise généralisation ou d’autres divergences peuvent conduire à de mauvaises décisions qui nuisent aux consommateurs. Une fois de plus, une gouvernance efficace et responsable du ML est essentielle pour détecter ces erreurs avant qu’elles ne se produisent.
Le gouverneur a conclu son discours en admettant qu’il y a place à l’amélioration des deux côtés de l’allée. Pour leur part, les régulateurs et les agences fédérales telles que le Trésor et la Réserve fédérale s’efforceront de fournir des précisions supplémentaires en matière de surveillance sur les meilleures pratiques et les critères pour une utilisation responsable des modèles de BC. Dans le même temps, on s’attend également à ce que les entreprises qui facilitent les décisions importantes au nom du consommateur mettent en œuvre des politiques robustes, résilientes et efficaces qui protègent contre l’échec du modèle, l’opacité, la partialité et l’inexactitude.
Ce discours est venu à un moment opportun dans l’industrie; comme notre Tendances des entreprises en 2021 dans l’apprentissage automatique rapport révélée, d’année en année, 83% des organisations ont augmenté leurs budgets IA / ML d’une année sur l’autre et le nombre moyen de data scientists employés a augmenté de 76%. Il est impératif que, à mesure que de plus en plus d’entreprises investissent dans le ML, elles mettent également en œuvre des processus de gouvernance efficaces. Cela aidera les entreprises à produire des résultats positifs du ML, tout en minimisant les risques pour l’entreprise.
Pour savoir comment mettre en œuvre une stratégie complète de gouvernance ML pour votre entreprise, téléchargez notre nouveau livre blanc sur les 7 étapes d’une gouvernance efficace.