Les entreprises financières se tournent vers l’IA pour lutter contre la fraude en 2021

Actualités de de l'Intelligence Artificielle - Machine Learning - Objets connectés

Les entreprises financières se tournent vers l’IA pour lutter contre la fraude en 2021



Les banques utilisent davantage de techniques d’IA pour lutter contre la fraude et le blanchiment d’argent, des crimes qui coûtent des milliards aux banques chaque année. (Crédit: Getty Images)

Par AI Trends Staff

L’utilisation de l’IA pour lutter contre la fraude financièreen interne et en externeest un sujet brûlant.

«L’IA est l’avenir de la gestion de la fraude, quel que soit le système que vous utilisez», a déclaré Svetlana Belyalova, responsable de la gestion des risques opérationnels chez Rosbank, Groupe Société Générale, lors d’un récent webcast animé par Risk.net. «Cela apporte beaucoup de valeur à la fois à la gestion des données et à la prise de décision.»

Svetlana Belyalova, responsable de la gestion des risques opérationnels chez Rosbank, Groupe Société Générale

La maturité d’une entreprise et les processus opérationnels de gestion de la fraude sont essentiels pour sélectionner la technologie qui lui conviendra, a suggéré Belyalova. Les entreprises qui avaient adopté une approche plus cloisonnée en adaptant la technologie à un certain type de fraude souhaitent désormais adopter une approche plus holistique et exploiter les capacités d’IA des systèmes de fraude.

«Ce que nous devons vraiment mieux savoir, c’est comment gérer ces capacités d’IA dans notre environnement en temps réelcomment les rendre plus efficaces et comment faire en sorte que ces systèmes apprennent de nos [ever-evolving] situations quotidiennes », a-t-elle déclaré.

Amir Shachar, scientifique en chef des données de recherche sur la fraude chez NICE Actimize

Alors que les capacités de l’IA auraient pu être «agréables à avoir» parmi les outils utilisés par les institutions financières pour lutter contre la fraude, aujourd’hui, «l’IA devient un incontournable pour que les analystes décident si les transactions sont frauduleuses, a déclaré Amir Shachar, spécialiste des données de recherche sur la fraude NICE Actimize de Raanana, Israël, un fournisseur de logiciels pour lutter contre la criminalité financière et assurer la conformité. NICE, pour Neptune Intelligence Computer Engineering, a été fondée par sept anciens collègues de l’armée israélienne.

La lutte contre la fraude avec les nouvelles technologies en est à ses débuts dans le secteur bancaire. Certains utilisateurs précoces ont mis en œuvre des plates-formes avancées intégrant l’IA, et d’autres dépendent toujours de systèmes plus anciens et de processus existants. Le chef du groupe des risques opérationnels chez Allied Irish Bank, Charles Forde, a encouragé les premiers utilisateurs à parler de ce qui fonctionne et de ce qui ne fonctionne pas, afin que d’autres banques puissent apprendre et tirer les meilleures pratiques.

Il ne s’agirait pas seulement des technologies utilisées, mais également des approches et des modèles de fonctionnement utilisés. «Je pense qu’il y a encore de grandes différences entre les différentes entreprises dans la façon dont les technologies sont appliquées et dans le modèle opérationnel», a-t-il déclaré. «Dans certaines entreprises, tout est principalement en première ligne. Dans certains, la concentration des connaissances est en deuxième ligne. En fin de compte, cette activité doit se situer à côté de l’entreprise qu’elle soutient, quel que soit le type d’entreprise dans laquelle vous vous trouvez. »

La fraude bancaire coûte au moins 7,1 milliards de dollars par an

Il est difficile de mesurer le coût de la fraude bancaire. Le rapport 2018 de l’Association of Certified Fraud Examiners (ACFE) aux Nations a révélé que les pertes totales causées par la fraude dépassaient 7,1 milliards de dollars. Cependant, ce ne sont que des pertes connues. L’ACFE affirme que ce chiffre est loin de représenter le montant total des pertes dues à la fraude et que le véritable coût global de la fraude est probablement « magnitudes plus élevées«  en raison de coûts indirects et non détectés.

KPMG ‘s L’enquête de 2019 sur la fraude bancaire dans le monde, avec les réponses de 43 banques du monde entier, a révélé que 52% des banques ne surveillaient pas le coût total de la gestion des risques de fraude, selon un récent rapport de fcase, un centre d’agrégation de données prenant en charge les services de gestion de la fraude, basé à Londres.

Un modèle de gestion du risque de fraude est un cadre décrivant tous les processus liés à la manière dont la fraude peut être identifiée, évaluée, atténuée, surveillée et signalée à la haute direction.

Un modèle efficace de gestion des risques de fraude doit renforcer la sensibilisation aux risques, la responsabilité et la transparence dans la manière dont la fraude est activement gérée par les banques et les institutions financières, suggère le rapport. Selon Deloitte, cela permet aux organisations d’avoir des contrôles qui empêchent dans un premier temps la fraude, détecte la fraude dès qu’elle se produit et réagit enfin efficacement aux incidents de fraude.

L’Association of Certified Fraud Examiners (ACFE) déclare que pour qu’une approche de gestion des risques de fraude fonctionne correctement, elle doit être proactive plutôt que réactive.

KPMG a constaté des différences majeures dans lesquelles les parties internes étaient responsables de la définition de la tolérance au risque de fraude pour l’organisation, 52% disant que cela a été fait par leur conseil d’administration / comité des risques. «Cela montre qu’il reste encore beaucoup à faire», indique le rapport. «L’activité de fraude augmentant à un rythme rapide et coûtant des milliards de dollars chaque année aux banques et aux institutions financières, les bons modèles opérationnels de gestion des risques de fraude peuvent aider à gérer les dommages causés par les fraudeurs.

L’intelligence artificielle considérée comme un investissement rentable pour lutter contre la fraude par les banques interrogées

L’utilisation de l’IA et de l’apprentissage automatique pour lutter contre la fraude et le blanchiment d’argent a été considérée comme un investissement rentable dans une enquête sur les banques qui ont investi dans l’IA menée par la société d’analyse Ovum. Plus de 80% pense que l’investissement dans l’IA a généré un retour sur investissement, selon un rapport sur le blog de FICO, la société d’analyse de données basée à San Jose.

Julie Conroy, directrice de la pratique Fraude et LBC, Aite Group

L’IA est également employée par les attaquants. «Pendant que nous nous réunissons pour discuter de la manière de lutter contre la fraude et la criminalité financière, ailleurs, les criminels organisent leurs propres conférences pour planifier leurs attaques», a déclaré Julie Conroy, directrice de la pratique Fraude et AML chez Aite Group, des chercheurs de marché basés à Boston. , lors d’une récente conférence de Finovate, une société de conférence axée sur la technologie bancaire et financière.

Conroy a souligné que la fraude et le blanchiment d’argent finançaient certains des pires crimes auxquels la société est confrontée, notamment la traite des êtres humains et le terrorisme., et les opérations des cartels de la drogue.

Les banques qui investissent dans les équipes de science des données doivent également leur fournir les outils pour opérationnaliser le travail qu’elles ont effectué, a suggéré Doug Clare, qui supervise les solutions de fraude et de conformité de FICO, lors de la conférence Finovate, la criminalité financière qu’ils voient et mettent rapidement en œuvre les modèles qu’ils développent », a-t-il déclaré. «Sans investissement dans les bonnes plates-formes, ils ne peuvent pas faire cela.»

L’IA utilisée par les banques doit également être explicable. «Les organisations qui déploient l’intelligence artificielle et l’apprentissage automatique pour détecter la fraude et le blanchiment d’argent doivent donc veiller à ce que les modèles qu’elles utilisent ne soient pas une« boîte noire »», a déclaré Sarah Rutherford, directrice principale de FICO et auteur du récent article de blog.

Les modèles d’IA ne sont pas infaillibles. En tant que Chief Analytics Officer de FICO Scott Zoldi déclaré dans son message «  La Banque d’Angleterre valide le besoin d’une IA explicable  » la taille et la complexité de ces modèles rendent difficile l’explication de leurs processus d’exploitation aux gens. Zoldi décrit les techniques en cours de développement pour rendre l’IA explicable, pour ceux qui utilisent les bons modèles.

Lisez les articles sources dans Risk.net, de fcase et le FICO Blog.