Formation management opérationnel
Le risque opérationnel pour les institutions financières (banques et assurances) est le risque de pertes directes ou indirectes dues à l’insuffisance ou l’échec des procédures de mise en place (procédure d’analyse ou de contrôle absentes ou incomplètes non garantis), le personnel (erreur, la méchanceté et la fraude), les systèmes internes (incendie ,…) panne d’ordinateur ou les risques externes (inondation, ,…). Selon la définition de Bâle II du risque opérationnel, les procédures à mettre en œuvre pour limiter et méthodes de quantification ont été normalisés. L’objectif de ce système, mis en œuvre dans les banques européennes en 2008, est d’éviter le risque systémique.
Les risques opérationnels ont augmenté de façon significative dans le contexte bancaire né de la déréglementation, de plus en plus l’imbrication des acteurs financiers, l’augmentation du capital traité et la sophistication des produits comme indiqué par l’entreprise et de la Barings Société Générale.
En vertu de l’accord de Bâle II a été défini les meilleures pratiques qui seront établis par chaque institution financière. Le régulateur financier national est chargé d’évaluer et de les contrôler. Les institutions financières peuvent opter pour une évaluation de ces risques plus ou moins sophistiqués.Depuis Bâle II, le risque opérationnel dans le calcul du capital réglementaire de la banque ayant un impact proportionnel à la qualité de ses procédures et ses activités de surveillance et d’évaluation.
Des mesures similaires à celles mises en œuvre dans le cadre de Bâle II sont définies pour les compagnies d’assurance en vertu de la réglementation Solvency II.
Définition du risque opérationnel
Le régulateur de l’accord de Bâle II définit le risque opérationnel que celui de pertes directes ou indirectes dues à l’insuffisance ou la défaillance de procédures, le personnel et les systèmes internes. Cette définition inclut le risque juridique; Toutefois, le risque de réputation (risque de perte découlant des dommages causés à la réputation de la banque) et le risque stratégique (risque de perte résultant de la décision stratégique de pauvres) ne sont pas inclus.
Cette définition englobe des erreurs humaines, la fraude et malice, les défaillances des systèmes d’information, les problèmes liés à la gestion du personnel, les litiges commerciaux, les accidents, incendies, inondations.
questions du risque opérationnel
Depuis le milieu de la dernière décennie, la connaissance des risques de crédit et de marché ont alimenté un débat plus large et la recherche ont été beaucoup.Normalement, ces travaux devraient avoir contribué à des progrès significatifs dans l’identification, la mesure et la gestion des risques au sein du système bancaire. Néanmoins, on ne peut pas éviter les questions sur l’impact réel de ces contributions, à la lumière des récents événements qui ont exercé une influence décisive sur la crise financière de 2008: d’une part, la crise des subprimes, d’autre part, les pratiques de notation de crédit organismes dont la participation est cruciale dans le processus de contrôle du risque de crédit.
Cependant, durant la même période, l’évolution des marchés financiers, caractérisé en particulier par la mondialisation des services bancaires et leur dérégulation a rendu ces activités – et donc les profils de risque correspondantes – de plus en plus complexe. Les régulateurs financiers ont également signalé que les risques sont de plus en plus difficiles à identifier car ils étaient présents à tous les niveaux d’une organisation, de plus en plus difficile à mesurer par une combinaison de pertes directes et indirectes des pertes beaucoup plus difficile à quantifier, et de plus en plus difficile pour gérer l’organisation de plus en plus transversale des métiers de la banque et les difficultés à maîtriser les limites de leurs périmètres.C’est en partie pour ces raisons que les régulateurs et les institutions bancaires ont développé des moyens pour identifier, mesurer et contrôler le risque opérationnel: Des événements comme ceux qui ont eu lieu à New York en Septembre 2001, ou de la Barings série de fraudes qui ont eu lieu dans les banques (Société Générale, , pour ne citer que les plus médiatisés), démontrent que la gestion des risques bancaires va bien au-delà des zones de risque de crédit ou de marché, et exige l’inclusion du risque opérationnel.
Les bonnes pratiques dans le risque opérationnel
Tous les Bâle II a été conçu pour encourager l’évolution progressive vers la méthode avancée, il est normalement consomme moins de capital réglementaire. Cette économie de capital trouve sa contrepartie dans la mise en œuvre d’une organisation spécifique afin de mieux maîtriser les risques opérationnels et, en définitive, de réduire les pertes. C’est sans doute pourquoi le régulateur s’est fixé un code de pratique pour une utilisation par les banques en bonne santé et leurs superviseurs.
Les principes de bonnes pratiques
Basé sur le principe fixé par le régulateur que le risque est bien contrôlé s’il est identifié, mesuré, évalué et géré, les trois approches ont pour but de quantifier le risque opérationnel avec une sensibilité variable et, par conséquent, pour le banquier superviseur couple de contribuer à une meilleure supervision prudentielle de ce dernier. Parallèlement à ces mesures, le régulateur a défini dix principes de bonnes pratiques nécessaires à la gestion du risque opérationnel, rappelant ainsi l’importance tant de l’engagement de l’exécutif dans la mise en place d’un tel système que l’identification des risques opérationnels, notamment grâce à une cartographie de la celui-ci.
Questions d’organisation de l’application des principes de bonnes pratiques
La mise en œuvre de la méthode de base ne nécessite aucune organisation particulière requirements.If les structures des deux autres approches (standard et AMA) sont très différentes, principalement en raison de la présence ou l’absence d’une entité dédiée spécifiquement à la gestion des risques opérationnels, de leurs méthodes de mise en œuvre devrait théoriquement être très proches dans la mesure où, quelle que soit l’approche, ces méthodes sont basées en partie sur un modèle de processus, d’autre part des éléments relativement standard pour toutes les banques:
Le modèle de processus de risque opérationnel
L’identification des risques opérationnels de la banque exige de définir quels sont les facteurs les risques opérationnels inhérents et leurs multiples dimensions (aspect codification interne / externe des fréquences, d’appartenance, la gravité, le type de perte, de l’activité (s) concerné (s), des processus / fonctions en question, données et des systèmes concernés, etc.). La mise en œuvre de cette première identification des sous-processus dans le cadre de Bâle II, rencontre d’abord le problème d’une définition interne du risque opérationnel qui est conforme et compatible avec celui utilisé par le périphérique lui-même lui-même , puis celle de l’identification: en effet, si les pertes d’exploitation, qui matérialisent la présence de risques opérationnels, jusqu’ici identifiés et contrôlés par les services de contrôle interne ou d’audit interne, ils deviennent dans le nouveau système de la responsabilité des supérieurs hiérarchiques dans tous les secteurs de la banque. La mise en œuvre de ce processus première sous-identification peuvent être influencés par le contexte dans lequel la banque opère («fondées sur des principes» et «fondé sur des règles’), d’autant que quelques-uns même d’identifier le risque le risque opérationnel comme tout autre que le risque de crédit financier ou le risque de marché . Deuxième difficulté:perte est intrinsèque en faisant usage des règles comptables, en raison de son impact sur la situation financière de la banque, l’application de ces règles comptables peut conduire à des interprétations différentes. Il est particulièrement difficile l’évaluation de certains impacts (perte de marge brute, la perte de clients, par exemple).
Jusqu’à présent, pour évaluer les montants des risques, les experts dans la gestion des risques ont principalement développé une expertise dans le domaine des risques de crédit et de marché, en mettant l’accent sur l’application de méthodes quantitatives et la modélisation statistique et la simulation. Il était donc naturel que ces mêmes experts, tant au sein des banques et des organismes de réglementation, ont eu tendance à appliquer ces techniques éprouvées pour évaluer les risques opérationnels. Et peut-être en partie la présence dans les critères de l’AMA comparables à ceux de l’approche IRB de crédit utilisée pour risk.More fondamentalement, l’application de méthodes statistiques d’évaluation des risques modélisation opérationnelle a été l’objet de critiques sévères, en particulier dans les milieux universitaires. Ainsi, il a fait valoir que certaines caractéristiques des données de pertes opérationnelles (montants des distributions atypiques de pertes extrêmes, les événements perte fréquence irrégulière et la gravité des pertes non stationnaires ou non-existence de pertes répétitives) n’étaient pas conformes aux hypothèses de modélisation.Cette première objection voudrais ajouter que d’un certain manque de données, notamment des données cohérentes. Enfin, de nombreux gens à reconnaître les difficultés à modéliser les événements de basse fréquence avec un fort impact:. trois types de modèles sont préconisés dans le cadre de l’AMA (méthode interne Measurement Approach (IMA), la distribution des pertes approche méthodologique (LDA) Méthode Scorecard) Certains croire que l’IMA a été conçu comme une approche simplifiée, standardisée et pratiques actuarielles type LDA, plus complète et satisfaisante, mais plus compliqué à mettre en œuvre. Il serait sous la pression de certaines banques, notamment anglo-saxons de la méthode de l’IIF ont été intégrés dans Scorecard Bâle II. C’est à cause de ces critiques qui se sont développées d’autres, plus dynamique pour gérer le risque opérationnel grâce à un processus de contrôle plus général dans lequel ces risques sont potentiellement présents. Il s’agit de simuler le fonctionnement de l’ensemble du processus, fondée à la fois sur les scénarios du monde réel et la réalité virtuelle, en théorie permettant d’anticiper tous les éléments relatifs à un processus spécifique, mais aussi toutes les implications et les interrelations. Il est intéressant de noter que cette méthode des scénarios est de plus en plus utilisé (trois quarts des banques interrogées dans l’enquête PRMIA 2006 contre 50% dans la même enquête 2005):il suppose que les risques opérationnels associés à un processus ne peut pas être évaluée séparément de l’organisation dans laquelle ce processus fonctionne, il est dans le processus d’interaction avec l’environnement qui sont des éléments clés des risques évaluation opérationnelle. Pour identifier les corrélations entre les événements de processus et de la perte, le défi consiste à isoler correctement ces processus les uns des autres afin de bien évaluer leur part de contribution à une perte particulière. Cependant, cette méthode a encore des zones d’incertitude, tels que le choix des hypothèses sous-jacentes les principaux scénarios (l’espace des hypothèses), l’évaluation de certains scénarios extrêmes (grippe aviaire, par exemple), ou des traitements sur l’assurance.
La surveillance des risques opérationnels par le biais d’indicateurs appropriés (indicateurs indicateurs d’alerte et de risque avéré indicateurs de perte) est le troisième processus clés d’un système de gestion de ce risque category.At ce point, le problème se pose de la consolidation des indicateurs qui peuvent être abordées à travers deux approches : bottom-up ou de haut en bas.Dans l’approche bottom-up, les principaux indicateurs de risques opérationnels sont identifiés et mesurés à des niveaux inférieurs, où l’évaluation de chacun des gestionnaires sera exercer un effet levier maximum sur le suivi des risques opérationnels, puis être progressivement consolidé à un niveau central. Dans l’approche top-down est basée sur la vision stratégique d’ensemble, la rentabilité globale des opérations que l’allocation de capital réglementaire aux différentes activités sera décidée par les organes exécutifs, conformément à leurs risques opérationnels. Dans ce contexte, les décisions prises à des niveaux plus élevés de la hiérarchie sera pris en compte et traduit en plans d’action surveillés et contrôlés par les gestionnaires de l’aide d’indicateurs appropriés.
Le contrôle et l’atténuation du risque est probablement sous-processus les plus complexes de tout cela, car il dépendra de la capacité de la banque de développer des moyens de prévenir les risques en identifiant les leviers nécessaires pour anticiper certains événements ou de minimiser leur impact sur l’accident. Ce sous-processus est particulièrement complexe à gérer, car elle est fondée simultanément sur deux fonctions qui interagissent les uns avec les autres:
Caractéristiques relativement standardisés
La fonctionnalité principale de l’application deux à mettre en œuvre un système de maîtriser la gestion des risques opérationnels sont d’abord la détermination du profil de risque opérationnel de la banque, d’autre part la mise en place d’une collection d’événements à risque.
Toutefois, pour assurer une couverture du risque opérationnel, les banques utilisent généralement des modèles de répartition, les deux approches les plus couramment utilisés sont l’approche bottom-up et l’approche top-down, ou une combinaison de principe two.The de l’approche bottom-up est de calculer la exigences de capital réglementaire au niveau le plus fin, par exemple dans une catégorie d’entreprises, et à la consolidation de ces niveaux doit devenir plus centralisé, jusqu’à ‘à la ligne de l’ensemble des activités auxquelles les fonds seront alloués propres correspondants. Inversement, le principe de l’approche top-down est de désagréger l’information équilibrée sur tous les risques opérationnels de la banque et ensuite d’affecter ce capital à des niveaux de plus en plus décentralisée.
La complexité des problèmes de mise en œuvre
Malgré la simplicité de ces deux questions (modèles de processus et fonctionnalités de l’application), il apparaît que dans la pratique la mise en œuvre des différentes approches soulevé et soulève encore de nombreuses divergences dont la complexité est progressivement apparu au cours de nombreuses missions d’établissement des faits en France par la Commission bancaire et à l’étranger par les autorités ou organes.
En outre, la répartition des fonds propres du risque opérationnel seulement est rare. Les grands groupes bancaires ont opté principalement pour l’AMA compte un calcul du capital du groupe bancaire dans son ensemble et une répartition de ces différentes entités selon une répartition et un processus tel que décrit ci-dessous. Peu de groupes qui ont l’intention de calculer les exigences dans un ou plusieurs de ses filiales, même si les principes énoncés par le Comité de Bâle sur la reconnaissance transfrontalière des AMA imposer un tel calcul pour un groupe de filiales importantes.
L’utilisation de données historiques internes est généralement une approche top-down, où les risques opérationnels sont d’abord identifiés et mesurés sur une base consolidée de leurs pertes potentielles, et où le capital est ensuite réparti les différents secteurs d’activité.La prise de conscience croissante de la modélisation statistique des risques opérationnels rencontrés lors d’un moment de l’insuffisance des données internes et historiques à des problèmes pratiques, notamment concernant le niveau au cours de laquelle la perte doit être collectées et comment elles doivent être saisies en vue d’assurer une récupération adéquate des données demandées (collecte automatique ou déclarative) et une distribution crédible des pertes. Toutefois, des progrès significatifs ont été accomplis dans ce domaine, notamment en raison des règles de collecte et de mesure qui est progressivement entre banques, et aussi parce que l’utilisation de données externes a été facilitée par la maturité des bases syndiqué (ORX devenir la référence). D’où une certaine méfiance envers l’usage exclusif des données historiques qui justifie l’utilisation de données externes.
L’utilisation de données externes soulève également des questions au sujet de la correction nécessaire des préjugés et de l’adaptation de données externes à la situation interne de la banque (problèmes d’échelle).
D’autres banques sont la construction de leur modèle de mesure des données en se concentrant plus prospective, le type d’analyse de scénarios et / ou indicateurs de risque.Dans ce cas, l’approche est ascendante, les risques sont mappées dans chaque secteur d’activité basée sur les causes, et alors mesurée sur la base des fréquences et des gravités des pertes estimées par les experts de chaque entreprise et / ou des indicateurs de performance, de contrôle et le risque. Bien que l’analyse du scénario doit être considéré comme un élément important de la diffusion d’une culture du risque opérationnel, car elles reposent sur l’expertise de gestionnaires au sein de l’entreprise, ils exigent habituellement de sérieuses précautions avant d’être pleinement opérationnel: En effet, ces études devraient être structurée et cohérente assez pour que la quantification subjective du risque opérationnel dans les métiers peuvent nourrir correctement le modèle de calcul des fonds propres au niveau consolidé. En outre, certaines banques se réservent ce type d’analyse des événements de faible probabilité, le ratio de pertes élevées.
D’autres banques sont à l’aide ou se déplacent vers un tableau d’évaluation (indicateurs de risque ou de performance repose en partie sur l’utilisation de critères qualitatifs) pour ces allocations à se faire du capital réglementaire entre les lignes d’affaires ou entre des lieux géographiques en fonction de leur capacité à gérer les risques opérationnels. Outre son plus synthétique, cette méthode offre deux avantages:premièrement, elle introduit une dimension prospective qui fait partie de la gestion active de prévention des risques opérationnels; Il facilite ensuite faire rapport à l’exécutif en fournissant, grâce à des panneaux de la performance locale, un rapport d’étape pour la stratégie définie par ces organismes pour assurer le contrôle des opérations risques. Dans la pratique, l’identification d’indicateurs de risques se fait à partir des risques identifiés lors de la cartographie et par rapport aux indicateurs existants (indicateurs de la qualité, la performance …). Sont ensuite choisi les indicateurs clés de risque (KRI) pour faciliter la prise de décision. Parmi les difficultés rencontrées dans la mise en œuvre de cette méthode comprennent en particulier l’interprétation à donner aux indicateurs (par exemple celles liées aux ressources humaines), la définition des niveaux d’alerte compatible avec la gestion des risques à la politique opérationnelle et les modalités d’agrégation des indicateurs.
De l’avis du régulateur lui-même, les banques [aura] à adopter une approche plus pragmatique en termes de risque opérationnel en rééquilibrant le système vers la gestion des risques plutôt que sur leur seule mesure. Utilisation des données prospectives exige un examen de l’évolution ou de la gestion future des risques opérationnels et / ou des activités des écoles et donc une forte implication des gestionnaires des risques au niveau des métiers.Mais si l’utilisation de facteurs qualitatifs tels que des tableaux de bord a une certaine expérience, notamment pour l’affectation des capitaux entre les différentes entités du groupe, la traduction de ces facteurs quantitatifs est problématique et ne semble pas vraiment stabilisée. Cette traduction est quantitativement plus difficile lorsque l’analyse des scénarios et des évaluations selon les experts ne font pas partie d’une approche bien structurée et cohérente au sein de la group.It est donc d’autant plus nécessaire que les institutions d’élaborer des questionnaires spécifiques envoyée à des experts du monde des affaires et des indicateurs de risque pertinents et observables sur une base régulière, peut limiter le processus subjectif et parfois politique de quantification.
Enfin, la mise en œuvre d’une mesure et une gestion efficaces du risque opérationnel, quel que soit l’analyse des données, nécessite un système d’information adéquat. C’est probablement un des domaines où les banques n’ont pas encore réaliser des progrès significatifs, qui n’est probablement pas étrangère au fait que les systèmes de gestion de l’information n’est souvent pas représentés dans les banques au sein des comités de gestion des risques opérationnels.L’adaptation des systèmes d’information aux besoins spécifiques de la procession des risques opérationnels a conduit les banques à faire le choix entre le lancement d’un projet entièrement nouveau ou la construction d’extensions visant à recueillir des data.In nécessaire le premier cas, il s’agissait de mettre en place un tout nouveau procédure à suivre pour la collecte systématique et la perte à cet effet, effectuer des missions de sensibilisation à tous les niveaux de la banque. Dans le second cas, il a agi au lieu de reprendre et de retraiter dans les métiers de pertes historiques existants.
Dans un environnement complexe, il est clair que la définition du profil de risque réel d’un grand groupe bancaire et la mise en place d’une politique efficace de réduction des pertes d’exploitation dans chaque entité est un projet mondial qui exige le déploiement à grande échelle, et donc un réel changement de gestion.
Les défis de la gestion du changement associé à Bâle II, en particulier concernant la diffusion d’une nouvelle culture de la vigilance sur le risque opérationnel, et la durabilité de ce système.
Le premier défi est de répandre une culture de vigilance contre ces risques dans chaque unité d’affaires de la banque.En tant que tel, on peut parler d’acculturation véritable des employés présents dans toutes les modalités de mise en œuvre (risques opérationnels, le dispositif de collecte des incidents), l’attribut principal de cette édition est la participation de chaque employé de la banque.
Le deuxième défi est de maintenir la gestion des risques opérationnels système se fige, assurant ainsi qu’il peut évoluer à la suite des mesures correctives, risque de disparaître, et les nouveaux risques apparaissent.
Dans l’ensemble, la question de la procession du risque opérationnel de réglementation n’est pas d’obtenir une certification du superviseur que la banque peut utiliser une approche particulière proposée par le régulateur: il est de favoriser l’amélioration durable de gestion des risques opérationnels par la banque, en responsabilisant chacun des acteurs (régulateur, superviseur, employé de banque). C’est là que l’appareil acquiert un degré supplémentaire de complexité car en dernier ressort, la mise en œuvre réussie de l’appareil dépend non seulement sur les bonnes pratiques de la banque, mais aussi la flexibilité de la mission de surveillance et de superviseur l’adaptabilité introduit dans le dispositif par le régulateur.
Les superviseurs prudentiels
En ce qui concerne la France, la Commission bancaire a opté pour un ‘flexible’ au cas par cas, c’est-à-dire la banque par banque.Pour ce faire, la Commission bancaire d’abord prendre en compte la manière dont chaque banque a son AMA en rapport avec son profil de risque opérationnel. Cette autorité ne privilégie aucune méthode plutôt qu’une autre, se réservant seulement d’évaluer la pertinence de toutes les méthodes utilisées en fonction du risque profile.The Commission bancaire serait étranger à toute trop prescriptif et rigide, incompatible avec le caractère évolutif des techniques et des méthodes mises au point par les banques dans le domaine du risque opérationnel. Pour ses efforts de validation, la Commission bancaire exprime d’abord un souci de cohérence avec la surveillance prudentielle des superviseurs d’autres, sa prise de compte des principes de la surveillance à domicile d’accueil et les principes d’une approche hybride entre filiales et autres filiales, comme le propose dans Bâle II. Il précise ensuite les grandes lignes du contenu de son approche, en pleine conformité avec le contenu du dispositif:
Enfin, il est plus logique dans sa réponse que sa supervision prudentielle flexibilité feront l’objet d’un changement important: la vérification complète des critères d’éligibilité, à la fois qualitative et quantitative, à l’AMA, n’est donc pas pas dans une logique simple pour évaluer la conformité réglementaire d’un modèle.Il est basé principalement sur une évaluation de la capacité des institutions à identifier, analyser, maîtriser et réduire (à la fois de la fréquence et la gravité des pertes) de leurs risques opérationnels.