Pourquoi stocker toutes nos vies sur des serveurs aux Etats-Unis ? Détails | |
"Pourquoi stocker toutes nos vies sur des serveurs aux Etats-Unis ?" Le Monde.fr | 12.06.2013 Jérémie Zimmermann, porte-parole de la Quadrature du Net, juge que "nous devons questionner notre rapport à la technologie" après le scandale Prism de la NSA. Lire l'article ici |
|
Epargne Retraite Détails | |
Le plan d'épargne retraite populaire (PERP) et le Plan d'épargne collectif pour la retraite (Perco) sont deux dispositifs de retraite supplémentaire créés par la réforme des retraites de 2003. Après avoir connu un démarrage en flèche en 2004 – 1,2 million d'épargnants ont souscrit un PERP l'année de son lancement –, le PERP n'avait séduit à la fin de 2011 (derniers chiffres connus) que 2,15 millions de personnes. A l'inverse, après des débuts difficiles, le Perco fait chaque année davantage d'adeptes. En 2012, plus de 1,2 million de personnes avaient déjà effectué des versements sur leur Perco. § Conditions de souscription Le PERP comme le Perco sont deux supports d'épargne qui permettent de mettrede l'argent de côté afin de préparer sa retraite. Mais, alors que pour ouvrir un PERP il suffit de pousser la porte de son agence bancaire ou de sa compagnie d'assurances, vous n'avez la possibilité d'alimenter un Perco que si l'entreprise dans laquelle vous travaillez en a mis un en place. § Disponibilité de l'épargne Sur un PERP comme sur un Perco, votre épargne est bloquée jusqu'à l'heure de la retraite. Avant cette échéance, vous ne pouvez pas, en principe, faire de retraits, même partiels. Cela dit, dans certaines situations, il est possible de récupérer son épargne avant cette échéance. Ces cas de déblocage anticipé sont plus ou moins les mêmes pour les deux supports : décès du conjoint ou partenaire de pacs, invalidité, surendettement, fin de droit aux allocations chômage... A une différence de taille près : vous pouvez débloquer les sommes versées sur un Perco pour financer l'acquisition de votre résidence principale (ou sa remise en état à la suite d'une catastrophe naturelle). § Mode de sortie Le PERP n'offre qu'un seul mode de sortie : la rente viagère, avec possibilité d'opter pour une sortie partielle en capital à hauteur de 20 % de la valeur du contrat. Principal inconvénient : en cas de décès pendant la phase d'épargne, vos héritiers ne pourront pas récupérer votre épargne sous forme de capital, mais uniquement sous forme de rente si le Perp prévoit une contre-assurance décès. Avec un Perco, vous avez le choix entre le versement d'une rente viagère ou récupérer votre épargne sous forme d'un capital. Surtout en cas de décès précoce, vos ayants droit pourront la récupérer sous forme de capital. § Régime fiscal Avec un PERP, vos versements sont déductibles de votre revenu imposable, dans la limite de 10 % de vos revenus professionnels nets de l'année précédente. Cet avantage n'est véritablement intéressant que pour ceux qui sont fortement imposés puisque l'économie d'impôt apportée par la déduction des versements est proportionnelle à leur taux marginal d'imposition. En contrepartie, la rente versée à la sortie est imposée dans les mêmes conditions que vos pensions de retraite. Sur un Perco, vos versements "volontaires" ne vous ouvrent droit à aucun avantage fiscal. Mais, si vous versez votre quote-part individuelle de participation et/ou vos primes d'intéressement sur votre plan, cela leur permet d'échapper à l'impôt sur le revenu. L'éventuel abondement versé par votre employeur, en plus de vos propres versements, est également exonéré d'impôt sur le revenu. En cas de sortie en capital, les gains réalisés depuis l'ouverture du plan sont exonérés d'impôt sur le revenu (seuls les prélèvements sociaux seront dus). Si vous préférez une sortie en rente, elle ne supportera l'impôt sur le revenu et les prélèvements sociaux que sur une partie de son montant qui dépend de votre âge au moment des premiers versements : 40 % pour une sortie entre 60 et 69 ans ; 30 % après 70 ans. Nathalie Cheysson-Kaplan |
|
La publicité peut avoir des effets nocifs sur la société Détails | |
Le Monde.fr Guillaume Dumas, Mehdi Khamassi, Karim Ndiaye, Yves Jouffe, Luc Foubert et Camille Roth, chercheurs en sciences cognitives et sociales A travers le collectif "les Déboulonneurs" de pub, dont le jugement devrait être rendu mardi 26 juin, "c'est la liberté de (non) réception des citoyens que nous devons défendre", estiment des chercheurs en sciences cognitives et sociales.LEMONDE.FR "Il serait inique que des barbouilleurs animés par un esprit civique de dépollution des images soient poursuivis et condamnés, alors que tant d'ignominies dues à la recherche du profit maximum sont tolérées."Edgar Morin. Le 3 avril, huit personnes du collectif"les Déboulonneurs" comparaissaient à la chambre d'appel correctionnelle de Paris pour avoir barbouillé des panneaux publicitaires. Lors du procès, le réquisitoire du procureur a largement reposé sur l'argument d'une atteinte à la liberté d'expression des annonceurs. Le jugement devant être rendu mardi 26 juin, il nous est apparu urgent de rappeler les éléments montrant que la publicité, par ses mécanismes mêmes, porte atteinte à certaines libertés de l'individu et qu'elle peut avoir des effets nocifs sur la société en termes de santé publique (surcharge cognitive, stress, obésité...). Les sciences cognitives et sociales (neurosciences, psychologie et sociologie notamment), disciplines dont nous relevons, tendent à montrer que la publicité biaise nos comportements les plus automatiques, y compris de façon inconsciente. Et si l'émergence des techniques d'exploration du cerveau nous permettent de mieux comprendre ces mécanismes, nous voulons montrer ici que ces nouvelles connaissances et leur appropriation par le domaine publicitaire (en particulier via le neuromarketing) requièrent un débat le plus large possible sur la présence de la publicité dans l'espace public. INFLUENCE DE LA PUBLICITÉ SUR NOTRE COMPORTEMENT ET NOTRE CERVEAU Rappelons tout d'abord l'origine historique de la publicité. Le premier grand saut technique s'opère au début du XXe siècle, en passant d'une simple répétition mécanique du message à une méthodologie élaborée de persuasion des masses. L'un des principaux pionniers de cette "manufacture du consentement" s'appelle Edward Bernays et n'est autre que le neveu de Freud. Il décide d'utiliser les découvertes de la psychanalyse pour parvenir à une "manipulation consciente, intelligente des opinions et des habitudes" par des "chefs invisibles" (The Century of the Self, 2002). L'exemple le plus frappant de cette nouvelle démarche publicitaire est la diffusion dans la presse de photos de jeunes femmes belles, modernes et indépendantes, fumant des cigarettes appelées "torches de la liberté". En incitant les femmes à fumer à une époque où ce comportement était réprouvé, Bernays se vanta d'avoir doublé la taille du marché potentiel de l'industrie du tabac ! Grâce à l'imagerie cérébrale, les neuroscientifiques ont récemment commencé à s'intéresser à l'effet de l'image de marque d'un produit sur nos cerveaux. Dans ce contexte, on se focalise sur le système de récompense, un ensemble de régions du cerveau évolutionnairement très ancien. Ce système fait interagir émotions et prises de décision de telle sorte que ces dernières échappent à la rationalité pure.Il se révèle aussi très sensible à certains signaux de notre environnement qui peuvent influencer nos comportements même quand ils ne sont pas perçus consciemment (ce dont on peut s'assurer en laboratoire). A partir de ces connaissances, une équipe de chercheurs américains a comparé l'activité cérébrale du système de récompense chez des individus invités à goûter deux marques de sodas. Lorsque le test se fait en aveugle, les deux marques de boissons sont autant appréciées l'une que l'autre et activent le système de récompense de façon équivalente. Par contre, lorsque les étiquettes sont rendues visibles, l'un des deux sodas active soudainement beaucoup plus le système de récompense et est préféré par la majorité. Cette étude fut la première à montrer par la mesure de l'activité cérébrale comment l'image de marque construite par la publicité peut biaiser les préférences des consommateurs. Depuis lors, les études visant à mesurer ces préférences au moyen de l'imagerie cérébrale se sont multipliées sous la bannière de ce que l'on appelle le neuromarketing. Jusqu'à présent, cette approche a essentiellement cherché à calibrer le message publicitaire de façon à activer le plus possible le système de récompense. Bien que le neuromarketing soit aujourd'hui vivement critiqué pour son absence de rigueur scientifique, il pourrait devenir, avec les progrès des neurosciences, un véritable outil d'ingénierie publicitaire. ENJEUX SANITAIRES DE LA PUBLICITÉ À GRANDE ÉCHELLE Le ciblage de notre système de récompense par la publicité doit aussi être considéré en termes de santé publique. On sait que le système de récompense est plus vulnérable chez certains individus. Les personnes souffrant d'obésité par exemple voientleur système de récompense activé de façon anormale par des images de nourriture ultra-calorique. La publicité exploite leur vulnérabilité et renforce leurs comportements de surconsommation. Les enfants ayant un système nerveux encore en développement sont aussi très sensibles à la publicité. Sur la base de multiples études issues des plus grands journaux médicaux, l'Agence de l'alimentation britannique demande, pour ces mêmes raisons, que "les enfants aient le droit de grandir à l'abri des pressions commerciales, lesquelles encouragent la consommation d'une nourriture trop riche, trop sucrée et trop salée qui fait courir un risque pour la santé actuelle et future des enfants". Les estimations menées aux Etats-Unis montrent ainsi que l'obésité infantile pourrait être réduite de près d'un tiers en régulant mieux la publicité des produits alimentaires. Plus généralement, on sait maintenant que la dérégulation du système de récompense accompagne de nombreux troubles psychologiques et psychiatriques. Dans l'attente de travaux scientifiques évaluant l'effet de la publicité sur les populations à risque, il nous semble indispensable d'en appeler au principe de précaution pour réguler les messages commerciaux à destination de nos concitoyens les plus fragiles. ENJEUX ÉTHIQUES DE LA PUBLICITÉ AU XXIE SIÈCLE Tous ces éléments révèlent que ce qui est en jeu s'avère beaucoup plus complexe que la simple liberté d'expression invoquée pour le publicitaire. Or cette liberté-là ne va sans une autre liberté complémentaire de la première : la liberté de non-réception. Il s'agit de garantir à chaque citoyen le droit de choisir où et quand il souhaite accéder à de l'information publicitaire. Ceci pour lui permettre de se protéger de son influence ou simplement de se reposer de la surcharge d'information. Selon les estimations, les enfants sont exposés quotidiennement à plusieurs dizaines de spots publicitaires, voire plusieurs milliers aux Etats-Unis. Face à ce bombardement quotidien, la liberté de non-réception des citoyens doit être assurée, en particulier dans l'espace public. L'Etat se doit en effet d'y être le garant de la neutralité commerciale autant que de la sureté psychologique de tout un chacun. Or, selon nous, les évolutions récentes sont inquiétantes. Par exemple, les usagers du métro parisien auront pu constater le remplacement progressif des affichages sur papier par de très larges écrans plats. Cette technologie exploite le fait que toute image en mouvement dans la périphérie du champ visuel capture automatiquement l'attention de l'individu. Cette réaction automatique, héritage de notre évolution au cours de laquelle le danger pouvait surgir sans prévenir, s'accompagne d'une augmentation du niveau d'alerte et de stress qui favorise la mémorisation du message. En outre, l'intégration dans ces écrans decapteurs mesurant l'intensité du regardpeut transformer, à leur insu, les passants en cobayes d'expérimentation publicitaire à grande échelle. Nous déplorons que les usagers des transports n'aient pas été consultés, ni même informés, de cette évolution qui touche directement leur environnement visuel et entraîne la collecte d'informations sur leur comportement. A cela s'ajoutent les dizaines de milliers d'enquêtes d'opinion que les régies publicitaires ont déjà accumulées (depuis leur apparition, dans les années 1960). Ce traçage prend aujourd'hui un essor sans précédentavec le développement des technologies numériques (puces RFID des badges en tout genre, GPS des smartphones, réseaux sociaux omniprésents, etc.). Aujourd'hui ce "temps de cerveau disponible", profilé et géolocalisé est vendu au prix fort par les afficheurs : la diffusion d'un message publicitaire est quantifiée en Occasion de voir (ODV), facturée à l'unité entre 0,1 et 0,7 euro. Ainsi une personne vivant en Ile-de-France rapporte une cinquantaine d'euros par jour à l'industrie publicitaire, sans même le savoir. En l'absence de débat citoyen, le politique cède trop facilement aux pressions des annonceurs et afficheurs, réclamant toujours moins d'entraves pour faire davantage de profits. Ainsi, loin d'en limiter la présence dans l'espace public, la loi du 12 juillet 2010 issue du Grenelle de l'environnement laisse place, selon le ministère lui-même, à "un développement important de secteurs comme ceux du micro-affichage, des bâches, des dispositifs innovants, des publicités sur aéroports ou gares [...], permettant d'envisager une progression de 10 à 30 % des chiffres d'affaires des entreprises investissant dans ces domaines d'activité". SOLUTIONS ET ALTERNATIVES Pourtant, réduire la place de la publicité dans l'espace public n'est pas une simple revendication idéaliste. En 2006, le conseil municipal de la ville de Sao Paulo a voté à une quasi-unanimité une loi "Ville propre" bannissant tout affichage publicitaire dans l'espace public. Cinq ans après son entrée en vigueur, un sondage montre que 70 % des résidents de Sao Paulo ont trouvéles effets de cette loi bénéfiques. Devant les enjeux révélés par les dernières avancées scientifiques, nous souhaitons encourager toute démarche de régulation du système publicitaire actuel et en premier lieu dans l'espace public. En barbouillant des publicités, le collectif des Déboulonneurs a osé un acte de désobéissance civile afin d'être entendu par la collectivité et de pousser le politique à accepter une ré-ouverture du débat. A travers eux, c'est la liberté de non-réception des citoyens que nous devons défendre. Guillaume Dumas est chercheur à la Florida Atlantic University ; Mehdi Khamassi est chercheur au CNRS ; Karim Ndiaye est chercheur à l'Institut du cerveau et de la moelle épinière ; Yves Jouffe est chercheur à l'université Paris-Est ; Luc Foubert est docteur de l'Université Pierre et Marie Curie-Paris-VI ; Camille Roth est chercheur au CNRS. Les auteurs remercient Célya Gruson-Daniel pour son aide. |
|
De Herstatt Lehman Brothers Détails | |
Lundi 3 octobre encore, les valeurs bancaires ont fait figure de souffre-douleur des marchés financiers. A la Bourse de Paris, le Crédit agricole a cédé 3,84 %, BNP Paribas 4,64 % et la Société générale 5,15 %. La franco-belge Dexia, rattrapée par une affaire d'emprunts toxiques vendus à des municipalités françaises, a plongé de 10,16 %. Toutes ces banques font l'objet d'une défiance généralisée : on leur reproche notamment de ne pas avoir assez de fonds propres pour compenser leur exposition à des actifs risqués, telles les dettes grecque, italienne ou portugaise. Depuis les années 1970, les banques ont pourtant été incitées à se doter d'un cadre réglementaire et prudentiel suffisamment strict pour éviter non seulement les faillites, mais aussi leurs répercussions sur d'autres secteurs de l'économie. • Allemagne de l'Ouest, années 1970 C'est en 1974 que voit le jour la volonté d'inciter les banques à harmoniser leurs pratiques et à respecter des normes communes de sécurité. Cette année-là, le secteur bancaire a frôlé la catastrophe : la faillite de la banque ouest-allemande Herstatt a fortement ébranlé le marché des changes paralysant jusqu'au système des paiements interbancaires de New York et a failli entraîner la chute de plusieurs autres établissements. Fort heureusement circonscrite, la chute de Herstatt a mis en évidence les risques systémiques liés à une internationalisation de plus en plus poussée des banques. Peu après cette faillite, un directeur de la Banque d'Angleterre, Peter Cooke, propose la réunion d'un comité réunissant les banques centrales et des organismes de réglementation et de surveillance bancaire des pays du G10 (France, Belgique, Canada, Italie, Japon, Luxembourg, Allemagne, Pays-Bas, Suisse, Espagne, Suède, Royaume-Uni, Etats-Unis). Sa proposition est adoptée et ce comité se réunit dorénavant à Bâle (Suisse) quatre fois par an, sous l'égide de la Banque des règlements internationaux (BRI). • Des règles sans valeur contraignante Le Comité n'a qu'une autorité morale sur les banques et institutions financières : il édicte des recommandations et des bonnes pratiques. Leur application est laissée à l'appréciation des Etats membres. Par exemple, les Etats-Unis sont réputés pour traîner des pieds lorsqu'il s'agit de mettre en oeuvre les recommandations : les accords de Bâle II y ont été quasiment passés à la trappe. Washington a néanmoins accepté, en 2010, d'appliquer les règles de Bâle III, qui devraient entrer en vigueur en 2013. L'audience du Comité est en fait bien plus large que le seul groupe des membres fondateurs. La première publication du comité, intitulée "Concordat de Bâle", est élaborée en 1975 et revue en 1983. Elle pose le principe d'une surveillance consolidée d'un groupe bancaire ou financier, y compris pour des établissements financiers qui ne font pas l'objet d'une supervision par les autorités du pays d'origine. Le Concordat établit en outre la compétence de l'autorité de surveillance du pays d'accueil pour le contrôle des succursales bancaires du groupe. Ces mesures ne traitent qu'un volet modeste de la régulation celui de la surveillance des banques à l'international mais c'est un début. • Wall Street, années 1980 Les années 1980 sont des années particulièrement lucratives et agitées sur les marchés. C'est l'époque des profits sans limite et des obligations pourries, les fameux "junk bonds" émis pour rembourser la dette des pays émergents, Mexique en tête, embourbés dans une crise financière qui les a rendus insolvables. C'est aussi l'époque où les défaillances d'emprunteurs se multiplient dans une Amérique paupérisée. Le Concordat de Bâle apparaît très vite limité face à ces nouveaux défis, d'autant plus que la finance internationale, en plein essor, exige une harmonisation des réglementations bancaires afin de lutter contre les distorsions de concurrence. • Ratio Cooke : de l'importance des fonds propres Les premiers travaux de grande ampleur du Comité aboutissent à la publication, en 1988, d'un accord sur un ratio international de solvabilité, baptisé "ratio Cooke", du nom de l'instigateur du Comité. Ce ratio est au coeur des accords dits "de Bâle I". Le ratio Cooke est un élément fondateur de la régulation bancaire : il met en évidence le principe selon lequel le financement de chaque risque doit comprendre un certain montant de fonds propres. Cette précaution doit permettre d'assurer la sécurité globale du marché et de minimiser les risques de nature systémique en évitant l'"effet domino". Le ratio Cooke reflète le rapport entre le montant des fonds propres et celui des encours de crédit : les accords de Bâle 1 le fixent à 8 %. Dans le détail, ce montant se divise en trois catégories : le noyau dur ou TIER 1 (qui doit être de 4 %), les fonds propres complémentaires ou TIER 2, les fonds propres surcomplémentaires ou TIER 3. • La chute de Barings, victime du "rogue trading" Les accords de Bâle I sont fondamentaux pour la réglementation du système bancaire, mais ils se révèlent rapidement insuffisants : ils ne prennent pas en compte les activités hors bilan des banques une lacune qui ne sera jamais comblée et ils ne différencient pas assez finement les niveaux de risque pris par les établissements financiers. En 1995, le scandale de la Barings achève de convaincre le Comité de s'atteler à une révision et un approfondissement des règles. Star de la banque Barings, une des plus vieilles institutions anglaises, Nick Leeson, à peine 25 ans à l'époque, réalise au début des années 1990 des profits colossaux sur son "desk" de Singapour. Spécialisé dans le trading des produits dérivés, ses gains représentent en 1993 près de 10 % des bénéfices de la banque. Jusqu'à ce que, confronté à des difficultés, il ne se mette à dissimuler ses pertes dans un compte d'erreurs, le désormais célèbre compte 88 888. Ignorées par le contrôle totalement défaillant de la banque, les pertes s'accumulent jusqu'à représenter près de la moitié du capital de la Barings. Et c'est, avec une grande ironie, une catastrophe naturelle qui va mettre au jour les activités frauduleuses de Leeson. Le 17 janvier 1995, un tremblement de terre à Kobé (Japon) fait plonger les indices. Or, pour tenter de compenser ses pertes, Leeson avait pris des positions en pariant sur le fait que le Nikkei l'indice-phare de la Bourse de Tokyo ne chuterait pas en dessous d'un certain seuil. Ce dernier est largement franchi après le séisme. Ses pertes sont alors démasquées. De tels agissements ont été rendus possibles par une succession de manquements de la part de la hiérarchie de Leeson, mais ils ont également été favorisés par le fait que, à cette époque, et pas seulement à la Barings, un trader peut agir à la fois en "front" et en "back office" : la même personne passe l'ordre et l'enregistre... en saisissant les chiffres qu'il veut. Face à l'ampleur du désastre, Leeson choisit de fuir. Il est rattrapé en Allemagne, arrêté et condamné à six ans et demi de prison. Le scandale de la Barings va entraîner une profonde refonte des attributions des front, middle et back offices, et ce dans toutes les salles de marchés du monde. Un peu plus tard, au début des années 2000, plusieurs scandales comptables ébranlent les Etats-Unis. Enron, WorldCom, Arthur Andersen, autant de société devenues célèbres pour avoir chuté à la suite d'accusations de comptabilité falsifiée. Parallèlement aux accords de Bâle II sont alors élaborées de nouvelles normes comptables applicables à l'échelle mondiale, les normes IFRS (International financial reporting standards). • Bâle II, trois piliers fondateurs du cadre réglementaire Publiés en 2004, les accords de Bâle IIproposent, à l'aune des récentes turbulences, d'intégrer le risque "opérationnel" (fraudes et défaillances informatiques) dans son cadre d'analyse et d'améliorer la perception du risque de crédit en s'intéressant de plus près à la qualité des emprunteurs. Cette nouvelle salve d'accords se décline en trois volets. • Exigence de fonds propres : Bâle II prend donc en compte les risques opérationnels et des risques de marché, au lieu de se cantonner aux risques de crédit. Le ratio Cooke est de fait remplacé par le ratio McDonough, du nom du président en exercice du Comité, William J. McDonough, qui prévoit que les fonds propres de la banque soient supérieurs à 8 % des risques de crédits (85 % du ratio) + des risques de marché (5 % du ratio) + des risques opérationnels (10 % du ratio). • Surveillance de la gestion des fonds propres : les banques peuvent fixer des ratios prudentiels encore plus élevés dans les domaines qui leur semblent importants pour leur stratégie, à charge ensuite pour elles de prouver que leurs fonds propres sont suffisants. • Transparence des marchés : des règles sont établies quant à l'information mise à la disposition du public sur l'actif, les risques et leur gestion. L'uniformisation et la transparence des règles bancaires impliquent une uniformisation de la présentation des portefeuilles de risque, ce qui permet à ces portefeuilles d'être lus et compris dans tous les pays où la banque fait des affaires. Point important, les accords de Bâle II font la part belle à la notation financière et réaffirment son importance pour bien évaluer les risques. Cependant, les accords prévoient que cette notation peut être soit effectuée par des agences (Standard & Poor's, Fitch, Moody's... très décriées aujourd'hui), soit réalisée en interne avec des méthodologies propres. En aucun cas les accords n'imposent le recours aux agences de notation. • L'épouvantail Lehman Brothers Pourtant bien étoffés, les accords de Bâle II n'empêcheront pas la déroute financière de 2008. La faillite de Lehman Brothers, dont les actifs étaient pourtant très bien notés, n'aurait pas dû se produire si les accords avaient correctement fonctionné. Encore aurait-il fallu qu'ils soient appliqués ! En effet, Bâle II n'est jamais entré en vigueur outre-Atlantique... Mais ils ont toutefois fait la preuve de leur insuffisance par ailleurs et une révision à la lumière des enseignements de la crise s'impose. Les accords de Bâle III, finalisés en décembre 2010, ont dans leur ligne de mire les activités hors bilan des banques notamment sur les produits dérivés et leurs fonds propres, qui apparaissent comme de plus en plus insuffisants par rapport aux risques pris par les banques sur les marchés. Les risques pesant sur la liquidité sont également abordés. Destinés à entrer en vigueur en 2013, les accords de Bâle III comportent quatre grands objectifs : • Renforcer le niveau et la qualité des fonds propres : le ratio Core Tier 1 (composante actions et assimilés du ratio TIER 1) doit passer de 2 à 4,5 % des actifs de la banque, tandis que le ratio TIER 1 doit quant à lui être au moins égal à 6 %, contre 4 % auparavant. • Mettre en place un ratio de levier ("leverage ratio") : cette mesure oblige les banques à immobiliser en fonds propres l'équivalent de 100 % de leurs engagements dans la catégorie des financements à l'exportation, soit cinq fois plus que le niveau requis actuellement (20 %). Le coût de cette mesure est très critiquée. Beaucoup de banques internationales, notamment britanniques, très actives sur ce type de prêts, y sont particulièrement exposées et font pression pour une modification de cette disposition. • Améliorer la gestion du risque de liquidité par la création de deux ratios de liquidité : un ratio de liquidité à trente jours et un ratio de liquidité à plus long terme, sur un an. • Renforcer les exigences prudentielles concernant le risque de contrepartie : dans ce volet, l'accent est mis sur le rôle des chambres de compensation, qui enregistrent l'ensemble des transactions financières et en assurent le règlement-livraison. Le passage obligé par une chambre de compensation est une garantie de la bonne fin des transactions. Or, bon nombre d'opérations, passées sur des marchés de gré à gré, sur des plates-formes alternatives de trading ou sur desdark pools, leur échappent. La nécessité des accords de Bâle III fait l'objet d'un quasi consensus. Même les Etats-Unis ont accepté de rentrer dans le rang et de les appliquer afin qu'une crise identique à celle de 2008 ne se reproduise pas. Mais plusieurs acteurs économiques pointent le risque macroéconomique important qu'ils font planer. Une étude de l'OCDE publiée en février estime ainsi que ces normes renforcées pourraient coûter entre 0,05 et 0,15 % de PIB par an à chaque pays signataire. A l'heure où les économies développées grappillent péniblement 1 ou 2 % de croissance par an, ce chiffre passe mal. D'autre part, l'exigence d'augmentation des fonds propres est à la fois considérée comme ridiculement faible la plupart des banques européennes visent un seuil à 7 % pour le ratio TIER 1 et présentant un risque de contraction du crédit. Contraction qui se ferait aux dépens du financement des entreprises, qui sortent tout juste de la crise. Toutefois, il ne faut pas oublier que l'horizon d'application de Bâle III est lointain en ce qui concerne l'augmentation des fonds propres : les banques ont jusqu'à 2019 pour satisfaire ces exigences. Cette date est suffisamment éloignée pour tranquilliser les banques, et leur permettre d'augmenter leurs fonds propres à leur rythme, mais beaucoup trop pour apaiser les craintes d'une nouvelle faillite. Audrey Fournier - Le Monde |
|
Assurance scolaire obligatoire ? Détails | |
Ce qu'il faut savoir : une loi du 10 août 1943 prévoyait que les parents d'enfants scolarisés devait être obligatoirement assurés pour les dommages que causeraient leur enfant à l'école et durant toutes les activités scolaires (RC) ainsi que les dommages dont leur enfant pourrait être victime (individuelle accident). Cette loi aurait due être suivie, pour pouvoir rentrer en application, d'un décret appelé, précisément "décret d'application". Il se trouve que, à l'heure actuelle, ce décret n'a toujours pas été publié dont la conséquence qui en découle est la suivante : quoiqu'on vous dise l'ASSURANCE SCOLAIRE N'EST PAS OBLIGATOIRE mais seulement pour les horaires normaux de classe. Donc, il est inutile de souscrire une assurance spécifique. En effet, le contrat multirisque habitation inclut une garantie "responsabilité civile". Les dommages causés aux biens scolaires ou aux autres personnes (enfants ou adultes) durant les activités scolaires par l'enfant sont garantis par ce contrat habitation. Pour les dommages corporels subit par l'enfant, que ce dernier ce soit fait mal tout seul, que ce soit fait par un copain d'école mais non assuré et insolvable ou que ce soit fait par quelqu'un qu'on arrive pas à trouver (auteur inconnu), la Sécurité sociale et la mutuelle des parents de l'enfant victime interviendront. Donc, payer une seconde fois ne semble pas utile. Quoi faire ? Il suffit aux parents de s'adresser à leur assureur afin que celui-ci établisse une "attestation d'assurances pour les activités scolaires et extrascolaires de leur enfant". En principe, c'est assez rapide et gratuit |
|