mardi 26 décembre 2017

Sécurité Routière : une agence pour remplacer une administration incompétente ?

Selon toute probabilité, et avec des arguments* qui défient toute logique, comme quoi la France sait ériger en modèle dominant la médiocrité et l'incompétence, la Sécurité Routière va donc réussir à imposer le 80 km/h sur certaines routes secondaires. Et cela, en vertu d'un modèle statistique selon lequel une baisse de 1 km/h de la vitesse a pour impact une baisse de 4 % de la mortalité (raisonnement démonté** par une étude indépendante). Il y a peut-être des raisons d'espérer une amélioration (.... ou pas), dans le cadre des Assises de la Mobilité, où des experts pensent qu'il faudrait une politique plus cohérente, évitant une inflation répressive.

Evidemment, la répression n'est pas oubliée. J'aurai l'occasion d'y revenir. Mais, les Assises ont permis au moins d'évoquer l'infrastructure. La route et son entretien sont des domaines jamais évoqués et que l'Etat a totalement abandonnés, en se déchargeant auprès des collectivités locales.

Ainsi, le groupe de travail sur les mobilités plus sûres préconise de créer une Agence Routière Nationale, présidée alternativement par l’État, les départements et les communes. Cette coopération aurait pour but de planifier "une maintenance prédictive des infrastructures routières de notre pays", afin "d’éviter de reproduire au niveau routier la coûteuse négligence observée sur le réseau ferroviaire national ces dernières décennies".

La vocation de l'agence serait de partager la connaissance du réseau routier, mettre en commun et garantir l’accès aux données, partager les retours d’expérience, mutualiser les expertises d’accidentalité, les standards et les priorités d’entretien, en mettant à sa disposition l’ensemble de l’écosystème technique et professionnel existant (CEREMA , IDDRIM, USIRF...), mais aussi les services routiers des départements.

Un effort particulier est recommandé pour l’infrastructure secondaire, afin d’en identifier les sections accidentogènes. Cela pourrait passer par la mise en œuvre concertée, avec les départements, d’une politique de limitations de vitesse graduée prenant en compte le niveau de sécurité offert par l’infrastructure, de signalisations renforcées et de déploiement de radars sur les sections potentiellement dangereuses du réseau secondaire. Les experts évoquent un 70 km/h par défaut, qui pourrait être relevé à 90, voire 110 km/h en fonction des caractéristiques. Toute la question est de savoir quels seraient ces experts habilités à fixer de telles règles.

Il faut souligner que l'Agence appuierait ses travaux "sur une expression des usagers, dont la forme reste à définir". Chiche ! Vu la façon dont les automobilistes sont traités (des pétitions réunissant des centaines de milliers d'avis sont ignorées alors que des associations fantoches antivoitures ont l'oreille des décideurs), ce ne serait pas du luxe.

Si cela se vérifie, ce serait une avancée majeure.

Mais, ne nous réjouissons pas trop vite. Il se trouve quand même des experts qui souhaitent "rendre progressivement obligatoires sur les véhicules individuels les éthylotests anti-démarrage", ainsi que les "boîtes noires". Ils voudraient pouvoir utiliser aussi les images des dashcams pour déterminer les responsabilités en cas d'accident. Plus étonnant, ils trouvent maintenant des vertus aux avertisseurs de zones de danger, qu'ils voulaient pourtant interdire en 2011. Ces systèmes permettent, il est vrai, d'échanger des informations en cas de bouchons ou d'accident.

Au fait, comment les gens de la Sécurité Routière appréhendent-ils les aides à la conduite ? Mal, évidemment. Pour eux, ce sont des "risques nouveaux" et ils craignent que l'électronique embarquée ne conduise à une forme d'hypovigilance. Tant de mauvaise foi, doublée d'une ignorance abyssale, laisse rêveur.

C'est étonnant qu'un homme aussi intelligent que le nouveau Président de la République n'ait pas encore perçu l'incompétence de l'administration qui est censée sauver des vies. Ou alors c'est le cas et les choses vont changer....

*La Sécurité routière a envoyé aux préfets une note dans laquelle sont détaillés des arguments en faveur de l'abaissement de la vitesse maximale à 80 km/h sur certaines routes secondaires. Le document a été publié par le site moto-net.com. Et son existence a été confirmée. On peut y lire que la mesure permettrait de sauver plusieurs centaines de vies par an, entre 200 et 400 selon le type de voies. Ca, c’est pour la théorie. Le même document aborde le test en cours depuis deux ans sur certaines routes, où la mesure est appliquée. Il est question d’une amorce à la baisse de l’accidentalité, mais on ne sait pas dans quelle proportion. Et surtout, la Sécurité Routière reconnaît qu’il faudrait 5 ans en principe pour tirer des conclusions scientifiques. Dès lors, on se demande pourquoi l’Etat n’attend pas trois ans de plus, au lieu d’imposer cette baisse de vitesse, qui va nécessiter de déployer 40 000 panneaux. Un vaste chantier qui va prendre 6 mois et dont le budget n’est pas précisé. Du coup, la sécurité Routière met en avant d’autres arguments, dont un gain de 120 euros par an au niveau du carburant et une baisse de 30 % des émissions polluantes. Ce dernier chiffre est d’ailleurs faux. Le gain serait en fait de 20 % selon l’ADEME.

**A la demande de la Ligue de Défense des Conducteurs, la Société de Calcul Mathématique, cabinet de mathématique indépendant, a réalisé une étude qui met en lumière la totale absence de légitimité des formules utilisées pour lier scientifiquement la vitesse à la mortalité routière. Son analyse porte notamment sur trois études qui s'appuient sur la formule « 1% de vitesse en moins c'est 4% de mort en moins » et encouragent le déploiement renforcé des radars. La Société de Calcul Mathématique tire les conclusions suivantes : « du strict point de vue de la logique, les modèles utilisés par ces document sont inappropriés, incohérents et n'ont jamais fait l'objet de la moindre validation. Il ne s'agit que d'approches non scientifiques qui se citent entre elles. On ignore sur quelles données ils s'appuient et quelle est l'incertitude sur ces données. Les modèles ne font pas la distinction entre différentes situations qu'il faudrait manifestement différencier ».