IA dans la gestion de la sécurité aéronautique: Partie 4 – Facteurs humains et culture

Le piège de l’automatisation : IA, complaisance et culture de sécurité

Il y a environ cinq ans et demi, lorsque j’ai fondé Acclivix, le premier cours que j’ai développé s’intitulait Introduction au SGS et aux facteurs humains pour les aéroports.

Je l’ai créé pour une raison simple : la plupart des formations que j’avais suivies sur les facteurs humains étaient conçues pour les opérations de transport aérien commercial. Il s’agissait d’excellentes formations — mais une grande partie de leur contenu ne se transposait pas bien à la réalité des environnements aéroportuaires.

Les opérations aéroportuaires sont différentes. Les risques sont différents. Les personnes qui exécutent le travail sont différentes.

Mais une chose demeure exactement la même.

La sécurité repose ultimement sur le comportement humain, la vigilance humaine et le jugement humain.

Cette réalité n’a pas changé avec l’arrivée de l’intelligence artificielle. En fait, l’IA pourrait rendre cet aspect encore plus important.

Alors que les organisations aéronautiques commencent à intégrer des outils alimentés par l’IA dans leurs systèmes de gestion de la sécurité, un nouveau défi lié aux facteurs humains apparaît discrètement — un défi que l’aviation a déjà rencontré auparavant.

Le piège de l’automatisation.

La promesse de l’automatisation

L’aviation a toujours adopté l’automatisation comme moyen d’améliorer la sécurité.

Au fil des décennies, plusieurs technologies ont été introduites et ont permis de réduire considérablement certains types de risques :

  • les pilotes automatiques réduisant la charge de travail des pilotes

  • les systèmes d’avertissement de proximité du sol empêchant les impacts sans perte de contrôle

  • les systèmes d’évitement des collisions protégeant les aéronefs dans des espaces aériens achalandés

L’automatisation a sans aucun doute rendu l’aviation plus sûre.

Mais l’aviation a également appris une leçon importante.

Chaque nouvelle couche d’automatisation introduit de nouveaux risques liés aux facteurs humains.

Dépendance excessive à l’automatisation.
Perte de conscience de la situation.
Dégradation des compétences.
Complaisance face à l’automatisation.

Ces risques ne surviennent pas parce que l’automatisation est défaillante. Ils apparaissent parce que le comportement humain s’adapte à la présence de l’automatisation.

L’intelligence artificielle représente maintenant la prochaine étape de cette évolution.

L’IA entre dans le système de gestion de la sécurité

Dans l’ensemble du secteur de l’aviation, des outils intégrant l’IA commencent à apparaître au sein des systèmes de gestion de la sécurité.

Ces outils peuvent :

  • analyser de grands volumes de rapports de sécurité

  • identifier des tendances ou des risques émergents

  • soutenir l’analyse des tendances

  • produire des tableaux de bord et des indicateurs prédictifs

Pour les professionnels de la sécurité et les dirigeants, ces capacités sont naturellement attrayantes. Les organisations aéronautiques génèrent d’importants volumes de données opérationnelles, et les systèmes d’IA peuvent les traiter beaucoup plus rapidement que les méthodes d’analyse traditionnelles.

À bien des égards, l’IA peut renforcer un SGS en aidant les organisations à voir l’information de sécurité plus clairement.

Mais c’est précisément là qu’un risque culturel subtil commence à apparaître.

Le piège de l’automatisation

Le piège de l’automatisation survient lorsque les gens commencent à croire que, puisqu’un système surveille la sécurité, ils n’ont plus besoin d’y réfléchir activement.

Dans le contexte d’un SGS aéronautique, cela peut se manifester de plusieurs façons.

Les équipes de sécurité peuvent supposer que le système détectera automatiquement les risques émergents.

Les dirigeants peuvent se fier davantage aux tableaux de bord qu’à l’engagement direct avec les réalités opérationnelles.

Les employés peuvent commencer à croire que si quelque chose était réellement dangereux, le système le signalerait.

Avec le temps, la sécurité peut passer subtilement d’une activité que les personnes gèrent activement à quelque chose qu’elles présument gérée par le système.

Ce changement est subtil — mais il est dangereux.

Les systèmes de gestion de la sécurité n’ont jamais été conçus pour automatiser la réflexion sur la sécurité. Ils ont été conçus pour structurer la manière dont les organisations réfléchissent à la sécurité.

L’intelligence artificielle ne change pas ce principe.

Quand la technologie commence à influencer la culture

L’intelligence artificielle ne se contente pas d’automatiser des tâches.

Elle peut également influencer la manière dont les personnes perçoivent les risques, les responsabilités et l’imputabilité.

Si les outils d’IA ne sont pas implantés de manière réfléchie, ils peuvent involontairement affaiblir plusieurs piliers de la culture de sécurité.

Culture de signalement

Si les employés croient que les systèmes surveillent en permanence les opérations, ils peuvent ressentir moins de responsabilité personnelle à signaler les dangers ou les préoccupations.

L’observation humaine et le signalement demeurent des sources essentielles d’information en matière de sécurité. L’IA ne peut pas détecter ce qui ne lui est jamais signalé.

Culture d’apprentissage

Les organisations pourraient commencer à se fier davantage aux analyses automatisées plutôt qu’à l’exploration active des leçons de sécurité par la discussion et l’engagement opérationnel.

L’IA peut faire ressortir des tendances, mais elle ne peut pas comprendre pleinement le contexte opérationnel qui les sous-tend.

Culture juste

Si des outils d’IA commencent à identifier des « comportements à risque » ou des écarts opérationnels, il existe un risque que les organisations considèrent les résultats de l’algorithme comme une vérité objective.

Or, les algorithmes ne comprennent pas l’intention, les pressions opérationnelles ou les contraintes de travail. Ces éléments nécessitent une interprétation humaine.

Culture informée

Les tableaux de bord et les résumés peuvent fournir des indications utiles, mais ils peuvent aussi créer un faux sentiment de compréhension si les dirigeants se fient uniquement à ce que le système présente.

La véritable compréhension des opérations nécessite des conversations, de l’observation et de la curiosité.

La culture de sécurité dépend ultimement de la participation des personnes.

Aucune technologie ne peut remplacer cela.

Le parallèle avec le pilote automatique

L’aviation a déjà été confrontée à un défi similaire.

Lorsque les systèmes de pilote automatique sont devenus très performants, l’industrie a appris que les pilotes ne pouvaient pas simplement se désengager mentalement lorsque l’automatisation était active.

Les pilotes devaient toujours :

  • surveiller le système

  • questionner son fonctionnement

  • maintenir leur conscience de la situation

  • être prêts à intervenir au besoin

L’automatisation améliore la sécurité, mais seulement lorsque les humains demeurent activement engagés.

L’intelligence artificielle dans les systèmes de gestion de la sécurité pose un défi semblable.

L’IA peut détecter des tendances dans les données de sécurité, mais elle ne peut pas pleinement comprendre :

  • les nuances opérationnelles

  • les pressions organisationnelles émergentes

  • les solutions de contournement informelles

  • les signaux culturels au sein d’une organisation

Ces informations proviennent toujours des personnes.

La responsabilité du leadership

Les dirigeants jouent un rôle déterminant dans la manière dont la technologie influence la culture de sécurité.

Si les leaders communiquent que les systèmes d’IA « géreront la sécurité », les organisations peuvent adopter une attitude passive.

Mais si les dirigeants expliquent que les outils d’IA aident les organisations à poser de meilleures questions sur la sécurité, la technologie peut renforcer l’engagement plutôt que l’affaiblir.

L’IA doit soutenir la réflexion sur la sécurité — et non la remplacer.

Les plateformes modernes de gestion de la sécurité, comme Wombat Safety Software, peuvent aider les organisations à structurer l’information de sécurité, à suivre les mesures correctives et à améliorer la visibilité au sein du système de gestion de la sécurité. Ces outils facilitent la compréhension des liens entre les différentes activités de sécurité dans une organisation.

Mais il ne s’agit toujours que d’outils.

Leur valeur dépend entièrement de la manière dont les personnes interprètent l’information, remettent en question les hypothèses et agissent à partir de ce que le système révèle.

La culture de sécurité demeure fondamentale

Un système de gestion de la sécurité efficace repose ultimement sur la culture.

Le professeur James Reason a décrit la culture de sécurité comme étant composée de plusieurs éléments interdépendants : une culture de signalement, une culture juste, une culture d’apprentissage et une culture informée.

Tous ces éléments reposent sur la participation active des personnes.

L’intelligence artificielle peut soutenir ces éléments en aidant les organisations à traiter l’information plus efficacement.

Mais elle ne peut pas remplacer les comportements qui les soutiennent.

La curiosité.
Le scepticisme professionnel.
Le signalement ouvert.
L’engagement du leadership.

Ces responsabilités demeurent humaines.

La véritable occasion

L’intelligence artificielle a le potentiel de devenir un outil puissant pour la sécurité aéronautique.

Utilisée de manière réfléchie, elle peut aider les organisations à détecter des tendances plus tôt, à organiser l’information de sécurité plus efficacement et à soutenir de meilleures décisions.

Mais la technologie ne doit jamais remplacer l’engagement.

Les organisations qui réussiront seront celles qui utiliseront l’IA pour renforcer les conversations sur la sécurité — et non les faire taire.

Car la sécurité n’a jamais reposé uniquement sur des systèmes.

Elle dépend toujours de personnes attentives, curieuses et prêtes à remettre en question ce qu’elles observent.

Une question pour les leaders en sécurité

Alors que l’intelligence artificielle s’intègre progressivement aux systèmes de gestion de la sécurité de l’aviation, les dirigeants devraient peut-être se poser une question importante :

Utilisons-nous la technologie pour soutenir la réflexion sur la sécurité, ou commençons-nous tranquillement à la remplacer ?

La réponse à cette question influencera l’évolution de la culture de sécurité dans les années à venir.

Si votre organisation explore la manière dont l’IA et les plateformes modernes de sécurité peuvent s’intégrer à votre système de gestion de la sécurité — ou si vous souhaitez vous assurer que la technologie renforce votre culture de sécurité plutôt que de l’affaiblir — nous serions heureux de poursuivre la conversation avec vous.

Communiquez avec Acclivix pour discuter de la façon dont une implantation réfléchie de la technologie, un leadership solide en matière de sécurité et une conception pratique du SGS peuvent soutenir des opérations aéronautiques plus sûres.

Previous
Previous

AI in Aviation Safety Management: Part 4 – Human Factors & Culture

Next
Next

FOD et la haute direction : des débris à la discipline