IA dans la gestion de la sécurité aéronautique : Partie 6 – Supervision par la direction
Encadrer l’utilisation de l’IA dans des systèmes critiques pour la sécurité
Au cours des dernières semaines, nous avons exploré l’intelligence artificielle dans la gestion de la sécurité aéronautique sous plusieurs angles : fondements, données et confiance, responsabilité, facteurs humains et applications pratiques.
Chaque partie nous a menés vers une même conclusion :
L’IA ne remplace pas un système de gestion de la sécurité.
Elle doit fonctionner à l’intérieur de celui-ci.
Nous arrivons maintenant à la question essentielle :
Qui encadre l’utilisation de l’IA dans un environnement critique pour la sécurité?
De la curiosité à la responsabilité
Dans l’industrie, les discussions sur l’IA ne sont plus théoriques.
Les équipes aéroportuaires réfléchissent à son utilisation pour :
l’analyse de données et des rapports
la gestion de la faune
la planification des opérations hivernales
le suivi des équipements et des flottes
la formation et les processus AVOP
les opérations côté aérogare et côté ville
Cette curiosité est non seulement normale, elle est nécessaire.
Mais une curiosité sans structure introduit du risque.
Non pas parce que l’IA est intrinsèquement dangereuse, mais parce que tout changement non encadré dans un système critique pour la sécurité l’est.
Le véritable risque : un manque de gouvernance
Tout au long de cette série, nous avons insisté sur le fait que :
l’IA peut produire des analyses, mais pas assumer la responsabilité
l’IA peut appuyer des décisions, mais pas les prendre en charge
l’IA peut accélérer des processus, mais pas les valider
Le risque le plus probable n’est pas technique.
Il est organisationnel.
Il apparaît lorsque l’IA s’intègre dans les opérations :
sans approbation claire
sans limites définies
sans visibilité pour la direction
Ce n’est pas de l’innovation.
C’est une dérive.
La responsabilité ne se délègue pas
Les principes réglementaires en aviation sont clairs, même s’ils ne traitent pas encore directement de l’IA :
La responsabilité demeure celle de l’exploitant, et ultimement celle du dirigeant responsable.
Ni le système
Ni le fournisseur
Ni l’algorithme
Si un processus appuyé par l’IA contribue à un événement de sécurité,
c’est l’organisation qui en portera la responsabilité.
Ce qui signifie une chose :
L’adoption de l’IA n’est pas une décision technique. C’est une décision de gouvernance.
Le rôle de la direction : établir les conditions
Pour les dirigeants et les responsables de la sécurité, il ne s’agit pas de refuser l’IA.
Il s’agit de s’assurer que :
son introduction est structurée, et non informelle
son utilisation est visible, et non cachée dans les équipes
elle est évaluée comme tout autre changement opérationnel
Surtout :
Il ne doit y avoir aucune surprise.
Si l’IA influence l’analyse des données, l’évaluation des risques ou la prise de décision,
la direction doit en être informée et en approuver l’utilisation.
Un cadre pratique : 5 questions essentielles à poser
Avant d’intégrer une capacité d’IA dans vos opérations, que ce soit dans le SGS ou ailleurs, une justification claire doit être présentée.
La direction devrait, au minimum, exiger des réponses aux cinq questions suivantes :
1. Quel problème cherchons-nous à résoudre?
S’agit-il d’un enjeu opérationnel ou de sécurité bien défini, ou simplement de tester un nouvel outil?
2. Comment cela améliorera-t-il la sécurité ou la prise de décision?
Quel est le bénéfice attendu?
Une meilleure qualité de données? Une analyse plus rapide? Une détection plus précoce des risques?
Sans bénéfice clair, il n’y a pas de justification.
3. Comment la supervision humaine sera-t-elle maintenue?
Quels sont les mécanismes de validation?
Qui vérifie les résultats avant qu’ils influencent les décisions?
L’IA doit appuyer le jugement humain, pas le remplacer.
4. Comment protégeons-nous nos données?
Quelles données sont utilisées?
Où sont-elles stockées?
Qui y a accès?
Les données de sécurité font partie du profil de risque de l’organisation et doivent être protégées en conséquence.
5. Comment cela s’intègre-t-il à notre SGS actuel?
Est-ce aligné avec vos processus existants ou en dehors de ceux-ci?
Si votre SGS n’est pas clair, cohérent et vérifiable,
l’IA ne le corrigera pas. Elle en révélera les faiblesses.
Commencer par les fondations
L’un des messages les plus importants de cette série est le suivant :
L’IA ne renforcera pas un SGS fragile.
Si les processus sont mal définis, appliqués de façon inconstante ou non vérifiables :
l’IA amplifie ces lacunes
elle ne les corrige pas
Avant d’introduire l’IA, les organisations doivent s’assurer que :
les processus sont définis et respectés
les rôles et responsabilités sont clairs
les données sont structurées et fiables
les revues de gestion sont actives et utiles
Autrement dit :
Il faut d’abord solidifier les bases.
Une approche mesurée
L’IA a sa place dans la sécurité aéronautique.
Bien utilisée, elle peut :
améliorer la visibilité
accroître l’efficacité
soutenir de meilleures décisions
Mais elle doit être intégrée avec la même rigueur que tout autre changement opérationnel.
Cela implique :
une intention claire
une évaluation structurée
une supervision définie
une validation continue
Pas seulement de l’enthousiasme.
Conclusion : prendre les devants
L’IA fait déjà partie des discussions dans le secteur aéronautique.
La question n’est pas de savoir si elle sera utilisée.
C’est de savoir si elle sera pilotée.
Le rôle des dirigeants n’est pas de devenir des experts techniques.
Il est de s’assurer que :
les bonnes questions sont posées
les bons contrôles sont en place
l’organisation demeure responsable de la gestion de la sécurité
Car en aviation,
la manière dont une solution est introduite est aussi importante que la solution elle-même.
Appel à l’action
Si votre organisation commence à réfléchir à l’utilisation de l’IA pour soutenir la sécurité, les opérations ou la prise de décision, le moment est venu d’encadrer cette démarche.
Chez Acclivix, nous accompagnons les exploitants aéroportuaires et les organisations aéronautiques pour :
renforcer leur système de gestion de la sécurité
structurer des processus clairs et vérifiables
évaluer l’intégration de nouvelles technologies, y compris l’IA
assurer une visibilité complète pour la direction
Grâce à notre partenariat avec Wombat Safety Software, nous aidons également les organisations à structurer, suivre et démontrer leurs processus de sécurité, en créant une base solide avant d’y intégrer de nouvelles capacités.
Si cette réflexion est en cours chez vous, nous serions heureux d’en discuter avec vous.