IA dans la gestion de la sécurité aéronautique : Partie 6 – Supervision par la direction

Encadrer l’utilisation de l’IA dans des systèmes critiques pour la sécurité

Au cours des dernières semaines, nous avons exploré l’intelligence artificielle dans la gestion de la sécurité aéronautique sous plusieurs angles : fondements, données et confiance, responsabilité, facteurs humains et applications pratiques.

Chaque partie nous a menés vers une même conclusion :

L’IA ne remplace pas un système de gestion de la sécurité.
Elle doit fonctionner à l’intérieur de celui-ci.

Nous arrivons maintenant à la question essentielle :

Qui encadre l’utilisation de l’IA dans un environnement critique pour la sécurité?

De la curiosité à la responsabilité

Dans l’industrie, les discussions sur l’IA ne sont plus théoriques.

Les équipes aéroportuaires réfléchissent à son utilisation pour :

  • l’analyse de données et des rapports

  • la gestion de la faune

  • la planification des opérations hivernales

  • le suivi des équipements et des flottes

  • la formation et les processus AVOP

  • les opérations côté aérogare et côté ville

Cette curiosité est non seulement normale, elle est nécessaire.

Mais une curiosité sans structure introduit du risque.

Non pas parce que l’IA est intrinsèquement dangereuse, mais parce que tout changement non encadré dans un système critique pour la sécurité l’est.

Le véritable risque : un manque de gouvernance

Tout au long de cette série, nous avons insisté sur le fait que :

  • l’IA peut produire des analyses, mais pas assumer la responsabilité

  • l’IA peut appuyer des décisions, mais pas les prendre en charge

  • l’IA peut accélérer des processus, mais pas les valider

Le risque le plus probable n’est pas technique.

Il est organisationnel.

Il apparaît lorsque l’IA s’intègre dans les opérations :

  • sans approbation claire

  • sans limites définies

  • sans visibilité pour la direction

Ce n’est pas de l’innovation.

C’est une dérive.

La responsabilité ne se délègue pas

Les principes réglementaires en aviation sont clairs, même s’ils ne traitent pas encore directement de l’IA :

La responsabilité demeure celle de l’exploitant, et ultimement celle du dirigeant responsable.

Ni le système
Ni le fournisseur
Ni l’algorithme

Si un processus appuyé par l’IA contribue à un événement de sécurité,
c’est l’organisation qui en portera la responsabilité.

Ce qui signifie une chose :

L’adoption de l’IA n’est pas une décision technique. C’est une décision de gouvernance.

Le rôle de la direction : établir les conditions

Pour les dirigeants et les responsables de la sécurité, il ne s’agit pas de refuser l’IA.

Il s’agit de s’assurer que :

  • son introduction est structurée, et non informelle

  • son utilisation est visible, et non cachée dans les équipes

  • elle est évaluée comme tout autre changement opérationnel

Surtout :

Il ne doit y avoir aucune surprise.

Si l’IA influence l’analyse des données, l’évaluation des risques ou la prise de décision,
la direction doit en être informée et en approuver l’utilisation.

Un cadre pratique : 5 questions essentielles à poser

Avant d’intégrer une capacité d’IA dans vos opérations, que ce soit dans le SGS ou ailleurs, une justification claire doit être présentée.

La direction devrait, au minimum, exiger des réponses aux cinq questions suivantes :

1. Quel problème cherchons-nous à résoudre?

S’agit-il d’un enjeu opérationnel ou de sécurité bien défini, ou simplement de tester un nouvel outil?

2. Comment cela améliorera-t-il la sécurité ou la prise de décision?

Quel est le bénéfice attendu?
Une meilleure qualité de données? Une analyse plus rapide? Une détection plus précoce des risques?

Sans bénéfice clair, il n’y a pas de justification.

3. Comment la supervision humaine sera-t-elle maintenue?

Quels sont les mécanismes de validation?
Qui vérifie les résultats avant qu’ils influencent les décisions?

L’IA doit appuyer le jugement humain, pas le remplacer.

4. Comment protégeons-nous nos données?

Quelles données sont utilisées?
Où sont-elles stockées?
Qui y a accès?

Les données de sécurité font partie du profil de risque de l’organisation et doivent être protégées en conséquence.

5. Comment cela s’intègre-t-il à notre SGS actuel?

Est-ce aligné avec vos processus existants ou en dehors de ceux-ci?

Si votre SGS n’est pas clair, cohérent et vérifiable,
l’IA ne le corrigera pas. Elle en révélera les faiblesses.

Commencer par les fondations

L’un des messages les plus importants de cette série est le suivant :

L’IA ne renforcera pas un SGS fragile.

Si les processus sont mal définis, appliqués de façon inconstante ou non vérifiables :

  • l’IA amplifie ces lacunes

  • elle ne les corrige pas

Avant d’introduire l’IA, les organisations doivent s’assurer que :

  • les processus sont définis et respectés

  • les rôles et responsabilités sont clairs

  • les données sont structurées et fiables

  • les revues de gestion sont actives et utiles

Autrement dit :

Il faut d’abord solidifier les bases.

Une approche mesurée

L’IA a sa place dans la sécurité aéronautique.

Bien utilisée, elle peut :

  • améliorer la visibilité

  • accroître l’efficacité

  • soutenir de meilleures décisions

Mais elle doit être intégrée avec la même rigueur que tout autre changement opérationnel.

Cela implique :

  • une intention claire

  • une évaluation structurée

  • une supervision définie

  • une validation continue

Pas seulement de l’enthousiasme.

Conclusion : prendre les devants

L’IA fait déjà partie des discussions dans le secteur aéronautique.

La question n’est pas de savoir si elle sera utilisée.

C’est de savoir si elle sera pilotée.

Le rôle des dirigeants n’est pas de devenir des experts techniques.

Il est de s’assurer que :

  • les bonnes questions sont posées

  • les bons contrôles sont en place

  • l’organisation demeure responsable de la gestion de la sécurité

Car en aviation,
la manière dont une solution est introduite est aussi importante que la solution elle-même.

Appel à l’action

Si votre organisation commence à réfléchir à l’utilisation de l’IA pour soutenir la sécurité, les opérations ou la prise de décision, le moment est venu d’encadrer cette démarche.

Chez Acclivix, nous accompagnons les exploitants aéroportuaires et les organisations aéronautiques pour :

  • renforcer leur système de gestion de la sécurité

  • structurer des processus clairs et vérifiables

  • évaluer l’intégration de nouvelles technologies, y compris l’IA

  • assurer une visibilité complète pour la direction

Grâce à notre partenariat avec Wombat Safety Software, nous aidons également les organisations à structurer, suivre et démontrer leurs processus de sécurité, en créant une base solide avant d’y intégrer de nouvelles capacités.

Si cette réflexion est en cours chez vous, nous serions heureux d’en discuter avec vous.

Next
Next

AI in Aviation Safety Management: Part 6 – Executive Oversight