L’IA dans la gestion de la sécurité de l’aviation : Partie 2 - Données et confiance

Vos données racontent votre histoire de sécurité : IA, propriété et risque informationnel

Nous parlons constamment de données - sans toujours prendre le temps de réfléchir à ce qu’elles représentent réellement.

Des industries entières existent pour collecter des données à notre sujet : nos comportements, nos préférences, nos habitudes et nos intérêts. Ces données ont de la valeur parce qu’elles racontent une histoire. Elles permettent de comprendre comment nous agissons, comment nous prenons des décisions et comment nous pourrions réagir.

Dans nos vies personnelles, cette valeur peut être relativement bénigne - services personnalisés, recommandations, commodité. Elle peut aussi être préjudiciable, notamment en cas de cybercriminalité, de manipulation ou simplement en facilitant la manière dont on nous soutire de l’argent.

En aviation, les enjeux sont beaucoup plus élevés.

Les données opérationnelles et de sécurité racontent une histoire beaucoup plus sensible - celle des vulnérabilités, des faiblesses systémiques, de la performance humaine et des décisions organisationnelles. Ce ne sont pas de simples informations. Ce sont des actifs de sécurité.

Et comme tout actif de valeur, elles comportent un risque.

Les données comme actif de sécurité - et non comme sous-produit

Dans de nombreuses organisations, les données de sécurité sont perçues comme un sous-produit des opérations :

  • des rapports sont soumis,

  • des audits génèrent des constats,

  • des tendances apparaissent dans des tableaux de bord.

Mais les données de sécurité ne sont pas neutres.

Elles reflètent :

  • les points de tension des systèmes,

  • les zones où les défenses sont fragiles,

  • les adaptations humaines nécessaires pour faire fonctionner les opérations,

  • les risques qui sont acceptés - volontairement ou non.

Bien gérées, ces données soutiennent l’apprentissage, la priorisation et des décisions éclairées.

Mal gérées, elles peuvent :

  • être mal interprétées,

  • être sorties de leur contexte,

  • exposer inutilement l’organisation,

  • miner la confiance à l’interne comme à l’externe.

Reconnaître les données de sécurité comme un actif est la première étape vers une gouvernance responsable.

Pourquoi l’IA augmente les enjeux - sans créer le risque

L’intelligence artificielle ne crée pas le risque informationnel.

Elle l’intensifie.

Les systèmes d’IA :

  • regroupent les données,

  • relient des ensembles d’informations auparavant séparés,

  • détectent des tendances difficiles à percevoir pour l’humain,

  • apprennent à partir des données auxquelles ils sont exposés.

C’est ce qui rend l’IA puissante - mais aussi impitoyable face à une gouvernance des données déficiente.

Si les données sont mal contrôlées, partagées de manière floue ou insuffisamment protégées, l’IA ne corrige pas ces lacunes. Elle en accélère les conséquences.

La question n’est donc pas de savoir si l’IA est risquée.

La véritable question est de savoir si l’organisation comprend réellement les données qu’elle possède, si elle en conserve le contrôle et si elle les protège adéquatement.

Propriété, résidence des données et limites

Lors de démonstrations de logiciels de gestion de la sécurité, l’une des questions les plus fréquentes - et les plus révélatrices - est la suivante :

« Où sont stockées les données? »

Cette question démontre une compréhension instinctive de la valeur - et du risque - associé aux données.

Pour de nombreuses organisations aéronautiques canadiennes, la résidence des données est un enjeu important. Des données hébergées au Canada sont assujetties aux lois, aux protections et aux attentes canadiennes. Cela a des implications en matière de conformité, mais aussi de confiance.

Toutefois, l’emplacement de stockage n’est qu’une partie de l’équation.

Les dirigeants devraient également se demander :

  • Qui est propriétaire des données une fois qu’elles sont intégrées à un système?

  • Qui peut y accéder - et dans quelles conditions?

  • Les données sont-elles strictement cloisonnées par organisation?

  • Peuvent-elles être réutilisées, analysées ou exploitées à d’autres fins?

  • Que deviennent-elles si les systèmes changent ou si un contrat prend fin?

Ce ne sont pas des questions de TI.
Ce sont des questions de gouvernance.

Confidentialité et dimension humaine de la confiance

Les systèmes de gestion de la sécurité reposent sur la confiance.

Les employés signalent des dangers, des erreurs et des préoccupations parce qu’ils croient que :

  • l’information sera traitée de manière responsable,

  • elle ne sera pas utilisée à des fins inappropriées,

  • elle ne se retournera pas injustement contre eux.

Si le personnel ne sait pas clairement où vont les données, qui y a accès ou comment elles pourraient être réutilisées, les comportements de signalement changent - souvent de façon silencieuse.

Il n’est pas nécessaire que l’IA soit mal utilisée pour que la confiance s’érode.
La simple perception d’une perte de contrôle suffit.

C’est pourquoi la confidentialité, la gestion des accès et la transparence quant à l’utilisation des données sont essentielles à la fois à la culture de sécurité et à l’efficacité du SGS.

Le risque informationnel est une responsabilité de la direction

Le risque informationnel s’inscrit aux côtés :

  • du risque opérationnel,

  • du risque financier,

  • du risque réputationnel,

  • du risque de sécurité.

Il ne peut pas être entièrement délégué à des fournisseurs ou à des équipes techniques.

Les dirigeants doivent être en mesure d’expliquer clairement :

  • quelles données de sécurité sont recueillies,

  • où elles sont conservées,

  • qui en gouverne l’utilisation,

  • comment la confidentialité est protégée,

  • comment les limites sont établies et respectées.

Si ces réponses ne sont pas claires, l’introduction de l’IA ne crée pas plus de compréhension - elle amplifie l’incertitude.

Ce que cela signifie pour la gestion de la sécurité de l’aviation

Dans un contexte de SGS, une gouvernance efficace des données signifie notamment :

  • traiter les données de sécurité comme un actif organisationnel protégé,

  • établir des règles claires d’accès, d’utilisation et de conservation,

  • s’assurer que les outils intégrant l’IA fonctionnent dans des limites définies,

  • maintenir la transparence envers le personnel et les autorités,

  • préserver la confiance à mesure que les systèmes évoluent.

L’IA peut soutenir l’analyse et l’apprentissage - mais uniquement dans un cadre où la propriété des données, la confidentialité et les limites sont déjà bien comprises.

Ce qui s’en vient dans cette série

Dans le prochain article de cette série, nous aborderons une question qui découle naturellement des données et de la confiance :

la responsabilité.

Lorsque des systèmes appuyés par l’IA influencent les décisions, identifient des risques ou orientent les priorités :

  • qui demeure responsable?

  • comment les décisions sont-elles défendues?

  • à quoi ressemble la vérifiabilité en pratique?

Comme toujours, l’accent demeurera sur le leadership, la gouvernance et une gestion de la sécurité défendable - et non sur la technologie pour la technologie.

Car en aviation, la sécurité ne repose pas seulement sur ce que nous savons.
Elle repose sur ce que nous protégeons, la façon dont nous le gouvernons et à qui nous accordons notre confiance.

Poursuivons la discussion sur vos données de sécurité

Pour de nombreuses organisations aéronautiques, les questions soulevées dans cet article ne portent pas tant sur l’intelligence artificielle que sur la compréhension, la protection et la gouvernance des données de sécurité déjà en place.

Si vous n’êtes pas entièrement certain de la manière dont votre organisation :

  • définit la propriété des données de sécurité et opérationnelles,

  • gouverne l’accès et la confidentialité,

  • établit des limites quant à l’utilisation ou au partage des données,

  • serait en mesure d’expliquer ces pratiques à la direction, au personnel ou aux autorités,

cette incertitude constitue un signal important - et une occasion d’amélioration.

Chez Acclivix, nous accompagnons les dirigeants et les responsables de la sécurité afin de :

  • examiner la manière dont les données de sécurité sont recueillies, stockées et protégées,

  • évaluer le risque informationnel dans le contexte du SGS,

  • soutenir des discussions stratégiques au niveau exécutif sur la gouvernance des données et la confiance,

  • veiller à ce que les outils et technologies émergents renforcent - et non fragilisent - la gestion de la sécurité.

Que vous prépariez votre organisation à une utilisation future de l’IA, que vous réévaluiez vos systèmes actuels ou que vous recherchiez simplement un point de vue indépendant, nous serions heureux de poursuivre la conversation.

👉 Communiquez avec Acclivix pour discuter de la façon dont votre organisation gère et protège ses données de sécurité.

Previous
Previous

AI in Aviation Safety Management: Part 2 – Data & Trust

Next
Next

Penser « Le Jour de la marmotte » : pourquoi le leadership en sécurité ne peut pas supposer que demain ressemblera à aujourd’hui