Paul Perrotin
Directeur(s): Salah Sadou
Encadrant(s): Antoine Beugnard & Nicolas Belloir
Cybersécurité, Sécurité par construction, Vulnérabilité système, Vulnérabilité humaine
SUJET DE THÈSE
Analyse de la vulnérabilité humaine dans les systèmes de systèmes socio-techniques
Contexte général de l’étude
Portée par l’évolution du numérique, de plus en plus de systèmes sont interconnectés et forment ce qu’on appelle un système de système (SoS). Parmi les nombreuses définitions proposées pour les SoS, l’INCOSE propose la suivante [1] : « un SoS est un système dans lequel les éléments sont des systèmes managérialement et opérationnellement indépendants, et qui, tous ensemble, produisent des résultats qui ne peuvent être atteints par les systèmes individuels seuls». Dans ce contexte, on appelle « comportement émergeant » un comportement obtenu à partir de la collaboration entre les systèmes constituants. Ces type de comportements sont généralement imaginés par le concepteur du SoS en réponse à un problème complexe que les systèmes constituants seuls ne peuvent traiter. Dyson Et al. [2] définissent le comportement émergeant comme : « ce qui ne peut être prévu par analyse d’un système à un niveau inférieur que celui d’un système vu comme un tout. […] Le comportement émergeant, par définition, est ce qui reste lorsque tout le reste a été expliqué ». Même si le comportement émergeant peut être vu comme l’objectif visé par la construction d’un SoS, ce n’est cependant pas toujours le cas. En effet, d’après Jeffrey Mogul [3], si l’émergence n’est pas forcément mauvaise par essence, son imprédictibilité est elle-même considérée comme un mauvais comportement. Cela sous-entend la nécessité de classer les comportements émergents en deux familles : les désirés et les non désirés. Les premiers sont la raison même qui pousse à la construction d’un SoS. Les seconds résultent également de sa mise en place mais n’ont pas été pris en compte comme objectifs. Ils représentent donc une vulnérabilité potentielle du SoS. Par ailleurs, la diffusion des systèmes numériques, que ce soit dans la société au sens large, ou dans des microcosmes telles que les entreprises, font que l’humain peut être considéré comme un constituant à part entière d’un SoS. En effet, de par son interaction directe avec les SoS, ou à travers les systèmes tels que les IoT par exemple, il peut être amené à interagir avec un ou des systèmes du SoS, amenant par la même un comportement émergent prévu ou non. On appelle ce type de systèmes des systèmes de systèmes sociaux-techniques (SoSTS).
Objectifs de l’étude et travaux envisagés
Dans le cadre de ce travail de thèse, nous nous proposons de poursuivre des travaux [4], menés au sein de notre équipe, de manière à étendre la prise en compte de la vulnérabilité dans les SoSTS en y intégrant l’aspect humain. En effet, même si les systèmes constituants d’un SoSTS sont considérés comme surs dans leur unicité, en relations entre eux dans un SoSTS ils peuvent faire apparaître de nouvelles vulnérabilités qui peuvent être liées aux systèmes, aux humains ou aux interactions. Dans ce contexte, plusieurs défis liés aux contraintes posées par les SoSTS seront à relever. Parmi ceux-ci, le principal sera de proposer une méthodologie unifiée pour l’évaluation des vulnérabilités, prenant en compte notamment l’émergence de manière à prendre en compte l’inattendu. Pour cela, il faudra notamment considérer le facteur humain dans l’évaluation des risques : plusieurs aspects cognitifs et émotionnels seront à considérer et à étudier, tel que l’impact de la charge mentale, de la conscience de la situation, et du stress influençant l’efficacité et la performance des individus et de l’équipe dans la prise de décision, ainsi que l’impact d’un individu dans un SoSTS. Nous chercherons, donc, dans ce travail à nous appuyer sur les sciences sociales et cognitives de manière à intégrer leurs connaissances des vulnérabilités humaines dans les processus d’ingénierie système.
Résultats :
Références bibliographiques :
[1] SE Handbook Working Group Et al. « Systems engineering handbook: A guide for system life cycle processes and activities ». International Council on Systems Engineering (INCOSE): San Diego, CA, USA, pages 1–386, 2011.
[2] George B. Dyson. “Darwin Among the Machines: The Evolution of Global Intelligence”. Perseus Books, Cambridge, MA,USA, 1998.
[3] Jeffrey C. Mogul. “Emergent (mis)behavior vs. complex software systems”. In Proceedings of the 1st ACM SIGOPS/EuroSys European Conference on Computer Systems 2006,
[4] Rymel Benabidallah, Salah Sadou, Mohamed Ahmed Nacer, “Using Systems of Systems’s States for Identifying EmergentMisbihaviors”, 13 th Systems of Systems Engineering Conference, Paris, France, June 19- 22, 2018, IEEE.