Cybersécurité : les objets connectés malveillants trahis par leur empreinte radiofréquence
Date:
Mis à jour le 20/02/2025
Quoi de plus ressemblant que deux smartphones ou deux montres connectées de même modèle et de même marque ? « Détrompez-vous, lance Valeria Loscri, directrice de recherche au sein de l’équipe-projet Fun, du centre Inria de l’université de Lille. La fabrication en série des objets connectés, standardisée, n’empêche nullement l’apparition d’infimes différences ou « défauts » matériels. Ceux-ci peuvent affecter leurs émissions de radiofréquences, ce qui peut se traduire par un décalage de la fréquence porteuse ou un décalage de phase sur un oscillateur ou une autre partie du microcircuit. »
L’équipe-projet Fun (Futur Ubiquitous Networks) a donc cherché une façon d’exploiter ces défauts pour authentifier efficacement les dispositifs, à des fins de sécurité. « C’est un peu comme les vrais jumeaux. Ils se ressemblent comme deux gouttes d’eau mais ils n’ont pas les mêmes empreintes digitales », illustre Valeria Loscri.
Les scientifiques entendent donc faire de ces défauts un avantage. Face à la menace croissante d’infiltration de dispositifs illicites dans les réseaux sans fil, pour usurper une identité par exemple, la possibilité de distinguer un appareil malveillant des autres permet de sécuriser les communications.
Verbatim
Ces défauts de fabrication possèdent des caractéristiques uniques et difficiles à reproduire, même avec les techniques avancées d’usurpation d’identité à la disposition des cyberpirates. Nous avons donc analysé les signaux radiofréquence de différents objets connectés. Ces données sont spécifiques et quasiment infalsifiables.
Auteur
Poste
Doctorant dans l'équipe-projet Fun
À partir de ces mesures réelles, l’équipe a simulé trois scénarios réalistes d’environnements de communication, comptant plus ou moins d’objets différents, dont certains autorisés, et d’autres non. Ces scénarios ont été testés de façon expérimentale à partir de radios logicielles, des dispositifs émetteurs et récepteurs configurables. Ceux-ci ont permis de reproduire les émissions de plusieurs échantillons tests d’objets connectés, chacun défini par ses propres défauts matériels, spécifiques et inimitables.
Verbatim
Sans ces systèmes configurables, il nous aurait fallu disposer de très nombreux objets connectés pour tester toutes les possibilités. Ici, plutôt que laisser faire le hasard, nous avons pu essayer d’ajouter un défaut, puis deux, trois… pour déterminer à partir de combien d’imperfections nous pouvions identifier un dispositif.
Auteur
Poste
Chercheuse post-doctorante dans l'équipe-projet Fun
L’analyse de ces échantillons a été réalisée en entraînant différents modèles d’apprentissage automatique à reconnaître des combinaisons de défauts et à caractériser les objets : Random Forest, Support Vector Machines, K-Nearest Neihbors, XGBoost et la régression logistique…
« Parmi ces modèles, Random Forest (ou forêt d’arbres décisionnels en français) s’est révélé être le plus efficace, indique Valeria Loscri. Cet algorithme d’apprentissage automatique associe les résultats de plusieurs arbres de décision pour obtenir un résultat unique. Il a permis d’authentifier des objets connectés lorsqu’ils présentaient une combinaison de trois défauts, avec des taux de détection dépassant 96 %, même dans des environnements exigeants ! »
Les trois scientifiques ont aussi expérimenté leur solution face à divers scénarios de cyberattaque : par exemple des attaques par brouillage pour évaluer la résistance au bruit environnant, ou encore des attaques multinœuds impliquant plusieurs dispositifs malveillants simultanément.
scénarios testés expérimentalement
de détection des objets connectés
badges obtenus lors de la conférence ACSAC
En définitive, cette approche alliant identification d’objets connectés basée sur le matériel et modèles d’apprentissage automatique pourrait s’avérer préférable aux méthodes traditionnelles cryptographiques en matière de cybersécurité. Car non seulement la solution imaginée par l’équipe-projet Fun utilise beaucoup moins de puissance de calcul et d’énergie, mais en outre elle évite l’usage de clés de chiffrement, qui risquent d’être interceptées ou falsifiées.
Quel est l’objectif des chercheurs et chercheuses désormais ?
Verbatim
Nous poursuivons nos recherches pour affiner notre méthode d’authentification et la rendre universelle. Il s’agit d’entraîner nos données avec d’autres modèles d’apprentissage de type Deep Learning.
Auteur
Poste
Chercheuse dans l'équipe-projet Fun
L’équipe-projet Fun peut se féliciter des résultats déjà obtenus : « Notre solution a démontré son efficacité, sa robustesse et sa flexibilité », soulignent les scientifiques. « Elle a d’ailleurs suscité l’intérêt de nombreux expertes et experts en cybersécurité à l’Annual Computer Security Applications Conference (ACSAC) en décembre 2024 à Hawaï. » (Voir encadré.)
L’Annual Computer Security Applications Conference (ACSAC) en décembre 2024 à Hawaï donnait l’opportunité de participer à une session d’« artifact evaluation ». Valeria Loscri, Selma Yahia et Ildi Alla ont donc soumis leur logiciel et leurs données pour évaluation. L’objectif ? Favoriser la reproductibilité des résultats scientifiques, en les mettant à la disposition de la communauté, et accélérer la recherche en tirant parti des modèles développés précédemment par d’autres équipes. Pour encourager cette démarche, des "badges" sont attribués en récompense.
Concrètement, l’ACSAC proposait une machine virtuelle aux auteurs et autrices de publications, pour expérimenter leur solution. Les scientifiques de l’équipe-projet Fun d’Inria ont donc téléchargé leurs données sur ce serveur, ainsi que les approches d’apprentissage développées. Les rapporteurs ont ainsi pu constater que la solution fonctionnait parfaitement. De plus, la méthode développée par Inria était bien documentée, facilitant ainsi son exploitation dans une optique de science ouverte. Résultat, Valeria Loscri, Selma Yahia et Ildi Alla ont obtenu trois badges, récompensant la qualité de leur recherche et la possibilité de reproduire leurs résultats expérimentalement : Code Available, Code Reviewed et Code Reproducible.
Enfin, l’équipe a partagé ses retours d’expérience dans le cadre d’un atelier intitulé « LASER ». La finalité : évoquer les premiers résultats obtenus sur la base de statistiques n’ayant pas abouti. Car un résultat négatif peut aussi constituer une avancée, en évitant à d’autres chercheurs et chercheuses de répéter ces recherches ! « C’était une expérience enrichissante, au cours de laquelle nous avons discuté de nos travaux avec des expertes et experts de premier plan dans le domaine de la cybersécurité, s’enthousiasme Ildi Alla. Les retours reçus nous ont même inspiré de nouvelles voies de recherche à explorer. »