Cybersécurité et Intelligence artificielle : quel futur ?
Difficile de prévoir ce qui se passera dans dix ans. En 2009, lorsque l’iPhone 3GS dominait le tout nouveau marché des smartphones et que Google Maps s’apprêtait à transformer notre façon de nous déplacer, nous n’aurions jamais imaginé l’avenir qui est aujourd’hui le nôtre.
D’un côté, nous pouvons tenter de deviner ce qui nous attend en tirant les enseignements de ces précédentes innovations. Après tout, les assistants vocaux et les services de streaming qui font partie de notre quotidien ont été imaginés il y a longtemps par des esprits suffisamment intelligents pour extrapoler les usages futurs à l’aune du passé.
De l’autre, personne ne peut
préjuger de l’avenir. Autrefois, on pensait qu’avec le temps, les ordinateurs deviendraient
de plus en plus gros, tels les supercalculateurs qui occupaient des salles
entières. D’innombrables ingénieurs, techniciens et analystes ont réitéré au
fil des ans leurs prévisions qui, nous le savons aujourd’hui, étaient erronées
puisque c’est un phénomène de miniaturisation qui s’est finalement produit. Aujourd’hui, un ordinateur
portable, un téléviseur ou un grille-pain peut renfermer l’équivalent de
plusieurs ordinateurs de l’époque.
Bonjour Google
À l’instar des ordinateurs miniatures
qui ont depuis bien longtemps envahi nos domiciles et lieux de travail,
l’intelligence artificielle (IA) prend, depuis 18 mois, le même chemin. D’Alexa
à Google Home, de Nest aux enceintes connectées, rares sont les foyers qui
n’ont pas intégré une quelconque forme d’IA. Au-delà de nos équipements, les
moteurs de recommandations, via l’IA, proposent des publicités ultra-ciblées (d’une
redoutable précision) sur le web et les réseaux sociaux.
L’apprentissage automatique et autres
dérivés rendent l’IA encore plus intelligente : elle peut, ainsi, vérifier
des anomalies, classer les données recueillies et prédire si un utilisateur
s’apprête à quitter un service.
Mais la multiplication des
fonctionnalités implique des volumes de code plus conséquents et de fait, un
plus grand nombre de bugs. L’IA est une nouvelle technologie, ce qui, par
définition, la rend moins sûre. Il est donc facile de comprendre pourquoi les cybercriminels
tirent profit de ce nouvel outil à risque. Toute la question est de savoir comment
ils poursuivront leur démarche, et à quelle échelle.
Adieu la transparence
La presse
se montre assez peu alarmiste mais chacun sait, que les pirates informatiques
finiront par exploiter le potentiel criminel de l’IA pour causer des dommages
encore plus graves. À mon sens, la 1ère attaque de ce genre risque
d’émaner d’une arnaque audio.
Bien que les technologies, permettant
d’enregistrer, d’analyser et d’émuler une voix, n’aient pas encore été
criminalisées à grande échelle (par manque d’accès libre), elles existent déjà.
Leur sécurisation ne dure qu’un certain temps, mais une fois qu’un petit génie
du piratage aura trouvé la faille, d’autres s’empresseront de le suivre. Dès
qu’ils auront ces outils en leur possession, ils les détourneront sans aucune
limite. Imaginez qu’un cybercriminel téléphone à votre banque en se faisant
passer pour vous, muni non seulement de vos identifiants et codes de sécurité, mais
doté également d’une voix strictement identique à la vôtre ! Ou qu’un de
vos dirigeants vous appelle, paniqué, en vous invitant à communiquer des
informations stratégiques concernant l’entreprise ! Les exemples peuvent
se décliner à l’infini…
Et ce n’est pas tout ; les deep
fakes (contraction de "deep learning" et "fake
news"), dans leur forme la plus élémentaire, pullulent déjà sur les
réseaux sociaux. Mais ces détournements de l’IA ne se contentent pas de copier
votre voix ; vous pouvez également être mis en scène dans une vidéo, en
train de tenir des propos compromettants face à une webcam ou dans le cadre
d’un appel FaceTime. À partir du moment où un cybercriminel a la mainmise sur
le logiciel adéquat, il peut facilement vous observer et établir votre profil via
votre webcam pour se procurer les informations dont il a besoin. Avec ce type
d’attaques, les pirates peuvent causer de véritables ravages en truquant les
propos tenus – et en créant l’illusion de votre présence physique afin de crédibiliser
leur détournement.
Un appel aux armes
L’IA ne montre aucun signe d’essoufflement ; elle est d’ailleurs tellement efficace qu’on ne peut plus s’en passer, raison pour laquelle nous l’avons adoptée sans la moindre hésitation. À l’évidence, il n’est nullement question de faire machine arrière.
En tant que défenseurs de l’IA, nous devons créer les outils, les modèles de sécurité et les processus qui permettront de combattre cette vague de deep fakes, en continuant à utiliser l’IA à notre avantage en toute sérénité.