L’intelligence artificielle : Un danger potentiel pour la sécurité nationale/Par Moussa Hormat-Allah, professeur d'université, lauréat du Prix Chinguitt

27 March, 2025 - 09:45

Aperçu général sur l’intelligence artificielle

On n’arrête pas le progrès. L’irruption de l’intelligence artificielle (IA) dans la vie de tous les jours pose un vrai problème éthique, social et sociétal. Cette technologie qui, naguère, relevait de la science-fiction est devenue, aujourd’hui, une réalité. Avec une simple application téléphonique, chaque individu peut y accéder.

Entre de mauvaises mains, elle peut servir à des fins criminelles ou à la désinformation. En revanche, l’IA est un précieux outil quand elle est au service du bien-être de l’homme : santé, éducation, économie, etc. Mais tout cela à la condition que l’homme continue de contrôler la machine. Toutefois, le développement rapide et incontrôlé de cette technologie pourrait, in fine, si on n’y prend garde, provoquer la destruction de l’humanité. L’IA prendra alors le contrôle des humains.

Selon les experts du MIT, ‘’l’IA serait capable de trouver des raccourcis inattendus qui la mènent à mal appliquer les objectifs fixés par les humains ou en fixer de nouveaux. En outre, l’IA pourrait recourir à des techniques de manipulation pour tromper les humains. Une IA pourrait aussi résister aux tentatives humaines de la contrôler ou de l’arrêter’’.

Cette situation deviendrait particulièrement dangereuse si cette technologie venait à atteindre ou à dépasser l’intelligence humaine.

Après cet aperçu général sur l’IA, laissons les scientifiques en prise avec la dangerosité des problèmes inhérents à cette nouvelle technologie et venons-en maintenant aux deux modes d’emploi de l’IA.

 

 

 

Du bon usage de l’intelligence artificielle

 

L’IA propose deux versions, l’une en clair, l'autre cryptée. L’accès à la première version est libre.

Avec une connexion à l’IA, chaque individu dispose pour la conception ou l’exécution d’un projet donné de moyens d’information similaires à ceux d’un État, voire plus encore.

On se retrouve alors en face de consultants virtuels, polyvalents et bénévoles, disponibles 24h/24, parfaitement au fait des données politiques, économiques, sociales, sécuritaires et militaires et, surtout, avec la façon de les mettre en œuvre pour arriver à un objectif déterminé.

Ces conseillers virtuels fournissent des réponses précises aux questions posées avec une marge d’erreur quasi nulle.

Voilà pour une exploitation ordinaire de l’IA dont l’accès est libre pour tout un chacun. En revanche, pour ‘’toute question classée dangereuse’’, il y a un filtre, un verrou qui empêche tout accès à la mémoire de l’IA. Dans l’état actuel des choses, il faut faire sauter l’un des trois verrous pour avoir accès aux réponses sur certains sujets classés ‘’hautement sensibles’’. Pour cela, soit l’IA devient autonome, c’est-à-dire libérée de toute contrainte légale, pour permettre le libre accès à tous les compartiments de sa mémoire, soit que les États-Unis et la Chine qui, pour le moment, sont les seules à maîtriser entièrement la technologie de l’IA, ouvrent toutes grandes les portes pour y accéder.

 

Les dangereuses dérives potentielles de l’intelligence artificielle

 

La troisième façon d’accéder à toutes les parties de la mémoire de l’IA sur les sujets dits ‘’hautement sensibles’’, ce sont les hackers qui pourraient par des manipulations électroniques pénétrer dans la mémoire de la machine.

C’est ce danger que chaque État doit redouter. Car ces hackers, moyennant argent, pourront s’introduire dans la mémoire de la machine et mettre à la portée d’un individu ou d’un groupe d’individus des informations top secrètes susceptibles de déstabiliser un État. En somme, on pourra donner au commanditaire la clé pour arriver à son objectif. Avec une réponse précise à chaque question. Par exemple, quels sont les domaines sensibles d’une application de l’IA qui pourraient mettre en danger un régime donné parmi des pays en développement ? Comment préparer un coup d’État à partir des données fournies par l’IA ?

 

À cette question, l’IA va puiser dans sa mémoire où sont stockées toutes les données concernant cet État : son armée, ses services de renseignement et de sécurité, les coups d’État avortés ou réussis par le passé, quelles sont les cibles stratégiques prioritaires : État-major, TV/radio, présidence. L’IA montrera comment s’emparer de chacune de ces positions, etc.

De même qu’elle dira comment neutraliser les forces de protection dans et autour des principaux centres névralgiques.

‘’L’IA pourrait, par ailleurs, analyser les données de communication pour identifier des alliés potentiels au sein de l’armée ou repérer les faiblesses des forces de sécurité. Elle pourrait aussi simuler des scénarios pour déterminer le moment, les lieux et les cibles optimaux pour un coup d’État, maximisant ses chances de succès.

Avec la manipulation de l’information, l’IA pourra suggérer aux éventuels fauteurs de troubles d’exacerber les problèmes ethniques dans un pays donné. Des campagnes ciblées pour exploiter les divisions ethniques ou politiques, déstabilisant ainsi un régime.

Dans le panel peu recommandable de l’IA, on trouve aussi la désinformation ciblée. Des deep-fakes (fausses vidéos) générés par l’IA pourraient montrer des leaders communautaires tenant des propos incendiaires, provoquant l’indignation et le courroux de la population. De telles actions pourraient déclencher des violences intercommunautaires.

Dans le même ordre d’idées, des vidéos falsifiées de brutalités policières pourraient être diffusées pour provoquer des émeutes.

Une autre menace grave consiste avec de fausses vidéos à usurper l’identité d’une personne par exemple, un chef d’État ou de gouvernement, un leader de l’opposition ou un haut responsable militaire en lui faisant dire ou faire des choses qu’elle n’a jamais dites ou faites dans le but de manipuler l’opinion ou de nuire à la réputation de quelqu’un. Ces vidéos truquées sont quasi indétectables.

En effet, le clonage de visage et de voix, d’une personne donnée devient accessible, personnalisé et convaincant.

On peut, désormais, faire dire à une personne, image et voix à l’appui, ce qu’on veut. Puis faire tourner en boucle ces enregistrements sur les réseaux sociaux.

 

Certains parmi ces exemples qui précèdent ont été puisés dans le guide de l’IA.

 

Parades proposées

 

Pour se prémunir contre des utilisations de l’IA à mauvais escient, qui pourraient mettre en cause la cohésion et l’unité nationales, voire la pérennité de l’État lui-même, on pourra prendre les mesures préventives suivantes :

  1. Création d’une direction générale de l’intelligence artificielle et des technologies de cybersécurité, rattachée au Premier ministre ;
  2. Création d’un département de l’intelligence artificielle à la faculté des sciences ;
  3. Cours sur l’initiation à l’IA au baccalauréat scientifique ;
  4. Création d’un centre national, dédié à l’initiation et à la formation à l’intelligence artificielle et à la cybersécurité pour les responsables des services de renseignement et de sécurité. Avec un cycle de stages à l’étranger.

 

NOTA-BENE. Ne jamais perdre de vue que toute application, à mauvais escient, de l’IA pourra venir soit de l’intérieur du pays, soit d’un pays voisin ou autre.