Intelligence artificielle : la France ne développera pas de "robots tueurs"

LUDOVIC MARIN / AFP
Florence Parly veut que l'intelligence artificielle ne domine jamais le commandement humain. © LUDOVIC MARIN / AFP
  • Copié
avec AFP , modifié à
Vendredi, la ministre des Armées Florence Parly s'est voulue rassurante en matière d'intelligence artificielle, annonçant notamment la création d'un comité d'éthique pour la défense.

La France fera un usage "responsable" de l'intelligence artificielle dans le domaine militaire. Elle ne développera pas non plus de "robots tueurs", a promis vendredi la ministre française des Armées Florence Parly, en annonçant la création d'un comité éthique pour la défense.

Pas de "Terminator" au 14-Juillet

"Terminator ne défilera pas au 14-Juillet", a résumé la ministre lors d'un discours consacré à l'IA et la défense, sur le campus de Saclay, en région parisienne. "Le développement de l'IA est désormais un lieu de compétition stratégique, une course à la puissance technologique, économique mais aussi militaire", et "je compte faire de l'IA une priorité de notre défense nationale", a-t-elle souligné, en évoquant "une technologie indispensable pour garantir notre supériorité opérationnelle".

Mais "la France a des valeurs, la France respecte ses engagements internationaux, et la France sera fidèle à cette marque de fabrique", a-t-elle déclaré. "Nous choisissons la voie de la responsabilité, celle de protéger à la fois nos valeurs et nos concitoyens, tout en embrassant les opportunités fabuleuses offertes par l'IA."

Trois "grands principes" de développement

"La position française est sans ambiguïté : la France refuse de confier la décision de vie ou de mort à une machine qui agirait de façon pleinement autonome et échapperait à tout contrôle humain", a-t-elle insisté, en écho aux inquiétudes sur les systèmes d'armes létaux autonomes (SALA).

"Ces systèmes n'existent pas aujourd'hui sur nos théâtres d'opérations", mais "le débat est légitime", a commenté Florence Parly. "Nous développerons l'intelligence artificielle de défense selon trois grands principes : le respect du droit international, le maintien d'un contrôle humain suffisant, et la permanence de la responsabilité du commandement", a-t-elle détaillé. "Quel que soit le degré d'automatisation, voire d'autonomie de nos systèmes d'armes actuels et futurs, ceux-ci resteront subordonnés au commandement humain".