Le Canada travaille à l’intégration de l’intelligence artificielle dans l’armée

OTTAWA — Le ministre de la Défense, Bill Blair, a indiqué que le Canada travaillait à l’intégration de l’intelligence artificielle (IA) dans l’armée, mais que la technologie ne remplacera pas les humains.

M. Blair a fait ces remarques lors d’un sommet à Séoul, en Corée du Sud, où le Canada était parmi les 61 pays qui ont approuvé un nouveau document sur l’utilisation militaire responsable de l’IA.

Le ministre a indiqué que le Canada travaillait à faire des Forces armées canadiennes une organisation «activée par l’IA» d’ici 2030, dans le cadre d’une stratégie lancée plus tôt cette année. Selon lui, il est essentiel que les Forces armées exploitent cette technologie «de manière efficace et éthique», indique un texte de ses remarques au sommet sur l’«IA responsable dans le domaine militaire».

Cela implique que «les humains restent toujours au premier plan des décisions importantes avec des mécanismes de responsabilisation appropriés qui restent en place», soutient le ministre Blair.

Le document stratégique indique que les alliés du Canada adoptent rapidement l’IA et prévient que le Canada doit suivre le rythme, soulignant que cette technologie devient également plus accessible aux adversaires potentiels.

Les pays qui soutiennent le plan d’action de Séoul comprennent des alliés comme les États-Unis, le Royaume-Uni, l’Allemagne et la France, selon une liste publiée sur le site Web du sommet. La Chine et la Russie ne figurent pas sur la liste des pays qui approuvent l’accord. Israël est également absent.

La rencontre ministérielle en Corée du Sud fait suite à un sommet inaugural aux Pays-Bas l’année dernière, au cours duquel des pays, dont le Canada, avaient soutenu un document précédent.

Le plan d’action de l’événement de cette semaine indique que l’IA «a un potentiel extraordinaire pour transformer tous les aspects des affaires militaires», mais prévient également que l’utilisation militaire de l’IA pourrait présenter des risques humanitaires, sociétaux et éthiques.

Le document indique que la technologie doit être utilisée conformément au droit national et international applicable, et que «la responsabilité et l’obligation de rendre des comptes ne peuvent jamais être transférées aux machines». Le document appelle également à «des mesures de protection pour réduire les risques de dysfonctionnements ou de conséquences imprévues», notamment en raison de biais dans les données ou les algorithmes.

Les humains devraient être en mesure de comprendre, d’expliquer et de faire confiance aux résultats des systèmes d’IA, précise le document. Il appelle également à une compréhension commune et à une discussion ouverte sur l’application de l’IA dans le domaine militaire.

Le document indique que «les applications d’IA dans le domaine militaire devraient être développées, déployées et utilisées d’une manière qui préserve et ne compromet pas la paix, la sécurité et la stabilité internationales».