Parfaits sur le papier, inexploitables sur le terrain, résume un récent rapport du Center for a New American Security sur l’usage des systèmes d’armes autonomes. C’est le New York Times qui dévoile l’affaire et, par la même occasion, remet en mémoire quelques remarquables fiascos de l’industrie de l’armement US. A commencer par le retard de livraison des chasseurs F22 frappés, en 2007, par un bug destructeur chaque fois que l’appareil franchissait la ligne de changement de date. Mentionnons également quelques jolis ratés du côté des drones : un appareil tombé entre les mains des hackers Iraniens en 2011, ou l’absence de chiffrement des flux vidéo de ces mêmes drones que les opposants Iraquiens ont su exploiter, du moins politiquement, en 2009.
Mais ce ne sont là que des détails bénins à côté de ce qui nous attend, expliquent les experts chargés du rapport. Certes, les systèmes d’armes autonomes sont capables de déterminer avec précision la nature d’une cible potentielle. Pas nécessairement de la même manière qu’un humain, mais avec une efficacité comparable. Ce qui pose problème n’est pas l’acquisition et l’identification d’un objet, mais les décisions que prend l’I.A. face à cet objet. Une décision « qui dépasse totalement la logique et l’entendement humain ». Un niveau de « pensée » tellement différent qu’il peut provoquer des engagements militaires non souhaités « capable d’entraîner des dommages collatéraux d’un niveau inacceptable » expliquent en substance les rédacteurs de l’étude. Sont soulevées également d’autres questions sur le taux de pannes de ces systèmes, des conséquences d’un mauvais fonctionnement entre le moment ou l’engin « devient fou » et se met à tirer sur tout ce qui bouge et le moment ou un opérateur humain parvient à reprendre les commandes… sans évoquer bien sûr les risques élevés d’un acte de piratage informatique. Un rapport à mi-chemin entre Robocop et Terminator… en plus inquiétant.