© Sony PicturesUn exemple de l'armement extraterrestre utilisé dans le film District 9, réalisé par Neil Blomkamp
Les chercheurs et personnalités du monde scientifique se mobilisent pour faire interdire la guerre automatisée.C'est une révolution cynique que pourrait constituer celle du recours aux armes de guerre autonomes. Tandis que nos sociétés utilisent les machines pour intervenir au service de l'humain, lui offrir plus de confort et le libérer de certaines tâches fastidieuses, le secteur militaire s'intéresse à l'intelligence artificielle pour opérer des actions militaires sans intervention humaine.
Et c'est bien ce qui affole le milieu scientifique et les milliers de personnalités signataires d'
une lettre ouverte intitulée "
Armes automatiques : lettre ouverte des chercheurs en robotique et en intelligence artificielle". Présentée à Buenos Aires (Argentine) le 27 juillet dernier lors d'une conférence internationale portant sur l'intelligence artificielle, cette lettre se présente comme une action de prévention contre la course à l'armement automatisé au niveau mondial, c'est-à-dire l'emploi de robots tueurs lors de frappes guerrières.
Philosophes, scientifiques et entrepreneurs unis contre les machines de guerreSi les signataires de la lettre reconnaissent l'intérêt de l'intelligence artificielle dans la réduction du nombre de victimes humaines lors des combats, ils veulent toutefois éviter l'essor de ces technologies guerrières au potentiel dévastateur. Car le risque d'intégrer de l'intelligence artificielle dans les armes pourrait s'avérer terrible : décimation de populations sur critères de discrimination d'ethnie, assassinats ciblés et épurations de masse.
Parmi les milliers de signataires de cette lettre, on trouve des noms de penseurs, scientifiques, chercheurs et chefs d'entreprise bien connus tels que Noam Chomsky (linguiste et philosophe), Stephen Hawking (astrophysicien), Elon Musk (dirigeant de Tesla) ou encore Steve Wozniak (co-fondateur d'Apple).
Et si Isaac Asimov avait eu raison ?Impossible à présent de savoir quel impact réel aura leur signature face aux pouvoirs en présence et aux enjeux économiques et politiques soulevés par cette question de l'intégration des intelligences artificielles à l'armement moderne.
De quoi donner froid dans le dos en tout cas et rendre actuelles les fameuses Lois de la Robotique, imaginées en 1942 par Isaac Asimov :
- Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger.
- Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi.
- Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi.
Commentaire : Traduction par Gérard-Michel Thermeau de « Autonomous Weapons : an Open Letter from AI & Robotics Researchers » pour
Contrepoints :
« Les armes autonomes choisissent et frappent des cibles sans intervention humaine. Elles incluent, par exemple, des quadcopters armés qui peuvent rechercher et éliminer les personnes qui répondent à certains critères prédéfinis, mais ne comprennent pas les missiles de croisière ou drones téléguidés pour lesquels les humains prennent toutes les décisions de ciblage. La technologie de l'Intelligence Artificielle (IA) a atteint un point où le déploiement de ces systèmes est, pratiquement sinon légalement, faisable non dans les décennies mais dans les années à venir et les enjeux en sont élevés : les armes autonomes ont été décrites comme la troisième révolution dans la pratique de la guerre, après la poudre et les armes nucléaires.
De nombreux arguments ont été avancés pour et contre les armes autonomes, par exemple que le remplacement des soldats humains par des machines est positif en réduisant les pertes pour celui qui les utilise, mais mauvais puisqu'il abaisse ainsi le coût d'un engagement au combat. La question clé pour l'humanité d'aujourd'hui est de savoir s'il faut se lancer dans une course mondiale aux armements IA ou l'empêcher. Si une grande puissance militaire décide de développer de l'arme IA, une course mondiale aux armements est pratiquement inévitable, et le point d'arrivée de cette trajectoire technologique est évident : les armes autonomes deviendront les kalachnikovs de demain.
Contrairement aux armes nucléaires, elles ne nécessitent pas de coûteux investissements ou des matières premières difficiles à obtenir, aussi vont-elles devenir omniprésentes et bon marché pour toutes les puissances militaires susceptibles de les produire en masse. Ce ne sera qu'une question de temps avant qu'elles n'apparaissent sur le marché noir et entre les mains de terroristes, de dictateurs souhaitant un plus grand contrôle de leur population, de seigneurs de guerre voulant perpétrer un nettoyage ethnique, etc. Les armes autonomes sont idéales pour des tâches telles que les assassinats, la déstabilisation des nations, la soumission des populations et le massacre sélectif d'un groupe ethnique particulier.
Nous pensons donc que la course aux armements militaire IA ne serait pas favorable à l'humanité. Il existe de nombreuses façons grâce auxquelles l'IA peut sécuriser les zones de combats pour les humains, en particulier les civils, sans créer de nouveaux outils pour tuer des gens.
Tout comme la plupart des chimistes et des biologistes n'ont aucun intérêt à construire des armes chimiques ou biologiques, la plupart des chercheurs en Intelligence Artificielle n'ont aucun intérêt à construire des armes IA, et ne veulent pas que d'autres discréditent leur domaine ; ce faisant, ils créent la possibilité d'un rejet massif par le public de l'IA qui bloquerait ses futurs avantages sociétaux.
En effet, les chimistes et les biologistes ont largement soutenu les accords internationaux qui ont permis d'interdire les armes chimiques et biologiques, tout comme la plupart des physiciens ont soutenu les traités interdisant les armes nucléaires spatiales et les armes à laser aveuglantes.
En résumé, nous croyons que l'IA offre un grand potentiel pour le bénéfice de l'humanité dans bien des domaines, et que nous devons avoir pour objectif de le réaliser. Le lancement d'une course aux armements IA est une mauvaise idée, et doit être empêché par une interdiction des armes offensives autonomes sans contrôle humain significatif. »
Commentaire : Traduction par Gérard-Michel Thermeau de « Autonomous Weapons : an Open Letter from AI & Robotics Researchers » pour Contrepoints :
« Les armes autonomes choisissent et frappent des cibles sans intervention humaine. Elles incluent, par exemple, des quadcopters armés qui peuvent rechercher et éliminer les personnes qui répondent à certains critères prédéfinis, mais ne comprennent pas les missiles de croisière ou drones téléguidés pour lesquels les humains prennent toutes les décisions de ciblage. La technologie de l'Intelligence Artificielle (IA) a atteint un point où le déploiement de ces systèmes est, pratiquement sinon légalement, faisable non dans les décennies mais dans les années à venir et les enjeux en sont élevés : les armes autonomes ont été décrites comme la troisième révolution dans la pratique de la guerre, après la poudre et les armes nucléaires.
De nombreux arguments ont été avancés pour et contre les armes autonomes, par exemple que le remplacement des soldats humains par des machines est positif en réduisant les pertes pour celui qui les utilise, mais mauvais puisqu'il abaisse ainsi le coût d'un engagement au combat. La question clé pour l'humanité d'aujourd'hui est de savoir s'il faut se lancer dans une course mondiale aux armements IA ou l'empêcher. Si une grande puissance militaire décide de développer de l'arme IA, une course mondiale aux armements est pratiquement inévitable, et le point d'arrivée de cette trajectoire technologique est évident : les armes autonomes deviendront les kalachnikovs de demain.
Contrairement aux armes nucléaires, elles ne nécessitent pas de coûteux investissements ou des matières premières difficiles à obtenir, aussi vont-elles devenir omniprésentes et bon marché pour toutes les puissances militaires susceptibles de les produire en masse. Ce ne sera qu'une question de temps avant qu'elles n'apparaissent sur le marché noir et entre les mains de terroristes, de dictateurs souhaitant un plus grand contrôle de leur population, de seigneurs de guerre voulant perpétrer un nettoyage ethnique, etc. Les armes autonomes sont idéales pour des tâches telles que les assassinats, la déstabilisation des nations, la soumission des populations et le massacre sélectif d'un groupe ethnique particulier.
Nous pensons donc que la course aux armements militaire IA ne serait pas favorable à l'humanité. Il existe de nombreuses façons grâce auxquelles l'IA peut sécuriser les zones de combats pour les humains, en particulier les civils, sans créer de nouveaux outils pour tuer des gens.
Tout comme la plupart des chimistes et des biologistes n'ont aucun intérêt à construire des armes chimiques ou biologiques, la plupart des chercheurs en Intelligence Artificielle n'ont aucun intérêt à construire des armes IA, et ne veulent pas que d'autres discréditent leur domaine ; ce faisant, ils créent la possibilité d'un rejet massif par le public de l'IA qui bloquerait ses futurs avantages sociétaux.
En effet, les chimistes et les biologistes ont largement soutenu les accords internationaux qui ont permis d'interdire les armes chimiques et biologiques, tout comme la plupart des physiciens ont soutenu les traités interdisant les armes nucléaires spatiales et les armes à laser aveuglantes.
En résumé, nous croyons que l'IA offre un grand potentiel pour le bénéfice de l'humanité dans bien des domaines, et que nous devons avoir pour objectif de le réaliser. Le lancement d'une course aux armements IA est une mauvaise idée, et doit être empêché par une interdiction des armes offensives autonomes sans contrôle humain significatif. »