© Sony PicturesUn exemple de l'armement extraterrestre utilisé dans le film District 9, réalisé par Neil Blomkamp
Les chercheurs et personnalités du monde scientifique se mobilisent pour faire interdire la guerre automatisée.C'est une révolution cynique que pourrait constituer celle du recours aux armes de guerre autonomes. Tandis que nos sociétés utilisent les machines pour intervenir au service de l'humain, lui offrir plus de confort et le libérer de certaines tâches fastidieuses, le secteur militaire s'intéresse à l'intelligence artificielle pour opérer des actions militaires sans intervention humaine.
Et c'est bien ce qui affole le milieu scientifique et les milliers de personnalités signataires d'
une lettre ouverte intitulée "
Armes automatiques : lettre ouverte des chercheurs en robotique et en intelligence artificielle". Présentée à Buenos Aires (Argentine) le 27 juillet dernier lors d'une conférence internationale portant sur l'intelligence artificielle, cette lettre se présente comme une action de prévention contre la course à l'armement automatisé au niveau mondial, c'est-à-dire l'emploi de robots tueurs lors de frappes guerrières.
Commentaire: Traduction par Gérard-Michel Thermeau de « Autonomous Weapons : an Open Letter from AI & Robotics Researchers » pour
Contrepoints :
« Les armes autonomes choisissent et frappent des cibles sans intervention humaine. Elles incluent, par exemple, des quadcopters armés qui peuvent rechercher et éliminer les personnes qui répondent à certains critères prédéfinis, mais ne comprennent pas les missiles de croisière ou drones téléguidés pour lesquels les humains prennent toutes les décisions de ciblage. La technologie de l'Intelligence Artificielle (IA) a atteint un point où le déploiement de ces systèmes est, pratiquement sinon légalement, faisable non dans les décennies mais dans les années à venir et les enjeux en sont élevés : les armes autonomes ont été décrites comme la troisième révolution dans la pratique de la guerre, après la poudre et les armes nucléaires.
De nombreux arguments ont été avancés pour et contre les armes autonomes, par exemple que le remplacement des soldats humains par des machines est positif en réduisant les pertes pour celui qui les utilise, mais mauvais puisqu'il abaisse ainsi le coût d'un engagement au combat. La question clé pour l'humanité d'aujourd'hui est de savoir s'il faut se lancer dans une course mondiale aux armements IA ou l'empêcher. Si une grande puissance militaire décide de développer de l'arme IA, une course mondiale aux armements est pratiquement inévitable, et le point d'arrivée de cette trajectoire technologique est évident : les armes autonomes deviendront les kalachnikovs de demain.
Contrairement aux armes nucléaires, elles ne nécessitent pas de coûteux investissements ou des matières premières difficiles à obtenir, aussi vont-elles devenir omniprésentes et bon marché pour toutes les puissances militaires susceptibles de les produire en masse. Ce ne sera qu'une question de temps avant qu'elles n'apparaissent sur le marché noir et entre les mains de terroristes, de dictateurs souhaitant un plus grand contrôle de leur population, de seigneurs de guerre voulant perpétrer un nettoyage ethnique, etc. Les armes autonomes sont idéales pour des tâches telles que les assassinats, la déstabilisation des nations, la soumission des populations et le massacre sélectif d'un groupe ethnique particulier.
Nous pensons donc que la course aux armements militaire IA ne serait pas favorable à l'humanité. Il existe de nombreuses façons grâce auxquelles l'IA peut sécuriser les zones de combats pour les humains, en particulier les civils, sans créer de nouveaux outils pour tuer des gens.
Tout comme la plupart des chimistes et des biologistes n'ont aucun intérêt à construire des armes chimiques ou biologiques, la plupart des chercheurs en Intelligence Artificielle n'ont aucun intérêt à construire des armes IA, et ne veulent pas que d'autres discréditent leur domaine ; ce faisant, ils créent la possibilité d'un rejet massif par le public de l'IA qui bloquerait ses futurs avantages sociétaux.
En effet, les chimistes et les biologistes ont largement soutenu les accords internationaux qui ont permis d'interdire les armes chimiques et biologiques, tout comme la plupart des physiciens ont soutenu les traités interdisant les armes nucléaires spatiales et les armes à laser aveuglantes.
En résumé, nous croyons que l'IA offre un grand potentiel pour le bénéfice de l'humanité dans bien des domaines, et que nous devons avoir pour objectif de le réaliser. Le lancement d'une course aux armements IA est une mauvaise idée, et doit être empêché par une interdiction des armes offensives autonomes sans contrôle humain significatif. »
Commentaire: Traduction par Gérard-Michel Thermeau de « Autonomous Weapons : an Open Letter from AI & Robotics Researchers » pour Contrepoints :
« Les armes autonomes choisissent et frappent des cibles sans intervention humaine. Elles incluent, par exemple, des quadcopters armés qui peuvent rechercher et éliminer les personnes qui répondent à certains critères prédéfinis, mais ne comprennent pas les missiles de croisière ou drones téléguidés pour lesquels les humains prennent toutes les décisions de ciblage. La technologie de l'Intelligence Artificielle (IA) a atteint un point où le déploiement de ces systèmes est, pratiquement sinon légalement, faisable non dans les décennies mais dans les années à venir et les enjeux en sont élevés : les armes autonomes ont été décrites comme la troisième révolution dans la pratique de la guerre, après la poudre et les armes nucléaires.
De nombreux arguments ont été avancés pour et contre les armes autonomes, par exemple que le remplacement des soldats humains par des machines est positif en réduisant les pertes pour celui qui les utilise, mais mauvais puisqu'il abaisse ainsi le coût d'un engagement au combat. La question clé pour l'humanité d'aujourd'hui est de savoir s'il faut se lancer dans une course mondiale aux armements IA ou l'empêcher. Si une grande puissance militaire décide de développer de l'arme IA, une course mondiale aux armements est pratiquement inévitable, et le point d'arrivée de cette trajectoire technologique est évident : les armes autonomes deviendront les kalachnikovs de demain.
Contrairement aux armes nucléaires, elles ne nécessitent pas de coûteux investissements ou des matières premières difficiles à obtenir, aussi vont-elles devenir omniprésentes et bon marché pour toutes les puissances militaires susceptibles de les produire en masse. Ce ne sera qu'une question de temps avant qu'elles n'apparaissent sur le marché noir et entre les mains de terroristes, de dictateurs souhaitant un plus grand contrôle de leur population, de seigneurs de guerre voulant perpétrer un nettoyage ethnique, etc. Les armes autonomes sont idéales pour des tâches telles que les assassinats, la déstabilisation des nations, la soumission des populations et le massacre sélectif d'un groupe ethnique particulier.
Nous pensons donc que la course aux armements militaire IA ne serait pas favorable à l'humanité. Il existe de nombreuses façons grâce auxquelles l'IA peut sécuriser les zones de combats pour les humains, en particulier les civils, sans créer de nouveaux outils pour tuer des gens.
Tout comme la plupart des chimistes et des biologistes n'ont aucun intérêt à construire des armes chimiques ou biologiques, la plupart des chercheurs en Intelligence Artificielle n'ont aucun intérêt à construire des armes IA, et ne veulent pas que d'autres discréditent leur domaine ; ce faisant, ils créent la possibilité d'un rejet massif par le public de l'IA qui bloquerait ses futurs avantages sociétaux.
En effet, les chimistes et les biologistes ont largement soutenu les accords internationaux qui ont permis d'interdire les armes chimiques et biologiques, tout comme la plupart des physiciens ont soutenu les traités interdisant les armes nucléaires spatiales et les armes à laser aveuglantes.
En résumé, nous croyons que l'IA offre un grand potentiel pour le bénéfice de l'humanité dans bien des domaines, et que nous devons avoir pour objectif de le réaliser. Le lancement d'une course aux armements IA est une mauvaise idée, et doit être empêché par une interdiction des armes offensives autonomes sans contrôle humain significatif. »