AI Interceptor
© YouTube/Outer Places
L'intelligence artificielle a battu les humains aux échecs, au Go, et même dans des jeux MOBA (Arène de bataille en ligne multijoueur) complexes comme DoTA (Defense of the Ancients), mais maintenant ils se dirigent vers de vrais jeux de guerre, en particulier des simulateurs de vol de combat contre de vrais pilotes de chasse. Et malheureusement pour nous, il semble que l'IA est dévastatrice.

Une nouvelle IA, appelée ALPHA, a affronté le colonel à la retraite de l'armée de l'air américaine Gene Lee et l'a abattu à chaque fois, malgré le fait qu'il ait « contrôlé ou a volé dans des milliers d'interceptions aériennes en tant que commandant de mission ou pilote » et a volé contre des adversaires simulés de l'IA pendant des années. Après plusieurs heures de tests, Lee n'a même pas eu un seul avion abattu.

Pour mettre les choses en perspective, si la vie était un film de science-fiction, le colonel Gene Lee est probablement le gars dans le monde que le Pentagone appellerait pour faire exploser un avion de combat contrôlé par l'IA. Au lieu de cela, ALPHA l'a battu à chaque fois.

"J'ai été surpris de voir à quel point il était conscient et réactif", a dit Lee. "Il semblait être conscient de mes intentions et réagir instantanément à mes changements de vol et à mon déploiement de missiles. Il savait comment vaincre le coup de feu que je décidais. Il s'est déplacé instantanément entre les actions défensives et offensives selon les besoins."

Lee l'a qualifié de « l'I.A. la plus agressive, réactive, dynamique et crédible que j'ai vu jusqu'à présent. »

ALPHA est l'idée de Nick Ernest, fondateur de la société de développement et de consulting Psibernetix.

Au lieu d'utiliser des algorithmes traditionnels d'apprentissage machine, ALPHA utilise des systèmes génétiques à logique floue, ce qui lui permet d'être beaucoup plus flexible et dynamique lorsqu'il s'agit de résoudre des problèmes, comme par exemple comment éviter le danger et mettre en place des lignes de tir potentielles en temps réel.

Le résultat ? Le système traite les problèmes de la même manière qu'un humain, mais avec des temps de réaction beaucoup plus rapides.

Si le Korea Advanced Institute for Science and Technology peut être frappé d'un boycott international pour le développement de robots tueurs autonomes, alors il semble que Psibernetix est sur le point d'obtenir une lettre bien rédigée concernant les dangers des avions de combat à réaction contrôlés par l'IA presque invincibles.

Traduction Sott. Source.