vendredi 6 mars 2009

L'armée US prépare la guerre contre les machines.

"...Cyberdyne deviendra le 1er fournisseur d'ordinateurs militaires.
Les bombardiers furtifs pourront voler sans pilotes avec des capacités opérationnelles parfaites.
Skynet sera subventionné par la Défense.
Le système entrera en fonction le 4 août 1 997.
L'homme disparaîtra de la chaîne décisionnelle stratégique.
Skynet améliorera ses capacités de façon exponentielle.
Il accédera à la conscience le 29 août à 2 h 1 4 du matin.
Prises de panique, les autorités tenteront de le débrancher.
Skynet ripostera.
Il lancera ses missiles sur la Russie.
Pourquoi la Russie ? Ce sont nos amis, maintenant.
Skynet aura prévu que la contre-attaque russe détruira ce pays.
Mon Dieu..."
Terminator 2 : le jugement dernier


Imaginer qu'un jour les machines se rebelleront contre les hommes, lanceront la construction de leur propre armée et essayeront de nous faire disparaître semble aujourd'hui, où établir une connexion wifi relève encore de l'exploit, de la pure science-fiction. Les scénarios façon Matrix ou Terminator ne ne paraissent pas réellement crédibles à cour terme. Pourtant, tous les ouvriers qui travaillent à proximité d'un robot dans une chaîne d'assemblage automobile savent frapper les yeux fermés sur le gros bouton rouge qui permet de le stopper. Ils connaissent les risques que représente le "pétage de plombs" d'une machine dotée d'un bras mécanique en acier de plus d'une centaine de kilos, mais que faire quand il y a une arme de guerre au bout et pas de gros bouton rouge ?

Le grand public n'en a pas réellement conscience, mais le fait le plus marquant dans les progrès technologiques liés aux armements ces dernières années sont l'arrivée massive d'engins "robotisés". 5 000 PackBot construit par la société Irobot assistent les troupes américaines en Irak pour lutter contre les attaques menées avec des IED (Improvised Explosive Device, Bombes artisanales télécommandées). Et le Pentagone prévoit d'investir deux milliards de $ dans les cinq prochaines années. Les robots militaires sont partout :

  • Sur terre pour assurer des actions de déminages comme les PackBots, pour transporter des munitions au front ou en ramener des blessés et même engagé dans des actions de combats, comme les Swords de la société Faster Miller.

  • Dans les airs, où l'on ne compte plus les drones ou UAV (Unmanned Aerial Vehicle, avions sans pilotes) destinés à la reconnaissance et là aussi au combat.

  • Et même sur ou sous l'eau, avec des engins destinés principalement à la lutte anti-sous-marine.


robot600_1
Dans la plupart des cas, ces machines ne possèdent encore que peu d'autonomie, et il s'agit plus d'engins télécommandés que de véritables robots. Mais la tendance est évidente, plus les machines sont autonomes, plus les hommes peuvent se consacrer aux taches prioritaires, ceci est également valable pour des robots possédant une réelle capacité létale.
Et avec ces machines, les ennuis commencent. Les Swords (en gros des micros tanks avec des mitrailleuses) ont vu leur déploiement en Irak complètement mis au point mort après que plusieurs d'entre eux aient retourné leurs armes vers des fantassins américains en avril 2008. En Afrique du Sud en octobre 2007, Un canon robot semi-autonome de l'armée nationale Sud-Africaine a tué 7 soldats et en a blessés 14. Et l'armée Sri Lankaise à fait part de plusieurs problèmes survenus avec des drones.

Une machine autonome destinée à mener des actions de combats ou à maintenir l'ordre pose de nouveaux type de problèmes aux développeurs d'intelligence artificielle. Et ce sont ces enjeux que le EETG de CalPoly(*) explore dans un rapport récemment écrit à la demande de l'US Navy.
robot600_2
Quand les lois d'Asimov rencontrent les Lois de la guerre, cela donne :

  • Est-ce que des robots autonomes sont en mesure de suivre les directives établies par les lois de la guerre et celles de l'engagement, comme indiqué dans les Conventions de Genève ?

  • Les robots sont-ils capables de faire la différence entre du personnel militaire et civil ?

  • Vont-ils reconnaître un soldat blessé et de s'abstenir de tirer ?


Voici quelques-unes des premières implications éthiques soulevées par ce rapport. Comme souvent dans ce genre de rapport, les questions sont plus nombreuses que les réponses :

  • Faut-il donner à un robot la possibilité de refuser d'obéir à un ordre donné par un humain s'il enfreint les conventions de Genève.

  • Et comment faire cohabiter la 1ère loi d'Asimov(**) avec celle 'Jus in bello' qui dicte la conduite acceptable pour un soldat en temps de guerre.


Une chose semble sure, aucun ensemble de lois ne pourra couvrir toutes les situations auxquelles un robot guerrier sera amené à faire face et la solution passe plutôt par le "haut" avec des systèmes capables d'enrichir par eux-mêmes leurs bases de connaissances.

Quand on voit le nombre de problèmes qui se posent lorsque l'on donne une simple arme à feu à un robot on imagine que nous sommes encore loin de filer à R2D2 le bouton du feu nucléaire. Ce qui est rassurant c'est de savoir que des grosses têtes se posent déjà les questions. Ou pas.

robot600_3

filmographie séléctive :

 



(*)Basé en Californie dans la "Polytechnic State University" (Cal Poly), à San Luis Obispo, Le groupe : Ethique + Emerging Technologies est une organisation non partisane, axée sur le risque, l'éthique, et l'impact social des nouvelles technologies.

(**)
1. Un robot ne peut porter atteinte a un être humain, ni restant passif, permettre qu'un être humain soit exposé au danger.
2. Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi.
3. Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la seconde loi.

http://fr.wikipedia.org/wiki/Trois_lois_de_la_robotique

1 commentaire:

  1. @blueman Désolé, une erreur de manipulation est à l'origine de la suppression de votre commentaire. Je replace une copie de ce texte ici : (si vous pouvez reposté : Merci)

    Cet article est de l'IMPURE fiction : JAMAIS aucune machine ne pourra obtenir LA CONSCIENCE, l'INTUITION, et toutes les facultés et pouvoirs divins. LA CONSCIENCE DE SOI est une spécificité qu'aucune machine n'aura, et donc, JAMAIS les machines ne se rebelleront d'elles-mêmes contre les humains. Si une machine attaque un humain, c'est que son programme le lui permet, c'est qu'elle a été programmé pour cela, ou qu'elle blesse ou tue SANS MÊME LE SAVOIR. Exemple : une machine recule, elle n'a pas détecté (pour x raisons) qu'il y a une personne derrière, et la personne est tuée, écrasée. Méditez sur ces explications, et vous apprendrez quelque chose de nouveau.

    RépondreSupprimer