Scroll To Top
FLASH
  • L'intégralité du contenu (articles) de la version papier de "Liberté" est disponible sur le site le jour même de l'édition, à partir de midi (GMT+1)
  • Pour toute information (ou demande) concernant la version papier de "Liberté" écrire à : info@liberte-algerie.com
  • Pour toute information (ou demande) concernant la version digitale de "Liberté" écrire à: redactiondigitale@liberte-algerie.com

A la une / International

Armes autonomes et robots tueurs

L'ONU va ouvrir de premières discussions officielles

L’ONU s'apprête à ouvrir ses premières discussions officielles sur les armes autonomes, également appelées “robots tueurs”, mais la perspective d'un traité régissant leur utilisation reste lointaine, a prévenu hier l'ambassadeur qui doit conduire ces débats. Fin août, une centaine de responsables d'entreprises de robotique ou spécialisées dans l'intelligence artificielle, dont le milliardaire Elon Musk, avaient écrit une lettre ouverte aux Nations unies pour mettre en garde contre les dangers des armes autonomes. La Conférence du désarmement, l'instance de l'ONU qui siège à Genève et mène depuis 1979 les négociations dans ce domaine, va ouvrir lundi cinq jours de discussions sur ces armements, toutefois ceux qui plaident pour leur interdiction n'y trouveront pas leur compte, a d'emblée souligné Amandeep Gill, le représentant permanent de l'Inde auprès de l'ONU à Genève, désigné pour conduire ces discussions. “Ce serait très facile de légiférer sur une interdiction, mais je pense que se précipiter sur un sujet aussi complexe ne serait pas judicieux”, a-t-il expliqué vendredi à des journalistes. “Nous en sommes au point de départ”, a-t-il ajouté. Une partie des débats auxquels doivent participer représentants de la société civile et d'entreprises sera consacrée à définir et comprendre de quel type d'armes il est question. Les partisans d'une interdiction, comme les membres de la campagne “Stop killer robots” (“Arrêtons les robots tueurs”), estiment que l'humain doit en dernier ressort rester maître de la décision de tuer. Tout système d'armement qui délègue la décision d'une frappe individuelle à un algorithme est par définition illégal, car un ordinateur ne peut être tenu pour responsable au regard du droit humanitaire international. Selon M. Gill, il y a un accord entre les nations sur le fait que “les humains doivent rester responsables des décisions de vie ou de mort”. Cependant, dit-il, il y a des opinions différentes quant aux mécanismes par lesquels le “contrôle humain” doit s'exercer sur ces armes. Le Comité international de la Croix-Rouge (CICR), mandaté pour faire respecter les lois de la guerre, n'appelle pas non plus de son côté à une interdiction, mais a souligné la nécessité de limiter l'usage des armes autonomes. “La ligne que nous suivons, c'est que les machines ne pouvant appliquer les lois, on ne peut pas leur transférer la responsabilité de prendre des décisions ayant des conséquences légales”, a déclaré à l'AFP Neil Davison, un spécialiste des questions d'armement au CICR.

R. I./Agences


Publier votre réaction

Nos articles sont ouverts aux commentaires. Chaque abonné peut y participer dans tous nos contenus et dans l'espace réservé. Nous précisons à nos lecteurs que nous modérons les commentaires pour éviter certains abus et dérives et que nous pouvons être amenés à bloquer les comptes qui contreviendraient de façon récurrente à notre charte d'utilisation.

RÉAGIR AVEC MON COMPTE

Identifiant
Mot de passe
Mot de passe oublié ? VALIDER