Les discussions se déroulaient à Genève entre le 27 et 31 août derniers.
Malgré plusieurs mises en garde de chercheurs et d’ONG, il n’y a pas encore d’accords internationaux pour interdire l’usage de robots tueurs dans les arsenaux militaires mondiaux, des robots capables de donner la mort à distance, ou capables d’exécuter des personnes, ou d’éliminer des cibles tels des kamikazes.
Trop de personnes s’imaginent encore que les craintes ne sont pas fondées. Les craintes sont pourtant là et des mesures doivent être prises pour qu’à aucun moment un pays décide de se lancer dans la course à la production de robots tueurs capables de prendre eux-même les décisions. Car c’est bel et bien de ça dont il s’agit, la possibilité de voir des robots tueurs programmés avec une intelligence artificielle particulière pour être capables de tuer, d’agir de leur propre initiative alors qu’ils sont porteurs d’une arme létale.
Des ONG comme Amnesty International militent depuis plusieurs années déjà pour que des décisions importantes soient prises à ce sujet.
« Les robots tueurs ne sont plus de la science-fiction », a ainsi mis en garde Rasha Abdul Rahim, conseillère d’Amnesty International.Le secrétaire général des Nations unies, António Guterres, propose d’aider les États à élaborer de nouvelles mesures telles que des “arrangements juridiquement contraignants” pour faire en sorte que “les humains restent à tout moment maîtres de l’usage de la force”
Pour en savoir plus et agir à votre niveau :
https://www.stopkillerrobots.org/
*Les experts de 88 états n’arrivent pas à s’entendre sur des accords