L’Académie des technologies aborde pour la première fois avec cette communication des questions relatives aux technologies dites militaires. « Dites militaires », car il s’agit, dans le cas des drones comme dans bien d’autres, plutôt des applications à des fins militaires de technologies également utilisées à des fins civiles, ceci que l’essentiel de l’effort de développement ait été supporté par des budgets militaires ou par des budgets civils. En l’occurrence, le développement des drones doit effectivement beaucoup à l’expression des besoins des armées de quelques pays particuliers.
Les robots militaires existent et sont de plus en plus utilisés sur différents théâtres d’opérations et dans les différents milieux : air (drones), mer, terre… Leur marché est en forte croissance. Ils sont employés pour l’observation, la reconnaissance, le déminage, voire le tir. Ces robots posent cependant des problèmes d’éthique importants et originaux par rapport aux autres armements, surtout lorsqu’ils sont dotés d’une grande autonomie (d’action), y compris pour l’ouverture du feu. Leur complexité peut conduire à une certaine imprévisibilité (« bavures »). Leur facilité d’emploi, associée à une certaine « invulnérabilité » du servant liée à l’éloignement, peut entraîner des excès de violence.
Aussi est-il essentiel de bien maîtriser la mise en œuvre de ces robots, à tous les niveaux, depuis la décision politique de développement de l’arme jusqu’à l’utilisation opérationnelle. Il y va de la responsabilité des différents acteurs et les aspects juridiques sont importants. Pour l’instant, la « responsabilité » du robot lui-même est considérée comme inexistante, mais l’idée que l’on s’en fait pourrait être amenée à évoluer. En effet, ce robot militaire n’est-il pas déjà doté, en apparence, d’une certaine « conscience » ? Des fonctionnalités de la conscience humaine sont déjà présentes chez lui. Certaines méritent d’être développées, d’autres pourraient être introduites ou au contraire évitées. Des méthodes commencent à voir le jour pour améliorer la « conscience » (y compris « morale » ?) du robot.