ÉTAT DE POLICE GLOBAL: Des nuées de drones pilotés par l’Intelligence Artificielle pourraient bientôt patrouiller les frontières de l’Europe

(ma traduction)

Écrit par Zach Campbell via The Intercept,


Imaginez que vous randonniez dans les bois près d’une frontière. Soudain, vous entendez un bourdonnement mécanique, comme une abeille gigantesque. Deux quadcoptères vous ont repéré et vous avez plongé pour regarder de plus près. Des antennes sur les deux drones et sur un véhicule terrestre autonome à proximité captent les fréquences radio provenant du téléphone portable dans votre poche. Ils envoient les signaux à un serveur central, qui triangule votre position exacte et le renvoie aux drones. Les robots se rapprochent


Les caméras et autres capteurs installés sur les machines vous reconnaissent en tant qu’être humain et tentent de déterminer vos intentions. Êtes-vous une menace? Vous traversez illégalement une frontière? Avez-vous une arme à feu? Vous engagez-vous dans des actes de terrorisme ou de crime organisé? Les machines envoient des flux vidéo à leur opérateur humain, un garde-frontière installé dans un bureau situé à des kilomètres, qui vérifie les vidéos et décide que vous ne courez aucun risque. Le garde-frontière appuie sur un bouton et les robots se désengagent et continuent leur patrouille.

Ce n’est pas de la science fiction. L’Union européenne finance un projet de développement de drones pilotés par l’intelligence artificielle et conçus pour patrouiller de manière autonome aux frontières de l’Europe. Les drones opéreront par essaims, coordonnant et corroborant les informations entre les flottes de quadcoptères, de petits avions à voilure fixe, de véhicules terrestres, de sous-marins et de bateaux. Les développeurs du projet, connu sous le nom de Roborder, affirment que les robots seront capables d’identifier les humains et de décider de manière indépendante s’ils représentent ou non une menace. S’ils déterminent que vous pouvez avoir commis un crime, ils en informeront la police des frontières.

« Le développement de ces systèmes est une étape sombre dans un territoire moralement dangereux », a déclaré Noel Sharkey, professeur émérite de robotique et d’intelligence artificielle à l’université de Sheffield, au Royaume-Uni, et l’un des fondateurs du comité international de contrôle des robots, une organisation à but non lucratif. milite contre l’utilisation militaire de la robotique. Sharkey énumère des exemples de drones armés sur le marché: robots volants équipés de Tasers, spray au poivre, balles en caoutchouc et autres armes. Il met en garde contre les implications de la combinaison de cette technologie avec une prise de décision basée sur l’IA et de son utilisation dans des zones frontalières politiquement chargées. « Ce n’est qu’une question de temps avant qu’un drone puisse prendre des mesures pour arrêter des personnes », a déclaré Sharkey à The Intercept.



Les développeurs de Roborder pourraient également violer les conditions de leur financement, selon des documents sur le projet obtenus via les règles de transparence de l’Union européenne. L’initiative est principalement financée par une subvention européenne de recherche et d’innovation d’un montant de 8 millions d’euros conçue pour des projets exclusivement non militaires, mais les développeurs de Roborder reconnaissent que certaines parties de leur système proposé font appel à une technologie militaire ou peuvent facilement être converties à des fins militaires. Une grande partie du développement de Roborder est classifiée, mais l’Intercept a obtenu des rapports internes relatifs à des considérations éthiques et à des préoccupations concernant le programme. Cette documentation a été mal rédigée et publiée par inadvertance en totalité. Dans l’un des rapports, les développeurs de Roborder ont cherché à répondre aux critères éthiques liés à leurs financements européens. Les développeurs se sont demandé si leurs travaux pourraient être modifiés ou améliorés de manière à nuire à l’homme et ce qui pourrait se produire si la technologie ou les connaissances développées dans le projet « se retrouvaient entre de mauvaises mains ». Ces questions éthiques sont soulevées, ont écrit les développeurs, lorsque « la recherche exploite d’informations, de matériaux ou de techniques classifiés; matières dangereuses ou à utilisation restreinte [;] et si des résultats spécifiques de la recherche pourraient présenter un danger pour les participants ou pour la société dans son ensemble. « 

Les développeurs de Roborder ont fait valoir que ces préoccupations éthiques ne s’appliquaient pas à leur travail, affirmant que leur seul objectif était de développer et de tester la nouvelle technologie, et qu’elle ne serait ni vendue ni transférée en dehors de l’Union européenne pendant le cycle de vie du projet. Mais dans des entretiens avec The Intercept, les développeurs de projets ont reconnu que leur technologie pourrait être réutilisée et vendue, même en dehors de l’Europe, une fois le cycle du projet européen terminé, ce qui devrait se produire l’année prochaine.
Au-delà du projet Roborder, les rapports d’éthique déposés auprès de la Commission européenne suggèrent une question plus vaste: en ce qui concerne les nouvelles technologies susceptibles d’être utilisées contre des personnes vulnérables dans des endroits peu protégés par les droits de l’homme, qui décide ce que nous devons ou ne devons pas développer ?
Roborder a obtenu son financement en 2017 et s’est fixé pour objectif de développer un prototype commercialisable – «un essaim de robotique au service de la surveillance des frontières» – d’ici le milieu de 2020. Ses développeurs espèrent construire et équiper une collection de drones aériens, maritimes et terrestres pouvant être combinés et envoyés en missions de patrouille frontalière, recherchant de manière autonome les «menaces» sur la base d’informations fournies par des opérateurs humains, a déclaré Stefanos Vrochidis, responsable de projet chez Roborder.

Les drones utiliseront des caméras optiques, infrarouges et thermiques; radar; et des capteurs de fréquence radio pour déterminer les menaces le long de la frontière. Les fréquences des téléphones portables seront utilisées pour déterminer l’emplacement des personnes soupçonnées d’activités criminelles, et des caméras permettront d’identifier les êtres humains, les armes à feu, les véhicules et d’autres objets. «L’objectif principal est d’avoir le plus grand nombre possible de capteurs sur le terrain pour assister le personnel de patrouille», a déclaré Kostas Ioannidis, responsable technique de Roborder.
Le produit final sera testé par la police des frontières dans plusieurs pays européens, notamment le Portugal, la Hongrie et la Grèce, mais le projet a également suscité un intérêt considérable dans le secteur privé. « Nous avons finalement des entreprises qui aimeraient certainement exploiter cela commercialement », a déclaré Vrochidis à The Intercept. «Ils pourraient exploiter tout ou partie du résultat, selon les cas. Ils peuvent exploiter cela en Europe mais aussi en dehors de l’Europe. « 
Dans leur convention de subvention, les développeurs de Roborder ont déclaré à la Commission européenne qu’ils ne prévoyaient aucune exportation de leur technologie en dehors de l’UE. Dans des entretiens, toutefois, les développeurs ont déclaré à The Intercept que les entreprises concernées seraient disposées à vendre leur technologie au-delà de l’Europe. Selon un porte-parole du programme de subventions Roborder, Horizon 2020, qui finance le programme de subventions, les bailleurs de fonds européens de Roborder ne peuvent rien faire pour contrôler où et comment la technologie qu’ils ont financée est finalement utilisée.

Les documents obtenus par The Intercept montrent que Roborder répond à certaines préoccupations éthiques concernant le projet mais pas à la technologie elle-même. Dans leur demande de subvention, les développeurs de Roborder ont reconnu que leurs recherches « pourraient être exploitées par des organisations criminelles et des criminels individuels lorsqu’elles envisagent de perpétrer des actes criminels graves ou des actes terroristes », mais a écrit que le consortium de sociétés publiques et privées développant la technologie s’efforcerait de maintenir leurs activités. coffre-fort de données. Ce groupe comprend des fabricants de drones, plusieurs départements de la police nationale, deux gardes nationaux, un ministère de la Défense, une autorité portuaire, une société de cyberdéfense, une société spécialisée dans le développement d’équipements de guerre électronique et un autre qui fournit une « analyse prédictive » à la police européenne. les forces.
Quant aux modifications possibles de la technologie pour les futurs clients, les réponses étaient moins claires. Les développeurs ne feraient pas de commentaires sur le potentiel de ventes militaires après la fin du cycle du projet. Les développeurs ont ajouté que leur travail avait été retardé par l’un des principaux partenaires du consortium Roborder, le fabricant portugais de drones Tekever, avait quitté le projet. Les porte-parole de Roborder, Tekever et Horizon 2020 n’expliqueraient pas la raison du départ de Tekever.
Horizon 2020 soutient de nombreux projets axés sur la sécurité, mais affirme que «seules les recherches portant exclusivement sur des applications civiles sont éligibles à un financement». Le programme de subvention finançait auparavant un projet utilisant l’intelligence artificielle pour détecter si les voyageurs mentaient pendant leur passage automatisé. passages frontaliers.

Pourtant, les documents obtenus par The Intercept mettent en évidence des déclarations incohérentes sur les utilisations militaires potentielles de Roborder. Selon un rapport, le projet n’a aucun potentiel de «double usage» ni de déploiement militaire et civil. Dix pages plus tard, on leur demandait si leur travail impliquait des éléments pouvant être considérés comme à double usage selon les normes européennes, ont expliqué les développeurs de Roborder.
Roborder a engagé un consultant, Reinhard Hutter, en tant que conseiller externe en éthique pour le projet, selon un autre document du programme Horizon 2020 qui a été publié par inadvertance dans son intégralité par la Commission européenne. Dans son rapport, Hutter écrivait que «Roborder fait appel à une technologie à potentiel militaire» et que «les résultats de ce projet ont le potentiel d’être utilisés dans le secteur de la défense». La technologie impliquée, écrit Hutter, avait «une certaine utilité Aucune activité potentielle mais à double usage sur le projet. »En d’autres termes, il pourrait être utilisé à des fins militaires mais ne serait pas utilisé de cette manière dans le cadre de Roborder.
Hutter a refusé de parler à The Intercept.
Ce flou des lignes entre le développement militaire et civil du programme de financement de l’UE pourrait être délibéré. Dans un guide de 2014 sur le financement européen de projets à double usage, la Commission européenne note que le règlement établissant Horizon 2020 oblige tous les projets financés à se concentrer «exclusivement» sur le développement civil, mais le document indique également que «d’importantes parties de la recherche financé est pertinent pour la défense et peut conduire à des technologies qui seront utilisées par les acteurs de la défense.  »

Les auteurs d’une étude de 2016 commandée par le sous-comité de la sécurité et de la défense du Parlement européen sont allés plus loin, affirmant que la clause d’Horizon 2020 sur le développement civil exclusif devrait être réinterprétée pour inclure la recherche dans le domaine de la défense. Pour concurrencer le développement technologique américain, les auteurs de l’étude ont plaidé en faveur de la création d’un équivalent européen de DARPA, l’Agence américaine des projets de recherche avancée pour la défense, dont les travaux ont contribué au développement d’Internet, du GPS et d’autres technologies. Dans un discours prononcé en 2017, le président français Emmanuel Macron a repris à son compte l’appel lancé en faveur d’une « agence européenne pour l’innovation perturbatrice au même titre que » la DARPA.
Le rapport de 2016 ne représente pas les vues du Parlement européen ni de son sous-comité de sécurité et de défense et n’a pas été utilisé pour élaborer une législation spécifique, a déclaré un porte-parole du Parlement européen. Un porte-parole d’Horizon 2020 a rejeté l’idée d’une ambiguïté sur le type de projets que l’Union européenne financerait.
« La Commission européenne ne finance pas de recherche à usage militaire », a-t-elle déclaré.
Les drones que Roborder envisage de déployer sont une technologie courante. Ce qui serait révolutionnaire pour les entreprises impliquées, c’est un système fonctionnel qui permette à des nuées de drones de fonctionner de manière autonome et à l’unisson pour identifier de manière fiable les cibles. Selon les chercheurs en robotique, la détection des menaces d’intelligence artificielle est souvent inexacte, ainsi tout système permettant d’identifier correctement et systématiquement les personnes, les voitures et les armes constituerait, entre autres, une avancée substantielle et lucrative.
Les caméras drone n’utiliseront pas la technologie de reconnaissance faciale dans le cadre du projet, a expliqué Ioannidis, responsable technique de Roborder, et ne seront pas en mesure de déterminer les caractéristiques humaines, telles que la taille, le poids, l’âge, la couleur de la peau ou le sexe perçu. « Le système n’identifiera que » cet objet est humain « , a-t-il ajouté, » rien de plus « .

Néanmoins, Ioannidis a admis qu’ajouter ultérieurement la reconnaissance faciale au système Roborder serait «technologiquement possible». Qu’en est-il de la militarisation du système Roborder pour agir contre les humains? «Non», dit-il fermement. «Les robots n’ont aucune autorité pour prendre des mesures contre qui que ce soit. C’est juste surveiller et donner des alertes.
Mais Sharkey, professeur de robotique au Royaume-Uni, affirme qu’il existe une mince différence entre utiliser des robots pour surveiller une frontière et les utiliser pour en appliquer une. L’armement d’un drone est relativement facile, a-t-il déclaré, citant le cas de l’adolescent du Connecticut, en 2015, qui avait équipé un drone d’un pistolet et d’un lance-flammes. Sharkey s’inquiète des conséquences de la mise en place de systèmes autonomes de patrouille aux frontières, y compris de la manière dont le système pourrait être utilisé par un pays confronté à un afflux important de personnes.
« La question est, où est-ce que ça va? » Demanda Sharkey. « Le projet actuel ne propose pas de les armer, mais il serait trop tentant pour les pays si un point critique était atteint par la migration de masse. »
Hannah Couchman, chercheuse à l’organisation de défense des droits de l’homme britannique Liberty, est du même avis. « Cette technologie pose de graves problèmes de droits de l’homme et de liberté civile », a-t-elle déclaré à The Intercept. « Une fois que cette technologie est développée, elle est considérée comme une solution, une réponse à l’austérité et un moyen de faire un travail efficacement à moindre coût, le tout déployé sans consultation ni contrôle de la part des législateurs. »
« Il ne s’agit pas seulement d’atténuer les risques pour les droits de l’homme », a déclaré Couchman. « Il s’agit de savoir si nous devrions utiliser la technologie en premier lieu. »

Source : TradCat