Israël rejoint la première convention mondiale sur l’IA, voici pourquoi c’est dangereux

samedi 21 septembre 2024

JPEG - 158.1 ko Au cours de l’année écoulée, Israël a utilisé l’intelligence artificielle comme arme dans son génocide à Gaza, en déployant des systèmes de surveillance et de ciblage automatisés basés sur l’intelligence artificielle qui ont tué des dizaines de milliers de personnes. La participation d’Israël au premier traité mondial sur l’intelligence artificielle soulève de sérieuses questions.

Photo : Destruction à proximité de l’hôpital al-Shifa, ville de Gaza, le 2 avril 2024. (Photo : © Omar Ishaq/dpa via ZUMA Press/APA Images)

Il est profondément troublant qu’Israël ait été autorisé à adhérer au premier traité mondial sur l’intelligence artificielle (IA) – un accord destiné à réglementer l’utilisation responsable de l’IA tout en respectant les droits de l’homme, la démocratie et l’État de droit. Pendant 11 mois consécutifs, Israël a utilisé l’IA comme arme dans son génocide à Gaza, en déployant des systèmes de surveillance et de ciblage automatisés pilotés par l’IA qui ont infligé des dommages dévastateurs aux civils. Pourtant, Israël célèbre aujourd’hui sa participation à ce traité aux côtés des États-Unis, du Royaume-Uni et de l’Union européenne, après avoir passé deux ans à la table des négociations et contribué à la rédaction du premier traité international sur l’IA pour une gouvernance éthique de l’IA. Cette contradiction révèle une hypocrisie flagrante et soulève de sérieuses questions sur le véritable engagement de la communauté internationale en faveur de la responsabilité.

Ce traité s’applique principalement à l’IA du secteur public, mais aborde également les risques du secteur privé. Les signataires du traité s’engagent à respecter des principes tels que la transparence, la responsabilité et la non-discrimination, et à mettre en place des recours en cas de violations des droits de l’homme liées à l’IA. Le traité impose des évaluations des risques, des mesures d’atténuation et des obligations graduées en fonction des contextes spécifiques, garantissant ainsi une certaine souplesse dans son application.

Depuis le début de ce génocide, Israël utilise l’intelligence artificielle et les technologies avancées pour perpétrer des massacres massifs et aveugles de civils. L’État d’apartheid a exploité l’intelligence artificielle pour surveiller, cibler et prendre des décisions. Israël a intensifié ses efforts pour contrôler et opprimer la population de la bande de Gaza, perpétuant ainsi une longue histoire d’oppression systématique du peuple palestinien. Cette utilisation abusive de la technologie suscite de profondes inquiétudes, entraînant des conséquences dévastatrices pour des vies innocentes prises entre deux feux.

Contrairement au programme « IA pour le bien commun » décrit dans les traités mondiaux sur l’IA, le programme d’IA israélien « Lavender » est devenu une pièce maîtresse du génocide en cours à Gaza. À peine deux semaines après le début de la guerre, les listes de personnes à abattre de Lavender ont été automatiquement approuvées, ciblant des militants présumés – dont de nombreux membres subalternes du Hamas et du Jihad islamique palestinien – avec une surveillance humaine minimale. Au cours des premières semaines de la guerre, Lavender a identifié jusqu’à 37 000 Palestiniens et leurs maisons comme cibles de bombardements. Cette militarisation de l’IA a entraîné des pertes civiles dévastatrices, car les critères larges et sujets aux erreurs de Lavender ont donné lieu à des attaques aveugles contre des maisons, provoquant un nombre de morts effroyable. Contrairement à d’autres systèmes tels que « The Gospel », qui cible les bâtiments, Lavender se concentre sur les individus, amplifiant la tragédie de ses faux pas.

Alors que le traité international prône une utilisation responsable de l’IA, dans le respect des droits de l’homme et de l’État de droit, le système d’IA israélien « Habsora » ou « L’Évangile » se démarque nettement. Déployé depuis le début de la guerre de Gaza, Habsora agit comme un outil de génération de cibles hautement automatisé pour les opérations militaires israéliennes. Capable de produire rapidement des listes de cibles, il facilite les frappes de grande envergure sur des habitations résidentielles, y compris celles des membres subalternes du Hamas. Depuis le 7 octobre, Habsora a causé de nombreuses victimes civiles, les frappes touchant souvent des habitations sans présence confirmée de militants. Les critères de ciblage larges du système et la surveillance minimale ont entraîné des destructions massives, ainsi que l’effacement des caractéristiques géographiques de la bande de Gaza et l’annihilation de sa population.

Avant cette guerre et au cours des deux dernières années, alors que l’État de surveillance contribuait à l’élaboration du programme de la Convention, Israël n’était pas resté inactif, mais automatisait systématiquement son système d’apartheid. Du soi-disant « tireur intelligent » d’Hébron aux technologies de reconnaissance faciale , il a utilisé des technologies révolutionnaires pour cibler et tuer les Palestiniens.

Entre 2020 et 2021 , des enquêtes ont révélé qu’Israël recourait de plus en plus à des technologies avancées de surveillance et de prédiction pour contrôler les Palestiniens. Cette surveillance numérique, qui fait partie d’une stratégie plus vaste, fonctionne à la fois comme un moyen de répression et comme une entreprise commerciale, Israël testant ses techniques de surveillance sur les Palestiniens avant de les commercialiser auprès de régimes répressifs du monde entier. L’État de surveillance utilise une surveillance étendue, notamment la reconnaissance faciale et des systèmes de suivi automatisés comme « Blue Wolf » et « Red Wolf », pour surveiller et s’immiscer dans la vie quotidienne des Palestiniens. Ces technologies, associées au contrôle d’Israël sur l’infrastructure des technologies de l’information et de la communication (TIC), intensifient le sentiment de surveillance constante, portant atteinte à la vie privée et étouffant la liberté d’expression, ainsi que menaçant l’accès des Palestiniens à Internet, et le fermant chaque fois que l’État oppressif décide de dissimuler ses crimes de guerre. Cette approche non seulement renforce l’apartheid automatisé, mais sert également d’exemple troublant de la manière dont l’IA, parmi d’autres technologies, a été utilisée comme arme pour servir la sécurisation et la militarisation d’un État d’apartheid, qui a maintenant reçu, sur un plateau d’or, l’opportunité de façonner et d’adhérer au premier traité sur l’IA.

La participation d’Israël au premier traité mondial sur l’intelligence artificielle, destiné à promouvoir une utilisation éthique de l’IA et à défendre les droits de l’homme, contraste fortement avec ses pratiques réelles. Depuis des mois, Israël utilise des systèmes d’IA avancés comme « Lavender » et « Habsora » pour cibler et tuer des civils à Gaza, tout en célébrant son rôle dans la rédaction d’un traité qui prétend garantir une gouvernance responsable de l’IA. Cette contradiction non seulement révèle une hypocrisie troublante, mais soulève également de graves questions sur l’engagement de la communauté internationale en faveur d’une véritable responsabilisation. Alors qu’Israël continue d’exploiter l’IA à des fins d’oppression, il sape les principes mêmes que le traité était censé défendre. Le monde doit examiner cette disparité et demander des comptes à Israël pour empêcher les abus de la technologie et protéger les droits de l’homme à l’échelle mondiale.

Source : Mondoweiss
Par Mona Shtaya 16 septembre 2024
Mona Shtaya est une défenseuse palestinienne des droits numériques, travaillant comme responsable des campagnes et des partenariats (MENA) et responsable de l’engagement des entreprises chez Digital Actions ; elle est également boursière du Migration and Technology Monitor 2024 et chercheuse non-résidente pour le Middle East Institute (MEI) dans le cadre du programme Palestine-Israël.