Connectez-vous

Israël utilise des armes basées sur l'intelligence artificielle pour dissimuler des massacres de civils

Lundi 3 Juin 2024

Le fondateur de Tech For Palestine, Paul Biggar
Le fondateur de Tech For Palestine, Paul Biggar

Paul Biggar, fondateur de Tech For Palestine, soutient qu'Israël utilise des systèmes de détection de cibles basés sur l'intelligence artificielle pour dissimuler le massacre de civils à Gaza et qu'il existe un risque que ces technologies se répandent dans le monde à l'avenir.

 

Fondateur de la coalition, qui regroupe plus de 5 000 personnes issues de différents domaines technologiques, Paul Biggar a évoqué pour Anadolu la technologie de détection de cibles basée sur l'intelligence artificielle "Lavender" utilisée par Israël sur les habitants de Gaza et la possibilité que des capitalistes israéliens commercialisent cette technologie dans le monde entier.

 

Paul Biggar note qu'Israël utilise la technologie de ciblage Lavender pour démontrer à ses alliés occidentaux qu'il mène ses attaques contre Gaza dans le respect de certaines règles et limites.

 

"Le premier rapport du magazine +972 sur le sujet traitait de la conception d'un système utilisant l'intelligence artificielle pour générer le ciblage. Ils ont effectué des vérifications auprès de six personnes de l'unité 8200. Les personnes qui se sont exprimées ont déclaré que l'intelligence artificielle était utilisée pour créer des listes de cibles de militants présumés. Cependant, leurs descriptions de l'utilisation de l'intelligence artificielle ou de sa conception laissent penser qu'il s'agissait d'un système de déni utilisé pour légitimer les bombardements aveugles que nous avons vus à Gaza", a-t-il fait remarquer.

 

En précisant qu'il n'existe aucune donnée permettant de savoir si Israël a utilisé ce système à Rafah ou lors d'autres attaques récentes, M. Biggar a précisé qu'Israël menait ses attaques sans avoir besoin de "faire semblant" en termes de droit international et ignorait les décisions d'organisations telles que la Cour internationale de justice (CIJ).

 

- Pas de protection sérieuse des informations fournies par les données de Meta

 

Selon Paul Biggar, l'incertitude règne quant à l'utilisation des données de WhatsApp et d'autres applications connectées à Meta par Lavender ainsi que par d'autres systèmes d'intelligence artificielle utilisés pour la détection des cibles.

 

"Nous n'en savons rien, mais il y a des rumeurs selon lesquelles des données sont utilisées. Meta a réfuté ces allégations en disant ne rien savoir à ce sujet. Je pense que la question pour Meta n'est plus de savoir si elle fournit ces informations mais si ces informations sont utilisées. Les utilisateurs de WhatsApp sont-ils en sécurité ? Pouvez-vous enquêter et déterminer quels changements doivent être apportés pour sécuriser WhatsApp ?", s'est-il interrogé.

 

Selon Paul Biggar, pour que Meta puisse assurer à ses utilisateurs que "WhatsApp ne vous tuera pas", il faudrait que toutes les personnes impliquées, tous les systèmes, tous les processus, toutes les vulnérabilités, soient passés au crible.

 

Paul Biggar a rappelé que Meta représente la première technologie de surveillance au monde et il est établi depuis longtemps que ces informations sont utilisées par les publicitaires, les forces de l'ordre et les chercheurs.

 

"Des discussions ont eu lieu, notamment dans l'Union européenne (UE), sur la possibilité de séparer WhatsApp d'Instagram et du reste de Meta. Ce serait un grand pas en avant. Comme le pouvoir est très concentré, la désinformation l'est aussi. Il n'y a pas de réelle protection de ces informations, à l'exception des mesures de sécurité très limitées mises en place par Meta. Les hommes politiques et les militants doivent dire : Nous ne pouvons pas tolérer que des personnes soient tuées à cause d'informations que certaines entreprises collectent et diffusent par le biais de systèmes totalement non réglementés et qui finissent par atteindre les personnes qui commettent des génocides", soutient-il. 

 

- Beaucoup d'autocrates, de dictateurs et d'armées aimeraient disposer de ces systèmes

 

Paul Biggar a noté qu'Antony Loewenstein, l'auteur du livre "The Palestinian Laboratory", a rapporté qu'Israël testait de nouvelles technologies sur les Palestiniens et commercialisait dans le monde entier des armes et des systèmes testés en temps de guerre.

 

Paul Biggar a évoqué la possibilité qu'un système équivalent à Lavender soit conçu et commercialisé au niveau mondial par une entreprise privée

 

"Cette entreprise crée un partenariat public-privé en Israël, dans lequel Israël investit, qui est relié à la Silicon Valley, dans laquelle la Silicon Valley investit. Dans le cadre de ce partenariat, elle vend des systèmes testés au combat. De nombreux autocrates, dictatures et armées apprécieraient d'avoir un système d’intelligence artificielle qui leur donnerait l'impression d'agir conformément à la loi. 

 

C'est ce que l'on observe dans de nombreux systèmes, même aux États-Unis. Le système pénal a commencé à utiliser l'IA pour obtenir des conseils sur la détermination de la peine, ce qui revient à peu près au même", a-t-il conclu.[AA]

 
Nombre de lectures : 208 fois

Nouveau commentaire :












Inscription à la newsletter