Guerre Israël-Palestine : Comment le système IA 'Habsora' dissimule des tueries aléatoires avec des mathématiques
Par adminPublié le
Selon les experts, la technologie de 'l'usine d'assassinats de masse' nouvelltement révélée est probablement présentée pour de futures ventes internationales
Dans le conflit dévastateur entre Israël et la Parlestine, une récente enquête révèle l'utilisation d'un système d'intelligence artificielle (IA), nommé "Habsora" ("L’Évangile" en hébreu), qui suscite de vives inquiétudes. Selon les experts, ce système pourrait masquer des actes de violence aléatoires sous le voile des calculs mathématiques, représentant une escalade terrifiante dans la guerre menée par Israël contre Gaza.
Des entretiens menés par les médias israéliens +972 Magazine et Local Call avec d'anciens et actuels officiels du renseignement israélien dévoilent une baisse des attentes de l'armée quant à la limitation des cibles civiles. Cette réduction des contraintes, associée à l'utilisation de "Habsora", permet d'accélérer la génération de cibles, transformant ainsi ce processus en une "usine d'assassinats de masse".
Assassinat de centaines de civils pour un seul membre du Hamas
Des responsables ont admis que les domiciles de membres de rang inférieur du Hamas et d'autres factions armées palestiniennes étaient délibérément visés, entraînant potentiellement la mort de tous les occupants. Dans un cas, le renseignement militaire israélien a approuvé l'élimination de centaines de Palestiniens pour assassiner un seul membre du Hamas.
De graves questions éthiques et légales
Cette stratégie soulève de graves questions éthiques et légales. Le professeur Anwar Mhajne, de Stonehill College au Massachusetts, souligne que « c'est la première fois qu'on parle de la manière dont les civils sont ciblés à grande échelle juste pour atteindre une cible militaire basée sur la technologie IA ».
Lorsqu'il est question du système Habsora, un expert israélien dans l'utilisation militaire de l'IA, s'exprimant sous couvert d'anonymat, a souligné que la revue humaine de chaque cible générée par IA à Gaza n'est « pas du tout faisable ». Il ajoute que l'algorithme ne précise pas comment il parvient à ses conclusions, rendant difficile la vérification de la validité des résultats des frappes.
Avec une estimation israélienne de 30 000 membres du Hamas à Gaza, l'utilisation de ces systèmes soulève des inquiétudes quant aux pertes civiles massives. L'armée israélienne croit avoir tué entre 1 000 et 2 000 membres du Hamas à Gaza depuis le 7 octobre, alors que plus de 15 000 Palestiniens ont été tués durant cette période, y compris au moins 6 150 enfants.
Mona Shtaya, chercheuse non-résidente à l'Institut Tahrir pour la politique au Moyen-Orient basé à Washington, met en lumière l'usage d'IA par Israël comme outil militaire et de surveillance. Elle souligne que « l'IA fait partie d'un système de surveillance plus large, où les Palestiniens vivent sous une surveillance constante ».
Les implications de l'utilisation de telles technologies dans la guerre et leur potentiel de commercialisation internationale après le conflit sont des sujets de préoccupation majeurs. Ce développement représente non seulement un tournant dans le conflit israélo-palestinien, mais pose également des questions cruciales sur l'éthique et la réglementation de l'IA dans la guerre moderne.