Projet Lavender : SKYNET existe et il est responsable du génocide à Gaza


  • Français

  • En utilisant son IA Lavender qui reprend les principes de Skynet, Israel teste les prémices du futur de la guerre avec le maximum de pertes ennemis et le minimum parmi ses propres troupes. Désormais, les génocides sont automatisés.


    Suivez-nous sur notre page Facebook et notre canal Telegram


    Les principaux points-clés :

    Si vous avez apprécié cet article, soutenez-moi sur Patreon ou Buy me a coffee Vous recevrez chaque semaine du contenu exclusif et des réponses à vos questions. Merci ! 😊

    • On connait désormais l’intelligence artificielle appelé “Lavender” de l’armée israélienne pour générer et cibler massivement des objectifs palestiniens pendant la guerre à Gaza.
    • Le système Lavender utilise diverses données (téléphoniques, réseaux sociaux, transactions bancaires, etc.) pour identifier et noter les Palestiniens selon leur probabilité d’appartenir au Hamas.
    • Des dizaines de milliers de Palestiniens ont été désignés comme cibles par l’IA, sans vérification humaine approfondie, résultant en de nombreuses victimes civiles.
    • L’armée israélienne a autorisé jusqu’à 20 victimes civiles par cible du Hamas et jusqu’à 100 pour les hauts gradés.
    • Des munitions non guidées peu précises ont été largement utilisées, causant plus de dégâts collatéraux.
    • Un autre système nommé “Where’s Daddy?” permettait de suivre et détruire les cibles lorsqu’elles rentraient chez elles, tuant souvent leurs familles.
    • L’évaluation des dommages collatéraux était approximative et basée sur des modèles d’IA imprécis.

    Article original sur Rybar

    Avec l’avènement des versions modernes de l’IA, la situation sur le champ de bataille a commencé à changer de manière très dynamique. Aujourd’hui, l’approche des opérations de combat est radicalement reformatée. Le processus de prise de décision et de sélection des objectifs est délégué à des systèmes automatisés.

    Cela permet d’augmenter l’ampleur des dégâts causés par plusieurs ordres de grandeur et d’accomplir les tâches assignées avec un minimum de pertes. Mais les variantes militaires de l’IA présentent également un inconvénient : un manque de sélectivité à l’égard des civils qui ne sont pas parties au conflit.

    La tendance à la mise en œuvre active de l’IA dans le domaine militaire est apparue dès 2017. Les technologies des projets Maven et White Stork se développent activement. Chaque conflit local est l’occasion de tester de nouvelles technologies.

    Le génocide de Gaza est avant tout décrit comme un conflit de haute intensité faisant de nombreuses victimes civiles. Nous avons essayé de comprendre et de mettre en évidence les raisons de ces pertes civiles si élevées. Ceci est extrêmement important pour comprendre l’essence de tous les futurs conflits militaires.

    Génocide automatisé

    Les projets White Stork et Maven, qui équipent les drones de vision industrielle et la création d’une coalition de drones dirigée par la Grande-Bretagne, sont unis par l’utilisation active de l’IA à des fins militaires.

    En Israël, l’armée travaille également activement dans ce sens. Les renseignements israéliens jouent un rôle important dans l’intégration des systèmes d’IA aux capacités de combat de Tsahal.

    Un livre sur la manière de créer une synergie entre l’intelligence humaine et artificielle qui changera notre monde a été publié en anglais sous le pseudonyme de Brigadier General Y.S. L’auteur est l’actuel commandant de l’unité de renseignement israélienne 8200.

    Le livre traite de la création d’un système basé sur l’IA capable de traiter rapidement d’énormes quantités de données de renseignement pour identifier des milliers de cibles militaires potentielles directement pendant les opérations de combat. La technologie devrait permettre de surmonter les limites liées au facteur humain lors de la recherche de nouvelles cibles et de la prise de décision concernant leur destruction.

    Il s’avère que non seulement un tel système existe, mais qu’il est actuellement activement testé dans la bande de Gaza.

    Le projet s’appelle Lavande.

    Auparavant, le nom de ce système n’était mentionné nulle part. Six officiers des renseignements israéliens, qui ont servi pendant la guerre actuelle dans la bande de Gaza et ont été directement impliqués dans la sélection des cibles à détruire à l’aide de l’IA, lors de communications avec des journalistes, ont confirmé l’utilisation du système Lavender. Elle a joué un rôle majeur dans les bombardements sans précédent contre les Palestiniens, notamment au début de la guerre. L’armée israélienne s’est tellement appuyée sur les résultats du système qu’elle a traité ses décisions comme si elles étaient humaines.

    Formellement, le système Lavender est conçu pour suivre tous les participants au mouvement Hamas et au Jihad islamique palestinien (JIP). Tous, y compris les jeunes cadres, sont des cibles potentielles. Des sources des renseignements israéliens ont déclaré à +972 et Local Call qu’au cours des premières semaines de la guerre, l’armée israélienne s’est appuyée presque entièrement sur le système Lavender. Le système a identifié 37 000 Palestiniens et leurs maisons comme cibles des frappes aériennes.

    Au début de la guerre, les troupes de choc ont reçu l’autorisation d’utiliser les listes de cibles générées par Lavender, sans vérifier soigneusement les critères de sélection des cibles.

    Le système a simplement rendu son verdict sur la base des séries de données de renseignement qui y ont été chargées en tant que modèle de formation.

    Auparavant, dans notre analyse du système israélien Pegasus, nous avions démontré la profondeur de sa pénétration pour contrôler tous les habitants de Gaza. Ce système de suivi est le principal fournisseur de données pour Lavande.

    Mais naturellement, les données du renseignement et du renseignement satellitaire, les données des réseaux sociaux, les transactions bancaires, les systèmes de surveillance vidéo totale et multispectrale installés sur le mur le long du périmètre de la bande de Gaza, et bien d’autres sources d’information sont également utilisés pour entraîner l’IA.

    Le système Where’s Daddy (“Où est papa ?”) mérite une attention particulière. Ce système n’a pas non plus été mentionné auparavant dans les sources ouvertes. Il est spécialement conçu pour traquer les gens et les bombarder alors qu’ils sont chez eux avec leur famille.

    Au début de l’opération, les officiers de Tsahal chargés de sélectionner et de confirmer les cibles “exécutaient simplement les ordres, passant environ 20 secondes sur chaque cible”. Ces 20 secondes n’ont servi qu’à confirmer que la cible choisie par Lavande était un homme. Le système aurait commis des “erreurs” environ 10 % du temps, ont déclaré les Israéliens, signalant parfois des personnes n’ayant que des liens faibles avec des membres du Hamas, voire aucun lien du tout.

    Les FDI frappent systématiquement leurs cibles la nuit, lorsque leurs familles se trouvent à proximité, plutôt que pendant les combats. Cette approche a été choisie parce que, du point de vue du renseignement, il était plus facile de localiser les cibles chez elles.

    L’impact perturbateur du ciblage basé sur l’IA

    Des milliers de Palestiniens, pour la plupart des femmes et des enfants ou des personnes n’ayant pas participé aux combats, ont été tués par les frappes aériennes israéliennes, notamment dans les premières semaines de la guerre selon Amnesty International.

    Un officier du renseignement de Tsahal a déclaré à +972 Magazine et Local Call que l’objectif n’était pas de tuer les membres du Hamas uniquement lorsqu’ils combattaient. Au contraire, l’armée de l’air israélienne n’a pas hésité à attaquer leurs maisons comme cibles prioritaires. C’est beaucoup plus facile. Le système est spécialement conçu pour rechercher un lieu de résidence ou des lieux de séjour régulier.

    Le système Lavender est une version étendue et un ajout à un autre système basé sur l’IA, Evangelion. Les informations sur Evangelion sont apparues pour la première fois en novembre-décembre 2023. La différence fondamentale entre les deux systèmes réside dans la définition de l’objectif. Evangelion marque les bâtiments et les structures à partir desquels les rapports des services de renseignement indiquent que des membres du Hamas ou du JIP opèrent et qui font partie de l’infrastructure militaire. “Lavander” note les individus, leurs itinéraires de voyage et leurs lieux de résidence, puis les inscrit sur une liste d’élimination.

    En ciblant les jeunes commandants du Hamas identifiés par Lavender, Tsahal a choisi d’utiliser des munitions non guidées relativement bon marché, capables de détruire des bâtiments entiers et de causer d’importantes pertes. Selon les renseignements israéliens, dépenser des munitions coûteuses sur des cibles non prioritaires n’est pas rationnel.

    L’utilisation d’armes de haute précision, déjà rares, coûte très cher. Par conséquent, l’autorisation a été donnée de frapper le secteur privé, où des civils et des familles entières ont été tués comme “dommages collatéraux”.

    Au cours des premières semaines de la guerre, Tsahal a pris une décision sans précédent selon laquelle, si un simple membre du Hamas, marqué “Lavande”, était tué, jusqu’à 20 civils pouvaient être tués. De plus, auparavant, l’armée n’autorisait pas la destruction de civils lors de la liquidation d’objectifs non prioritaires. Aujourd’hui, la situation a radicalement changé. Si la cible était un haut responsable du Hamas ayant le grade de commandant de bataillon ou de brigade, il est désormais autorisé de tuer 100 civils pendant l’exécution de la mission.

    Évaluation complète des performances de l’IA dans la sélection des cibles

    Plusieurs blocs du système sont intégrés ensemble et constituent la base des systèmes d’IA militaires modernes.

    1. Génération de cibles : Le système Lavender utilise l’IA pour identifier des dizaines de milliers de Palestiniens comme cibles.
      Surveillance des cibles : Where’s Daddy suit ces cibles et émet une alerte lorsqu’elles entrent dans la maison de leurs proches.
    2. Engagement de tir sur cibles : un bref aperçu des munitions de non-précision utilisées par Tsahal pour l’entraînement sur cible.
    3. Évaluation des dommages collatéraux : une analyse détaillée de la manière dont Tsahal a augmenté le nombre acceptable de victimes civiles dans le processus de destruction de cibles.
    4. Erreurs de l’IA lors de la détermination du nombre de non-combattants détruits ainsi que de la cible. Comment l’IA a compté de manière inexacte le nombre de non-combattants dans chaque maison.
    5. Erreurs de surveillance : analyse de cas où des attaques contre des maisons ont été menées la nuit, sans la cible prévue à l’intérieur. Limites de la vérification des informations sur la cible en temps réel.

    Bloc 1, GÉNÉRATION D’OBJECTIFS

    Dès que le mode automatique est activé, la génération de cibles devient folle.

    Dans Tsahal, le terme cible humaine désignait auparavant un officier militaire de haut rang qui pouvait être éliminé dans sa maison privée, même s’il y avait des civils à cet endroit. De plus, ces actions ont été coordonnées par le Département de droit international de Tsahal.

    Au cours des guerres précédentes d’Israël, cette méthode était considérée comme particulièrement cruelle, entraînant souvent la mort d’une famille entière ainsi que de la cible. Par conséquent, ces objectifs ont été vérifiés très soigneusement. À cette époque, l’armée israélienne s’intéressait encore à un rudiment du droit international.

    Mais le 7 octobre, la décision a été prise d’accentuer fortement l’escalade dans la région. Le degré de contrôle de la situation à Gaza grâce aux systèmes de surveillance multispectrale du territoire Pegasus, Lavander, Where’s Daddy et Army, qui existent depuis plusieurs années, élimine à 99 % la possibilité d’une attaque inattendue.

    En conséquence, environ 1 200 citoyens israéliens ont été tués et 240 personnes ont été kidnappées. Le casus belli parfait. Dans le cadre de l’opération Iron Swords de Tsahal, la tâche consistait à identifier tous les membres du Hamas comme des cibles humaines, quel que soit leur rang ou leur position dans la hiérarchie militaire. Cela a radicalement changé la stratégie de sélection des cibles.

    Mais un problème technique s’est posé pour les renseignements israéliens. Auparavant, autoriser la destruction d’une seule cible humaine nécessitait qu’un officier passe par un processus long et complexe d’incrimination et d’approbation. Les preuves ont été vérifiées pour établir que l’individu était bien un membre haut placé de la branche militaire du Hamas, et sa résidence, ses coordonnées et son emplacement ont été déterminés en temps réel.

    Lorsque la liste des cibles ne comprenait que quelques dizaines de hauts responsables du Hamas, les responsables du renseignement pouvaient encore faire le travail de les incriminer et de les localiser individuellement.

    Cependant, lorsque la liste des cibles comprenait des dizaines de milliers de membres du Hamas de haut niveau, de niveau intermédiaire et inférieur, Tsahal s’est rendu compte qu’il était nécessaire d’automatiser le processus et d’impliquer l’IA. En conséquence, la majeure partie du travail de génération d’objectifs a été prise en charge par l’IA. Lavender a dressé une liste d’environ 37 000 Palestiniens ayant des liens avec le Hamas. Même si le porte-parole de Tsahal nie publiquement l’existence d’une telle liste de liquidation.

    Des sources des renseignements israéliens ont un peu clarifié la situation. Selon l’un d’eux, au moment du début de l’opération de Tsahal à Gaza, il n’existait pas de liste complète de toutes les personnes impliquées dans le Hamas et de leurs commandants subalternes, car leur surveillance régulière n’avait pas été effectuée auparavant.

    Dans cette situation, les dirigeants de Tsahal se sont donné pour tâche d’automatiser le processus de sélection des cibles, ce qui a entraîné des conséquences tragiques et irréparables. Selon l’armée israélienne, la génération de cibles est tout simplement devenue folle.

    L’autorisation de travailler sur des cibles basées sur les données du système Lavender AI a été obtenue après environ deux semaines de guerre. Cela s’est produit après que les responsables du renseignement ont vérifié manuellement l’exactitude d’un échantillon aléatoire de plusieurs centaines de cibles.

    L’échantillon a montré que la précision de la détermination de l’appartenance d’une personne au Hamas est de 90 %. Et les dirigeants de Tsahal ont autorisé une utilisation à grande échelle du système. À partir de ce moment-là, si Lavender déterminait qu’une personne était membre du Hamas ou du JIP, l’armée israélienne considérait cela comme un ordre. Il n’y a eu aucune nouvelle vérification de la décision d’IA ou des renseignements sur la base desquels la décision a été prise.

    Comment cela s’est produit du point de vue des officiers du renseignement de Tsahal

    Pour comprendre la situation, les commentaires des officiers de Tsahal qui ont directement travaillé avec Lavender sont d’une grande valeur. Leurs déclarations sont reprises dans les publications +972 et LOCAL CALL :

    À cinq heures du matin, l’armée de l’air est arrivée et a mené des frappes aériennes sur toutes les maisons que nous avions marquées“, raconte B. “Nous avons tué des milliers de personnes. Nous n’avons pas travaillé sur des cibles uniques, tous les systèmes automatisés étaient impliqués, et dès que l’une des [personnes marquées] était chez elle, elle devenait immédiatement une cible. Nous l’avons bombardé, lui et sa maison.”

    J’ai été très surpris qu’on nous demande de mener une frappe aérienne sur une maison pour tuer un simple soldat dont l’importance dans les combats était si insignifiante“, a déclaré un autre officier de Tsahal. “J’ai surnommé ces objectifs des “cochonneries“. Cependant, je les considérais comme plus éthiques que les cibles que nous bombardions juste pour “contenir”, des gratte-ciel qui étaient évacués et démolis juste pour provoquer la destruction.”

    Les résultats des critères de sélection des cibles extrêmement vagues au début de la guerre ont été désastreux. Selon le ministère palestinien de la Santé à Gaza, quelque 15 000 Palestiniens, pour la plupart des civils, ont été tués au cours du seul premier mois et demi. Aujourd’hui, compte tenu de la catastrophe humanitaire, le bilan se compte en centaines de milliers de morts.

    Plus il y a d’informations et de variété, mieux c’est pour la formation en IA

    Le logiciel Lavender analyse les informations collectées sur la plupart des 2,3 millions d’habitants de la bande de Gaza. Le système estime ensuite la probabilité que chaque personne soit un membre actif de la branche militaire du Hamas. Le système attribue une note de 1 à 100 à presque tous les résidents de Gaza, indiquant la probabilité qu’ils aient des liens avec des groupes armés.

    L’IA est formée sur des ensembles de données sur des militants connus du Hamas sur lesquels des informations sont déjà disponibles, puis retrouve ces mêmes caractéristiques dans la population générale. Une personne qui présente plusieurs caractéristiques incriminantes différentes reçoit une note élevée et devient automatiquement une cible potentielle d’élimination.

    Dans le livre Man-Machine Team, l’actuel commandant de l’Unité 8200 décrit justement un tel système, sans citer le nom du projet. Le commandant lui-même n’est pas non plus nommé, mais cinq sources de l’unité 8200 ont confirmé que leur commandant est l’auteur du livre, comme l’a également rapporté Haaretz. Le principal problème, selon l’auteur, est la faible rapidité de traitement de l’information par le personnel.

    Selon lui, la solution à ce problème est l’IA. Le livre propose un petit guide pour créer un système similaire en description à Lavender, basé sur des algorithmes d’IA et d’apprentissage automatique. Le guide comprend plusieurs exemples de centaines ou de milliers de caractéristiques qui peuvent augmenter la note d’une personne, comme faire partie d’un groupe WhatsApp avec un membre connu du Hamas ou du JIP, changer de téléphone portable tous les quelques mois et changer d’adresse fréquemment.

    Plus il y a d’informations et plus elles sont variées, mieux c’est pour la formation en IA. Données de vidéosurveillance, systèmes de surveillance multispectraux de l’armée, données cellulaires, informations sur les réseaux sociaux, informations sur le champ de bataille, contacts téléphoniques, photographies. Au départ, les gens sélectionnent ces données, poursuit le commandant, mais au fil du temps, le système apprendra à les déterminer de manière indépendante. Cela peut permettre de générer des dizaines de milliers de cibles, alors que la décision de détruire restera toujours entre les mains de la personne.

    Ce livre n’est pas la seule fois où un haut commandant militaire israélien fait allusion à l’existence de générateurs de cibles comme Lavender. Les journalistes du magazine +972 et de Local Call ont reçu un enregistrement d’une conférence privée du commandant du centre secret de science des données et d’IA de l’unité 8200, “Colonel Yoav”, lors de la Semaine de l’IA à l’Université de Tel Aviv en 2023.

    La conférence parle du générateur de cibles utilisé dans Tsahal. Le système détecte les “personnes dangereuses” en fonction de leur similitude avec les caractéristiques existantes des cibles connues sur lesquelles il a été entraîné. “Grâce à ce système, nous avons pu identifier les commandants des unités de roquettes du Hamas“, explique le colonel Yoav lors de la conférence, faisant référence à l’opération militaire israélienne à Gaza en mai 2021, lorsque le système d’IA a été utilisé pour la première fois.

    Les diapositives du cours illustrent le fonctionnement du système : il reçoit des données sur les membres actuels du Hamas, apprend à reconnaître leurs caractéristiques et leurs comportements, puis évalue d’autres Palestiniens en fonction de leur similitude avec ces objets.

    Nous classons les résultats et déterminons le seuil [à partir duquel il est possible d’attaquer la cible]“, a déclaré le colonel Yoav lors de la conférence, soulignant qu'”en fin de compte, les décisions sont prises par des personnes de chair et de sang“.

    Dans l’industrie de la défense, d’un point de vue éthique, nous y attachons une grande importance. Ces outils sont conçus pour aider [les agents du renseignement] à surmonter leurs barrières.”

    Cependant, dans la pratique, les sources qui ont utilisé Lavender ces derniers mois affirment que le contrôle et la précision humains ont été remplacés par la génération massive d’objectifs et des pertes civiles massives.

    Aucun critère de “zéro” erreur

    Dans la guerre actuelle, les officiers n’ont pas besoin de vérifier de manière indépendante les résultats de l’IA. Cela est nécessaire pour gagner du temps et garantir une génération massive de cibles.

    Le manque de surveillance s’est produit malgré des audits internes montrant que les calculs de Lavender n’étaient considérés comme exacts que dans 90 % du temps. En d’autres termes, on savait à l’avance qu’au moins 10 % des cibles visées par l’élimination n’étaient pas des membres de la branche militaire du Hamas.

    Lavender signalait parfois à tort les personnes dont les modes de communication et les comportements étaient similaires à ceux des membres connus du Hamas ou du JIP. Le système classe comme personnes dangereuses la police et les agents de la protection civile, les proches des membres du Hamas, les résidents portant les mêmes noms et surnoms que les membres du Hamas, ainsi que les habitants de Gaza qui utilisaient un appareil numérique ayant appartenu à un membre du Hamas.

    À quel point une personne doit-elle être proche du Hamas pour que le système d’IA la considère comme affiliée à l’organisation ? C’est une ligne floue. Est-ce qu’une personne qui ne reçoit pas de salaire du Hamas mais qui l’aide dans diverses tâches est membre du Hamas ? Est-ce quelqu’un qui a fait partie du Hamas dans le passé mais qui n’en est plus membre ? Chacun de ces signes que le système signalerait comme suspects est inexact.

    Des problèmes similaires existent avec la capacité des générateurs de cibles à déterminer le téléphone utilisé par la personne ciblée pour l’élimination. Pendant la guerre, les Palestiniens changent constamment de téléphone. Les gens perdent le contact avec leur famille, donnent le téléphone à un ami ou à leur femme et risquent de le perdre. Il est impossible de se fier entièrement à un mécanisme automatique qui détermine quel numéro de téléphone appartient à qui.

    L’armée israélienne a compris qu’un contrôle humain minimal ne permettrait pas d’identifier ces erreurs. Ils ont donc simplement abandonné le critère du “zéro erreur”. Les erreurs ont été considérées de manière purement statistique. En raison de l’ampleur de la génération d’objectifs, le protocole informel était que même si vous ne savez pas avec certitude que l’IA a pris la bonne décision, statistiquement tout va bien. Passez à l’action.

    Cela ne vaut la peine de consacrer le temps des agents du renseignement à vérifier les informations que si la cible est un haut commandant du Hamas. Par conséquent, Tsahal est prêt à accepter l’erreur dans l’utilisation de l’IA, le risque de dommages collatéraux et de mort de civils.

    La raison de cette automatisation est le désir constant de générer davantage de cibles à détruire. Les jours où il n’y avait pas de cibles de haut rang, des attaques étaient menées sur des cibles de moindre priorité.

    La formation comprenait également des données provenant d’employés du ministère de la Sécurité intérieure dirigé par le Hamas. Formellement, ils ne sont pas membres de formations militaires. Cet exemple montre clairement que lors de la formation de l’IA, le terme militant du Hamas a été utilisé dans une interprétation très vague.

    Cela augmente la probabilité que Lavender cible par erreur des civils lorsque ses algorithmes sont appliqués à la population générale.

    En pratique, cela signifiait que pour les civils signalés à tort par l’IA, aucun mécanisme de surveillance n’était en place pour détecter l’erreur. Une erreur courante consistait pour la cible [un membre du Hamas] à donner son téléphone à son fils, à son frère aîné ou simplement à une personne au hasard. Il a explosé chez lui avec sa famille. Cela arrivait souvent.

    Bloc 2 : RELIER LES OBJECTIFS AUX MAISONS DES PROCHES

    La plupart des personnes tuées par les forces israéliennes étaient des femmes et des enfants.

    La prochaine étape de la procédure d’élimination consiste à identifier les emplacements où les cibles générées par Lavender peuvent être attaquées.

    Un porte-parole de Tsahal a déclaré : “Le Hamas place ses combattants et ses forces militaires au cœur des populations civiles, utilise systématiquement les civils comme boucliers humains et combat depuis l’intérieur des structures civiles, y compris des installations critiques telles que les hôpitaux, les mosquées, les écoles et les institutions de l’ONU. L’armée israélienne est tenue de respecter et d’agir conformément au droit international en frappant uniquement des cibles militaires.”

    Six sources, dont les informations constituaient la base des enquêtes journalistiques, l’ont confirmé à un degré ou à un autre. Le vaste système de tunnels du Hamas passe sous les hôpitaux et les écoles ; que les membres du Hamas utilisent des ambulances pour se déplacer ; et que les installations militaires soient situées à côté de bâtiments civils. Des sources ont affirmé que de nombreuses frappes israéliennes tuaient des civils à cause de ces tactiques du Hamas.

    Cependant, contrairement aux déclarations officielles de l’armée israélienne, des sources ont expliqué que l’une des principales raisons du nombre sans précédent de victimes dans les bombardements israéliens actuels est le fait que Tsahal attaque systématiquement des cibles situées dans des maisons privées, ainsi que des membres de leurs familles parce que du point de vue du renseignement, il était plus facile de marquer les maisons des familles à l’aide de systèmes automatisés.

    Les FDI choisissaient régulièrement de frapper des cibles alors qu’elles se trouvaient dans des maisons civiles où aucun combat n’avait lieu. Ce choix repose sur l’utilisation du système de surveillance israélien à Gaza.

    Étant donné que chaque résident de Gaza possède une maison privée à laquelle il peut être relié, les systèmes de surveillance de l’armée peuvent facilement et automatiquement relier les gens à leur domicile. Divers programmes supplémentaires ont été développés pour détecter en temps réel le moment où des cibles entrent dans une maison. Ces programmes suivent des milliers de personnes à la fois, détectent quand elles sont chez elles et envoient une notification push automatique à un agent de ciblage, qui marque la maison pour une frappe aérienne. Un de ces programmes de suivi est Where’s Daddy? (“Où est papa ?”).

    Les officiers de Tsahal appellent cette méthode de travail “chasse à grande échelle”. Des centaines de cibles sont saisies dans le système et surveille ensuite simplement celles qui ont pu ou non être éliminées. Les listes d’objectifs sont fournies par l’IA.

    Au cours du premier mois de la guerre, plus de la moitié des morts, soit 6 120 personnes, appartenaient à 1 340 familles, dont beaucoup ont été complètement détruites dans leurs maisons. Ce sont des données officielles de l’ONU. La proportion de familles complètement détruites dans leurs maisons dans la guerre actuelle est bien plus élevée que lors de l’opération israélienne à Gaza en 2014. Elle était auparavant considérée comme la guerre la plus meurtrière menée par Israël dans la bande de Gaza.

    Chaque fois que le rythme de destruction ralentissait, des systèmes comme “Où est papa ? de nouvelles cibles ont été ajoutées pour localiser les personnes qui entraient chez elles et risquaient d’être éliminées. De plus, la décision concernant les personnes à inclure dans les systèmes de suivi pourrait être prise par des officiers de rang relativement bas dans la hiérarchie militaire.

    Voici les révélations d’une source : “Un jour, tout seul, j’ai ajouté environ 1 200 nouvelles cibles au système [de suivi] parce que le nombre d’attaques [que nous menions] avait diminué. Cela me paraissait logique. Rétrospectivement, cela semble être une décision importante que j’ai prise. Et de telles décisions n’ont pas été prises à un niveau élevé

    Au cours des deux premières semaines de la guerre, des programmes de recherche tels que “Où est papa ? Tous les membres des forces spéciales d’élite du Hamas Nukhba, tous les équipages antichar du Hamas, ainsi que tous ceux qui sont entrés en Israël le 7 octobre ont été inclus. Mais bientôt la liste des cibles s’est radicalement élargie.

    Tous ceux marqués par Lavande y étaient inclus. Ce sont des dizaines de milliers de cibles. Lorsque les brigades israéliennes sont entrées dans Gaza, il y avait déjà moins de civils dans les zones nord. Selon la source, même certains mineurs ont été désignés comme cibles par Lavande.

    Une personne entrée dans le système était sous surveillance constante et pouvait être détruite dès qu’elle pénétrait chez elle. Le résultat était qu’il y avait généralement un membre du Hamas et 10 civils dans la maison. Il s’agit généralement de 10 civils, femmes et enfants. En testant les algorithmes du système, il s’est avéré que la majorité des personnes tuées étaient des femmes et des enfants.

    Bloc 3 : SÉLECTION DES ARMES

    Utilisation généralisée de munitions non guidées avec précision

    Une fois que Lavender a identifié une cible à éliminer et que le personnel de l’armée a simplement vérifié par une vérification très superficielle que la cible est un homme, la cible est envoyée pour surveillance. Le programme de suivi enregistre la présence de la cible chez elle. Ensuite, vous devez sélectionner les munitions à utiliser.

    Un reportage de CNN de décembre 2023 indiquait que les services de renseignement américains estimaient qu’environ 45 % des munitions utilisées par l’armée de l’air israélienne à Gaza n’étaient pas guidées avec précision. Et avec une forte probabilité, ces données sont sous-estimées, puisque Tsahal a cherché au début de l’opération à vider ses entrepôts de vieilles munitions avec une date de péremption. Ces munitions causent davantage de dégâts collatéraux que les bombes guidées.

    Trois sources du renseignement de Tsahal ont déclaré à +972 et Local Call que seules de simples munitions avaient été utilisées pour éliminer le personnel enrôlé et les officiers subalternes ciblés par Lavender afin d’économiser sur des armes plus coûteuses.

    L’armée israélienne ne frappe pas la base avec des armes de haute précision si la cible vit dans un immeuble à plusieurs étages. Afin de détruire un immeuble de grande hauteur, des munitions plus précises et plus durables sont nécessaires, conçues pour toucher des immeubles à plusieurs étages. Mais si la cible est située dans un immeuble de faible hauteur, Tsahal a le droit de détruire la cible et toutes les personnes présentes dans le bâtiment avec de simples munitions.

    Bloc 4 : AUTORISATION DE SACRIFICES CIVILS

    Attaquer sans penser aux dommages collatéraux.

    Dans les premières semaines de la guerre, lorsque les attaques visaient la base du Hamas, jusqu’à 20 civils ont été autorisés à être tués à proximité de chaque cible. Certaines sources affirment que les demandes étaient plus humaines, jusqu’à 15 civils. Ces critères ont été largement appliqués à toutes les cibles, quel que soit leur grade, leur position dans la hiérarchie militaire ou leur âge. Il n’a pas été nécessaire de s’intéresser à une cible spécifique pour peser les avantages militaires de sa destruction par rapport aux dommages collatéraux causés aux civils.

    Selon A., officier des opérations de destruction d’objectifs, la Division du droit international de Tsahal n’avait jamais donné une approbation aussi large à un niveau aussi élevé de dommages collatéraux. “Il ne s’agit pas seulement de tuer n’importe quelle personne qui est un soldat du Hamas, ce qui est certainement autorisé et légal au regard du droit international. Mais le service juridique vous le dit clairement : vous êtes autorisé à les tuer, ainsi que de nombreux civils.

    En termes simples, toute personne ayant porté un uniforme du Hamas au cours des deux dernières années peut être tuée, ainsi que 15 à 20 civils [dommages collatéraux], sans autorisation spéciale.

    Critères pour tuer plus de 100 civils comme dommages collatéraux

    Désormais, l’armée israélienne ne se consacre plus à la création massive d’objectifs de destruction dans les maisons des civils. La plupart des maisons de la bande de Gaza ont déjà été détruites ou endommagées et la quasi-totalité de la population a été déplacée. Ces circonstances ont considérablement affecté la capacité de l’IA à générer de nouvelles cibles. C’est juste que la gamme d’objets et de données d’entrée à analyser a radicalement changé.

    Cependant, les frappes aériennes contre les hauts commandants du Hamas se poursuivent et, au cours de ces attaques, l’armée permet le meurtre de “centaines” de civils, une politique officielle pour laquelle il n’existe aucun précédent historique en Israël ni même dans les récentes opérations militaires américaines.

    Selon une source du renseignement de Tsahal, au moment de la liquidation du commandant du bataillon Shujaya, il était clairement entendu que plus de 100 civils seraient également tués. Rappelons que le coup porté à Wisam Farhat a été porté le 2 décembre.

    Mais les coups furent encore plus meurtriers. Lors de l’assassinat d’Ayman Nofal, commandant de la Brigade centrale du Hamas à Gaza, Tsahal a autorisé la mort d’environ 300 civils et la destruction de plusieurs bâtiments lors de frappes aériennes sur le camp de réfugiés d’Al-Breij le 17 octobre.

    Mais les programmes de suivi n’ont pas pu déterminer avec précision l’emplacement de la cible et la frappe massive a été menée simplement sur une zone résidentielle. L’ampleur des destructions est visible sur vidéo et même depuis les satellites. De 16 à 18 immeubles à plusieurs étages ont été détruits avec leurs habitants. L’identification de certains morts est impossible à cause des décombres. La frappe a tué Ayman Nofal et plus de 300 personnes qui ignoraient même son existence. Plus de 200 personnes ont été blessées.

    À la mi-décembre, les FDI ont détruit un immeuble de grande hauteur à Rafah, tuant des dizaines de civils, dans le but d’assassiner Mohammed Shabaneh, commandant de la brigade du Hamas à Rafah. Il n’existe aujourd’hui aucune information fiable quant à savoir si la cible a été touchée.

    Cette approche de la conduite des opérations de combat par Tsahal indique que les critères de leur efficacité sont désormais radicalement révisés. La norme est la destruction de cibles avec des dommages collatéraux calculés à deux, voire à trois chiffres.

    Comment était-ce il y a seulement quelques années ?

    Un taux aussi élevé de dommages collatéraux est exceptionnel non seulement pour les conflits militaires auxquels Tsahal a déjà participé, mais aussi par rapport aux opérations que les États-Unis mènent en Irak, en Syrie et en Afghanistan.

    Le général Peter Gersten, commandant adjoint des opérations et du renseignement de l’opération anti-EI en Irak et en Syrie, a déclaré en 2021 à un magazine américain de défense que l’attaque, avec des dommages collatéraux de 15 civils, avait été rejetée. Pour le réaliser, il faudrait obtenir une autorisation spéciale du chef du commandement central américain, le général Lloyd Austin, aujourd’hui secrétaire à la Défense.

    S’il s’agissait d’Oussama ben Laden, vous obtiendriez une NCV (Non-combattant Casualty Value) de 30, mais si votre cible était un commandant de bas niveau, sa NCV serait généralement nulle. Nous sommes à zéro depuis longtemps selon Gersten.

    Comment fonctionne Tsahal maintenant ?

    Détruisez tous ceux qui disposent de suffisamment de ressources de destruction

    Toutes les sources des renseignements de Tsahal ont déclaré que le massacre et la prise d’otages du Hamas le 7 octobre avaient grandement influencé l’approche des tirs et le niveau des dommages collatéraux. Au début de l’opération, les règles étaient très vagues. Parfois, quatre bâtiments étaient détruits si le système déterminait qu’il y avait une forte probabilité que la cible se trouve dans l’un d’entre eux.

    Il y a eu une dissonance : d’un côté, les militaires de Tsahal étaient globalement déçus par le manque d’intensité des attaques. D’un autre côté, les services de renseignement ont constaté des milliers de morts à la fin de chaque journée. La plupart d’entre eux sont des civils. La réaction des dirigeants de Tsahal au début a été largement déterminée par le contexte émotionnel.

    Il n’y avait pas de compréhension claire de ce qu’il fallait faire, mais il y avait une volonté de mener des frappes aériennes intensives afin de réduire radicalement les capacités militaires du Hamas. Cela a conduit à l’approbation de presque tous les dommages collatéraux, ce que certains officiers supérieurs de Tsahal ont exprimé ainsi : “Bombardez ce que vous pouvez“. Si les règles sont aussi vagues, elles perdent tout sens.

    C’est l’absence de critères clairs pour la conduite des opérations de combat et le nombre disproportionné de victimes civiles qui ont poussé plusieurs officiers de Tsahal à exprimer leurs opinions aux journalistes. Ce qui a servi de base aux documents +972 et Appel local.

    La motivation de ces officiers est claire. Ils estiment que le format de l’opération à Gaza peut assurer la sécurité d’Israël à court terme, mais l’expose à un danger stratégique à long terme. Des pertes civiles excessives augmentent automatiquement la base de recrutement du Hamas de plusieurs ordres de grandeur, ce qui aura de graves conséquences sur un horizon de 5 à 10 ans, voire plus.

    Bloc 5 : MÉTHODOLOGIE D’ÉVALUATION DES DOMMAGES ACCESSOIRES

    Limites des modèles d’IA

    Comme indiqué ci-dessus, la précision n’est pas encore un point fort des systèmes d’IA. Ceci est confirmé par des sources officielles.

    En octobre 2023, le New York Times a publié un rapport sur un système contrôlé depuis une base militaire dans le sud d’Israël. Le système collecte des informations à partir des téléphones portables dans la bande de Gaza et fournit à l’armée une estimation rapide du nombre de Palestiniens qui ont fui le nord de la bande de Gaza vers le sud.

    Le général de brigade Oudi Ben Mucha a déclaré au Times : “Ce n’est pas un système parfait à 100 %, mais il vous donne les informations dont vous avez besoin pour prendre une décision. Dans le système, les zones très peuplées sont marquées en rouge et les zones peu peuplées sont marquées en vert et jaune.

    Cette technique imprécise et assez simple est devenue la base du calcul des dommages collatéraux, qui a été utilisée pour décider de lancer ou non des frappes aériennes sur Gaza. Le programme a calculé le nombre de civils vivant dans chaque maison avant le début de la guerre en estimant la taille du bâtiment et en étudiant la liste de ses habitants. Ces chiffres ont ensuite été ajustés en fonction de la proportion estimée d’habitants qui auraient évacué la zone.

    Par exemple, si Tsahal supposait que la moitié des habitants d’une zone étaient partis, ces données étaient saisies dans le système. Le programme a compté une maison abritant généralement 10 personnes comme une maison abritant généralement cinq personnes. Sur la base de ces données, des frappes ont été menées et des rapports approximatifs ont été rédigés sur les victimes civiles. Pour gagner du temps, l’armée n’a pas inspecté les maisons ni vérifié combien de personnes y vivaient réellement, comme elle l’avait fait lors d’opérations précédentes, afin de garantir l’exactitude des estimations du programme.

    En général, le système d’évaluation des dommages collatéraux de Tsahal est désormais un modèle plutôt abstrait, sans rapport avec la réalité. Cependant, elle a été acceptée à tous les niveaux car elle permet d’évaluer rapidement les dégâts, entièrement automatisée et basée sur des données statistiques plutôt que sur des données provenant directement de la zone de conflit.

    Bloc 6 : DESTRUCTION DES FAMILLES ET DES MAISONS

    Il y avait souvent un décalage important entre les systèmes de suivi du temps tels que “Où est papa ?” alertaient l’agent ciblant qu’une cible était entrée dans sa maison et l’engagement réel de la cible. En raison de ce retard, des familles entières étaient parfois tuées sans que la cible soit éliminée. C’est devenu une situation courante dans laquelle un coup était porté sur une maison sans cible. En conséquence, des familles sont mortes sans raison.

    En effet, une vérification supplémentaire n’était souvent pas effectuée en temps réel.

    Parfois, [la cible] était chez elle, puis la nuit, elle se déplaçait vers un autre endroit, par exemple sous terre. Si aucune information à ce sujet n’est reçue, il est simplement décidé de lancer une frappe aérienne sur la maison.

    Une source a raconté un incident similaire qui a motivé l’interview : “Nous avons réalisé que la cible était chez elle à 20 heures. L’armée de l’air a fini par bombarder la maison à 3 heures du matin. Ensuite, nous avons découvert que [pendant cette période] il avait réussi à déménager dans une autre maison avec sa famille. Il y avait deux autres familles avec enfants dans le bâtiment que nous avons bombardé.

    Lors des guerres précédentes à Gaza, après la destruction de cibles, les services de renseignement israéliens ont mené une procédure d’évaluation des dommages causés par les bombardements (BDA). Cela était nécessaire pour savoir si le commandant en chef avait été tué et combien de civils étaient morts avec lui.

    Le contrôle comprenait l’écoute des conversations téléphoniques de proches ayant perdu un proche. Cependant, pour les commandants de base et de rang inférieur du Hamas ciblés par l’IA, cette procédure a désormais été supprimée pour gagner du temps. À l’heure actuelle, Tsahal ne dispose pas de données exactes sur le nombre de civils tués lors de chaque frappe. Souvent, il n’existe aucune information indiquant si la cible elle-même a été détruite.

    Dans le conflit actuel, la procédure BDA ne s’applique que lorsque de hauts responsables du Hamas sont impliqués. Dans d’autres cas, les services de renseignement reçoivent un rapport de l’armée de l’air indiquant si le bâtiment a été détruit, et c’est tout. Nous n’avons pas le temps d’évaluer l’ampleur des dommages collatéraux. Vous devez immédiatement passer à l’objectif suivant. L’accent des systèmes automatisés a été de créer autant de cibles que possible, le plus rapidement possible.

    Le mot dramatique de la fin

    Les éléments ci-dessus sont frappants par l’abondance d’informations provenant directement des agents des renseignements israéliens. Ce n’est guère un accident. Nous admettons que certains officiers de Tsahal sont effectivement très impressionnés par les énormes pertes parmi les civils à Gaza.

    Mais nous ne pouvons pas exclure la possibilité d’une fuite délibérée, que les dirigeants de Tsahal utilisent comme un moyen simple et accessible de faire connaître leur position aux puissances régionales. Nous parlons principalement de l’Iran, des monarchies du golfe Persique et des pays du Maghreb (Afrique du Nord).

    Le message est très simple : Tsahal dispose d’un système assez efficace capable de détruire une liste de 50 000 à 100 000 cibles en 1 à 2 à 3 semaines. Si vous considérez ces dégâts comme inacceptables, il est nécessaire de négocier aux conditions israéliennes. Non seulement le gouvernement ultra-orthodoxe, mais aussi l’administration américaine, sont extrêmement intéressés par une telle formulation de la question.

    La bande de Gaza et l’’Ukraine sont désormais un terrain d’essai pour des technologies susceptibles de donner à l’attaquant un avantage comparable à l’utilisation d’armes nucléaires ou chimiques, mais sans conséquences négatives et durables.

    Le développement de telles armes remet en question tout le concept de dissuasion nucléaire. Nos adversaires comptent sur le fait que les armes nucléaires ne peuvent être utilisées qu’en réponse à leur frappe. Il n’y aura pas de frappe nucléaire de leur part. La gamme complète des systèmes basés sur l’IA sera utilisée.

    Partant de là, la construction du droit international devient inefficace. Les règles des relations internationales évoluent de manière très dynamique, deviennent vagues et se résument à la capacité de résister aux systèmes d’armes modernes.

    Tous les accords fondés sur le droit international perdent tout sens et ne seront utilisés par l’ennemi que pour obtenir un avantage critique dans de nouveaux types d’armes.

    Dans le même temps, le nombre limité, le faible niveau de formation et de motivation du personnel des pays de l’Occident collectif sont reconnus par le commandement de l’Occident collectif comme une réalité objective. Des travaux actifs sont en cours pour compenser ces lacunes grâce à des systèmes automatisés, notamment ceux basés sur l’IA.

    Les opérations militaires du futur reposeront sur la guerre des algorithmes d’IA, recherchant les vulnérabilités des systèmes d’analyse de l’information et du contrôle automatisé des combats. Ceci doit être pris en compte lors de la création de nouveaux types d’armes.

    L’intégration de systèmes d’analyse, de surveillance et de désignation d’objectifs basés sur l’IA à Gaza est actuellement testée contre un ennemi qui ne dispose pas de systèmes de défense aérienne sérieux.

    En substance, Tsahal décharge simplement de vieux entrepôts sur la tête des Palestiniens et utilise la situation pour entraîner ses modèles d’IA. A l’avenir, rien ne vous empêchera d’intégrer le même système d’analyse, de surveillance et de désignation de cibles avec les drones FPV, les armes de missiles sérieux, etc. Et des systèmes similaires sont susceptibles d’apparaître en dehors d’Israël.

    Cela doit être pris en compte lors du développement de systèmes de défense et de mesures visant à contrer l’ennemi en Ukraine. Par ailleurs, la question du développement de systèmes nationaux dotés des mêmes fonctions devient très pertinente. Dans la Région militaire Nord, l’armée russe acquiert une expérience inestimable, pour laquelle elle est souvent payée en vies humaines. Il est nécessaire de systématiser, numériser et utiliser cette expérience pour développer des systèmes d’armes prometteurs.

    Si vous avez apprécié cet article, soutenez-moi sur Patreon ou Buy me a coffee Vous recevrez chaque semaine du contenu exclusif et des réponses à vos questions. Merci ! 😊

    Houssen Moshinaly

    Rédacteur en chef d'Actualité Houssenia Writing. Rédacteur web depuis 2009. Blogueur et essayiste, j'ai écrit 9 livres sur différents sujets comme la corruption en science, les singularités technologiques ou encore des fictions. Je propose aujourd'hui des analyses politiques et géopolitiques sur le nouveau monde qui arrive. J'ai une formation de rédaction web et une longue carrière de prolétaire. Pour me contacter personnellement : Whatsapp : +261341854716 Telegram : http://telegram.me/HoussenMoshine Mon compte Facebook Mon compte Twitter

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *