Les robots militaires américains sur la voie rapide vers un rôle de leadership

Il est temps pour le Congrès de poser des questions difficiles sur l'automatisation de la prise de décision en matière de combat avant d'injecter des milliards de dollars des contribuables dans cette entreprise, écrit Michael T. Klare.  

Preston Dunlap, architecte en chef de l'Armée de l'Air, informe les chefs militaires lors de la première démonstration en direct du système avancé de gestion de combat à la base aérienne d'Eglin, en Floride, le 18 décembre 2019. (US Air Force, Joshua J. Garcia)

By Michael T. Klare 
TomDispatch.com

Wavec Covid-19 invalidant chiffres surprenants des militaires américains et des armes modernes se révélant de plus en plus meurtrières, l’armée américaine est s'appuyer de plus en plus fréquemment sur des robots intelligents pour mener des opérations de combat dangereuses. De tels appareils, connus dans l’armée sous le nom de «systèmes d'armes autonomes», incluent des sentinelles robotiques, des drones de surveillance du champ de bataille et des sous-marins autonomes.

En d’autres termes, jusqu’à présent, les dispositifs robotiques ne font que remplacer les armes standards sur les champs de bataille conventionnels. Mais aujourd’hui, dans un acte de foi géant, le Pentagone cherche à amener ce processus à un tout autre niveau – en remplaçant non seulement les soldats ordinaires et leurs armes, mais aussi potentiellement les amiraux et les généraux, par des systèmes robotisés.

Certes, ces systèmes sont encore en phase de développement, mais le Pentagone accélère désormais leur futur déploiement, considérant l’urgence nationale. Chaque composante d’un état-major moderne – y compris la planification des batailles, la collecte de renseignements, la logistique, les communications et la prise de décision – doit, selon les derniers plans du Pentagone, être confiée à des dispositifs complexes de capteurs, d’ordinateurs et de logiciels.

Tous ces éléments seront ensuite intégrés dans un « système de systèmes », désormais baptisé le commandement et le contrôle conjoints de tous les domaines, ou JADC2 (puisque les acronymes restent l’essence même de la vie militaire). À terme, cet amalgame de systèmes pourrait effectivement assumer la plupart des fonctions actuellement exercées par les généraux américains et leurs officiers supérieurs.

L’idée d’utiliser des machines pour prendre des décisions au niveau du commandement n’est bien entendu pas entièrement nouvelle. En vérité, cela a pris du temps. Pendant la guerre froide, suite à l’introduction de missiles balistiques intercontinentaux (ICBM) aux temps de vol extrêmement courts, les stratèges militaires et les auteurs de science-fiction ont commencé à imaginer des systèmes mécaniques capables de contrôler de telles armes nucléaires en cas d’incapacité humaine.

Dans le film satirique de Stanley Kubrick de 1964 Dr. StrangelovePar exemple, le dirigeant russe fictif Dimitri Kissov révèle que l’Union soviétique a installé une « machine apocalyptique » capable d’anéantir toute vie humaine et qui exploserait automatiquement si le pays était attaqué par les forces nucléaires américaines.

Les efforts déployés par des officiers fous et antisoviétiques de l’US Air Force pour provoquer une guerre avec Moscou réussissent ensuite à déclencher cette machine et ainsi à provoquer l’anéantissement humain. En réalité, craignant de subir une attaque surprise de ce type, les Soviétiques ont par la suite installé un système de représailles semi-automatique. doublé « Périmètre », conçu pour lancer des ICBM soviétiques au cas où des capteurs détecteraient des explosions nucléaires et que toutes les communications en provenance de Moscou seraient réduites au silence.

Certains analystes pensent qu’une version améliorée de Perimeter est toujours en service, nous laissant dans une version bien trop réelle d’un monde étrangelovien.

Maquette de la salle de guerre construite pour le Dr Folamour de Stanley Kubrick.
(Crise chinoise, CC BY-SA 3.0, Wikimedia Commons)

Dans une autre version de science-fiction de ces systèmes de commande automatisés, le film de 1983 WarGames, mettant en vedette Matthew Broderick dans le rôle d'un hacker adolescent, dépeint un superordinateur appelé War Operations Plan Response, ou WOPR (prononcé « whopper ») installé au Commandement aérospatial de l'Amérique du Nord (NORAD) siège social au Colorado.

Lorsque le personnage de Broderick le pirate et commence à jouer à ce qu'il croit être un jeu appelé « Troisième Guerre mondiale », l'ordinateur conclut qu'une véritable attaque soviétique est en cours et lance une réponse nucléaire en représailles. Bien que fictif, le film décrit avec précision de nombreux aspects du système américain de commandement, de contrôle et de communication (NC3), qui était alors et reste encore hautement automatisé.

De tels dispositifs, tant réels qu'imaginaires, étaient relativement primitifs par rapport aux normes actuelles, étant uniquement capables de déterminer qu'une attaque nucléaire était en cours et d'ordonner une réponse catastrophique. Aujourd'hui, grâce à de vastes améliorations dans intelligence artificielle (IA) et l'apprentissage automatique, les machines peuvent collecter et évaluer d'énormes quantités de données de capteurs, détecter rapidement les tendances et modèles clés et potentiellement donner des ordres aux unités de combat leur indiquant où et quand attaquer.

Compression du temps et faillibilité humaine

Selon les stratèges américains, la substitution des machines intelligentes aux humains aux niveaux de commandement supérieurs devient essentielle, car la croissance exponentielle des informations fournies par les capteurs, combinée à la vitesse croissante de la guerre rend presque impossible pour les humains de suivre les développements cruciaux du champ de bataille.

Si les scénarios futurs s’avèrent exacts, des batailles qui se déroulaient autrefois sur des jours ou des semaines pourraient se dérouler en l’espace de quelques heures, voire quelques minutes, tandis que les informations sur le champ de bataille afflueraient sous forme d’une multitude de points de données, submergeant les officiers d’état-major. Seuls des ordinateurs avancés, affirme-t-on, pourraient traiter autant d’informations et prendre des décisions de combat éclairées dans les délais nécessaires.

Une telle compression du temps et l’expansion des données des capteurs peuvent s’appliquer à toute forme de combat, mais particulièrement à la plus terrifiante de toutes, la guerre nucléaire. Lorsque les ICBM étaient le principal moyen de combat, les décideurs disposaient de 30 minutes entre le moment du lancement d'un missile et le moment de la détonation pour déterminer si une attaque potentielle était réelle ou s'il s'agissait simplement d'une fausse lecture satellite (comme c'était le cas). surviennent parfois pendant la guerre froide).

Cela peut sembler peu de temps, mais avec l'introduction récente de missiles hypersoniques, ces délais d’évaluation pourraient être réduits à cinq minutes seulement. Dans de telles circonstances, on peut difficilement s'attendre à ce que même les décideurs les plus vigilants parviennent à un jugement éclairé sur la nature d'une attaque potentielle. D’où l’attrait (pour certains) des systèmes décisionnels automatisés.

"La compression du temps d'attaque a placé les hauts dirigeants américains dans une situation où le système NC3 existant pourrait ne pas agir assez rapidement", estiment les analystes militaires Adam Lowther et Curtis McGiffin. argumenté at Guerre sur les rochers, un site Web axé sur la sécurité. « Ainsi, il pourrait être nécessaire de développer un système basé sur l’intelligence artificielle, avec des décisions de réponse prédéterminées, qui détecte, décide et dirige les forces stratégiques avec une telle rapidité que le défi de la compression du temps d’attaque ne place pas les États-Unis dans une position impossible. .»

Surveiller le système de visée optique du centre d'information de combat pendant que le destroyer lance-missiles USS Mustin mène des opérations de routine dans le détroit de Taiwan, le 18 août 2020. (Marine américaine, Cody Beam)

Cette notion, selon laquelle un dispositif alimenté par l'intelligence artificielle – en substance, une version plus intelligente de la machine apocalyptique ou du WOPR – devrait être habilité à évaluer le comportement de l'ennemi et ensuite, sur la base d'« options de réponse prédéterminées », décider du sort de l'humanité, a naturellement produit certains malaise dans la communauté des analystes militaires (comme cela devrait être le cas pour le reste d’entre nous également).

Néanmoins, les stratèges américains continuent de soutenir que l’évaluation du champ de bataille et la prise de décision – tant pour la guerre conventionnelle que nucléaire – devraient de plus en plus être déléguées aux machines.

"Les systèmes de renseignement basés sur l'IA peuvent offrir la capacité d'intégrer et de trier de grandes quantités de données provenant de différentes sources et emplacements géographiques pour identifier des modèles et mettre en évidence des informations utiles", a déclaré le service de recherche du Congrès. noté dans un résumé de novembre 2019 de la pensée du Pentagone. « À mesure que la complexité des systèmes d’IA évolue », ajoute-t-il, « les algorithmes d’IA pourraient également être capables de fournir aux commandants un menu de plans d’action viables basés sur une analyse en temps réel de l’espace de combat, permettant ainsi une adaptation plus rapide à des événements complexes. »

Le mot clé est « un menu de plans d’action viables basés sur une analyse en temps réel de l’espace de combat ». Cela pourrait donner l’impression que les généraux et amiraux humains (sans parler de leur commandant en chef) prendront toujours les décisions ultimes de vie ou de mort, tant pour leurs propres forces que pour la planète.

Cependant, compte tenu de la compression prévue du temps d’attaque lors des futurs combats de haute intensité avec la Chine et/ou la Russie, les humains n’auront peut-être plus le temps ni la capacité d’analyser eux-mêmes l’espace de combat et en viendront donc à s’appuyer sur les algorithmes d’IA pour de telles évaluations. En conséquence, les commandants humains peuvent se retrouver simplement à approuver les décisions prises par les machines – et ainsi, en fin de compte, devenir superflus.

Créer des généraux de robots

Le major Mark Budgeon s'adresse au public réuni pour une démonstration marquante du formateur du programme de réalité virtuelle à StrikeWerx à Bossier City, Louisiane, le 7 juillet 2020. (Armée de l'Air américaine, Ted Daigle)

Malgré les doutes qu'ils peuvent avoir quant à la sécurité de leur emploi futur, les plus hauts généraux américains s'emploient rapidement à développer et déployer ce mécanisme de commandement automatisé JADC2. Supervisé par l'Armée de l'Air, il s'avère être un amalgame piloté par ordinateur de dispositifs permettant de collecter des renseignements en temps réel sur les forces ennemies à partir d'un grand nombre de capteurs (satellites, radars au sol, postes d'écoute électroniques, etc.), de traiter ces données en informations de combat exploitables et de fournir des instructions d'attaque précises à chaque unité de combat et système d’armes engagé dans un conflit – qu’il appartienne à l’armée, à la marine, à l’armée de l’air, au corps des marines ou à la nouvelle force spatiale et au cybercommandement.

On ne sait pas exactement en quoi consistera le JADC2, en partie parce que bon nombre de ses composants sont encore entourés de secret et en partie parce qu'une grande partie de la technologie essentielle est encore en phase de développement. Déléguée à la supervision du projet, l'Armée de l'Air travaille avec Lockheed Martin et d'autres grands entrepreneurs de la défense pour concevoir et développer les éléments clés du système.

L'un de ces éléments constitutifs est son système avancé de gestion de combat (ABMS), un système de collecte et de distribution de données. prévu fournir aux pilotes de chasse des données actualisées sur les positions ennemies et les aider à guider leurs mouvements de combat. Un autre Element clé est le système intégré de commandement de combat de défense aérienne et antimissile (IBCS) de l'armée, conçu pour connecter les systèmes radar aux lanceurs anti-aériens et de défense antimissile et leur fournir des instructions de tir précises.

Au fil du temps, l'Armée de l'Air et ses multiples sous-traitants chercheront à intégrer l'ABMS et l'IBCS dans un réseau géant de systèmes reliant chaque capteur, tireur et commandant des forces armées du pays – une armée.Internet des objets», comme certains l’ont dit.

Pour tester ce concept et fournir un exemple de la manière dont il pourrait fonctionner à l'avenir, l'armée a mené une exercice d'artillerie à tir réel en août prochain en Allemagne à partir de composants (ou fac-similés) du futur système JADC2.

Lors de la première étape du test, des images satellite des positions (présumées) des troupes russes ont été envoyées à un terminal terrestre de l’armée, où un logiciel d’IA appelé Prometheus a passé au peigne fin les données pour sélectionner les cibles ennemies.

Ensuite, un autre programme d'IA appelé SHOT a calculé l'adéquation optimale des armes disponibles de l'armée aux cibles prévues et a envoyé ces informations, ainsi que des coordonnées de tir précises, au système de données tactiques avancées d'artillerie de campagne de l'armée (AFATDS) pour une action immédiate, où les commandants humains pourraient choisir de la mettre en œuvre ou non. Au cours de l'exercice, ces commandants humains avaient l'espace mental nécessaire pour réfléchir un instant à la question ; dans une guerre de tirs, ils pourraient tout laisser aux machines, comme les concepteurs du système l'ont clairement prévu.

À l'avenir, l'armée prévoit des tests encore plus ambitieux de cette technologie en évolution dans le cadre d'une initiative appelée Convergence du projet. D'après ce qui a été dit publiquement à ce sujet, Convergence entreprendra des exercices de plus en plus complexes impliquant des satellites, des chasseurs de l'armée de l'air équipés du système ABMS, des hélicoptères de l'armée, des drones, des pièces d'artillerie et des véhicules tactiques. À terme, tout cela formera « l’architecture » sous-jacente du JADC2, reliant chaque système de capteurs militaires à chaque unité de combat et système d’armes – laissant aux généraux peu d’autre chose à faire que de rester assis et regarder.

Pourquoi les robots généraux pourraient se tromper

Les membres de l'équipe de cyberprotection de l'armée en 2017, au cours d'une « semaine de pointe », ont été utilisés pour la première fois par les développeurs de logiciels et de systèmes de la Silicon Valley pour recueillir les commentaires des utilisateurs sur les fonctionnalités du système. (L'armée américaine)

Compte tenu de la complexité de la guerre moderne et du défi de la compression du temps dans les combats futurs, l’envie des stratèges américains de remplacer les commandants humains par des robots est certainement compréhensible.

Les généraux et amiraux robots pourraient théoriquement être capables de traiter des quantités impressionnantes d’informations en peu de temps, tout en gardant une trace des forces amies et ennemies et en concevant des moyens optimaux pour contrer les mouvements ennemis sur un futur champ de bataille. Mais il existe de nombreuses bonnes raisons de douter de la fiabilité des décideurs robotisés et de l’opportunité de les utiliser à la place des agents humains.

Pour commencer, bon nombre de ces technologies en sont encore à leurs balbutiements et presque toutes sont susceptibles d’être modifiées. dysfonctionnements cela ne peut être ni anticipé ni compris facilement. Et n'oubliez pas que même les algorithmes avancés peuvent être trompés ou « usurpés » par des professionnels qualifiés.

De plus, contrairement aux humains, les systèmes décisionnels basés sur l’IA n’auront pas la capacité d’évaluer l’intention ou le contexte. Un déploiement soudain de troupes ennemies, par exemple, indique-t-il une attaque imminente, un bluff ou simplement une rotation normale des forces ?

Les analystes humains peuvent utiliser leur compréhension du moment politique actuel et des acteurs impliqués pour les aider à orienter leur évaluation de la situation. Les machines n’ont pas cette capacité et peuvent imaginer le pire, en lançant une action militaire qui aurait pu être évitée.

Un tel problème ne fera qu’être aggravé par la « formation » que subiront ces algorithmes décisionnels au fur et à mesure de leur adaptation aux situations militaires. Tout comme les logiciels de reconnaissance faciale ont fait leurs preuves entaché En raison d'une dépendance excessive aux images d'hommes blancs dans le processus de formation – les rendant moins aptes à reconnaître, par exemple, les femmes afro-américaines – les algorithmes de prise de décision militaire sont susceptibles d'être déformé par une dépendance excessive aux scénarios axés sur le combat sélectionnés par les professionnels militaires américains à des fins de formation.

"Pensée dans le pire des cas" est une inclination naturelle de tels officiers - après tout, qui veut être pris au dépourvu face à une éventuelle attaque surprise de l'ennemi ? – et de tels préjugés feront sans aucun doute partie des « menus de plans d’action viables » fournis par les robots décisionnels.

Une fois intégrés dans les algorithmes de prise de décision, ces préjugés pourraient, à leur tour, s’avérer extrêmement dangereux lors de futures confrontations entre les troupes américaines et russes en Europe ou entre les forces américaines et chinoises en Asie. Après tout, un affrontement de ce type pourrait survenir à tout moment, à la suite d’un malentendu ou d’un incident local qui prendrait rapidement de l’ampleur – un affrontement soudain entre des navires de guerre américains et chinois au large de Taiwan, par exemple, ou entre des patrouilles américaines et russes dans l’un des les pays baltes.

Aucune des deux parties n’a peut-être eu l’intention de déclencher un conflit à grande échelle et les dirigeants des deux parties pourraient normalement négocier un cessez-le-feu. Mais rappelez-vous qu’il ne s’agira plus simplement de conflits humains. À la suite d'un tel incident, le JADC2 pourrait détecter un mouvement ennemi qui, selon lui, pose un risque imminent pour les forces alliées et lancer ainsi immédiatement une attaque totale avec des avions, des missiles et de l'artillerie américains, intensifiant ainsi le conflit et excluant toute chance. d'un règlement négocié rapide.

De telles perspectives deviennent véritablement effrayantes lorsque l’enjeu est le déclenchement d’une guerre nucléaire. Il est difficile d'imaginer qu'un conflit entre les grandes puissances démarre sous la forme d'une guerre nucléaire, mais il est beaucoup plus facile d'envisager un scénario dans lequel les grandes puissances — après s'être retrouvées mêlées à un conflit conventionnel — atteignent un point où l'une ou l'autre des parties considère l'utilisation des armes atomiques pour éviter la défaite.

La doctrine militaire américaine a en fait toujours tenu le coup la possibilité d’utiliser des armes nucléaires dites tactiques en réponse à une attaque massive soviétique (maintenant russe) en Europe. La doctrine militaire russe est largement répandue assumé, intègre des options similaires. Dans de telles circonstances, un futur JADC2 pourrait interpréter à tort les mouvements de l’ennemi comme un signal de préparation à un lancement nucléaire et ordonner une frappe préventive des forces nucléaires américaines, déclenchant ainsi la Troisième Guerre mondiale.

La guerre est une activité odieuse et brutale et, étant donné près de deux décennies de conflits ratés qui ont été qualifiés de « guerre contre le terrorisme », causant des milliers de victimes américaines (à la fois physiques et mentales), il est facile de comprendre pourquoi les passionnés de robots sont si enthousiastes. tellement désireux de voir un autre type de mentalité prendre le dessus sur la conduite de la guerre aux États-Unis.

Pour commencer, ils prétendent, surtout dans un monde pandémique, qu'il est tout à fait humain de remplacer les soldats humains sur le champ de bataille par des robots et ainsi de diminuer les pertes humaines (du moins parmi les combattants). Bien entendu, cette affirmation ne répond pas à la question argument que les robots soldats et les drones n'ont pas la capacité de faire la distinction entre combattants et non-combattants sur le champ de bataille et qu'on ne peut donc pas leur faire confiance pour se conformer aux lois de la guerre ou au droit humanitaire international – qui, du moins en théorie, protègent les civils contre des dommages inutiles – et il faudrait donc l'interdire.

Aussi lourd que tout cela puisse être sur les futurs champs de bataille, remplacer les généraux et les amiraux par des robots est une tout autre affaire.

Non seulement des arguments juridiques et moraux surgissent de plus en plus, dans la mesure où la survie d’importantes populations civiles pourrait être mise en danger par des décisions de combat informatisées, mais rien ne garantit que les GI américains subiront moins de pertes dans les batailles qui s’ensuivront.

Il est peut-être temps, alors, pour le Congrès de poser des questions difficiles sur l'opportunité d'automatiser la prise de décision en matière de combat avant que ce pays ne consacre des milliards de dollars supplémentaires aux contribuables dans une entreprise qui pourrait, en fait, conduire à la fin du monde comme nous le savons. il.

Il est peut-être également temps pour les dirigeants de la Chine, de la Russie et de ce pays de limiter ou d'interdire le déploiement de missiles hypersoniques et d'autres armes qui réduiront en quelques minutes seulement des décisions de vie ou de mort pour l'humanité, justifiant ainsi l'automatisation des opérations. des jugements aussi fatidiques.

Michael T. Klare, un TomDispatch régulier, est professeur émérite d'études sur la paix et la sécurité mondiale au Hampshire College et chercheur principal invité à l'Arms Control Association. Il est l'auteur de 15 livres, dont le dernier est Tout l'enfer se détache: la perspective du Pentagone sur le changement climatique (Livres métropolitains).

Cet article est de TomDispatch.com.

Les opinions exprimées sont uniquement celles de l'auteur et peuvent ou non refléter celles de Nouvelles du consortium.

Veuillez Contribuer à Nouvelles du consortium
à l'occasion de son 25e anniversaire

Faites un don en toute sécurité avec PayPal ici

Ou en toute sécurité par carte bancaire ou chèque en cliquant sur le bouton rouge :

 

11 commentaires pour “Les robots militaires américains sur la voie rapide vers un rôle de leadership »

  1. GMCasey
    Août 28, 2020 à 17: 39

    Il y a ce vieux film, « 2001, l'Odyssée de l'espace », dans lequel HAL, l'ordinateur, tente de prendre le relais. Mais l’histoire ancienne a une histoire encore meilleure. Lorsque l'Oracle de Delphes dit à Crésus que s'il attaquait, une grande nation tomberait, il pensa que c'était une excellente nouvelle et il attaqua donc. Cyrus le Grand a cependant gagné et Crésus a appris que sa propre grande nation était celle qui tomberait et, très malheureusement, l'Amérique est une nation très semblable à Crésus. : (

  2. première personne infinie
    Août 28, 2020 à 12: 05

    Tous les généraux d'un empire sont des robots. Vivant ou robotique est une distinction inutile.

  3. régler
    Août 27, 2020 à 21: 13

    Un petit pas pour le complexe militaro-industriel-sécurité-médias, et un pas de géant pour Skynet.

  4. moi
    Août 27, 2020 à 17: 21

    On se demande ce que signifie réellement gagner une guerre lorsque les représailles entraînent la destruction de l’humanité.

  5. Bobzz
    Août 27, 2020 à 15: 14

    Nous n’avons même pas réussi à dépanner le F-35. Comment les technos peuvent-ils garantir que les ressorts de guerre contrôlés par l’IA ne tourneront pas terriblement mal ? La folie est hors de contrôle

  6. Aaron
    Août 27, 2020 à 13: 40

    C'est comme si le complexe militaro-industriel était un programme informatique programmé dans le but de – Gaspiller autant d'argent des contribuables américains que possible. C’est fantastiquement, paradoxalement efficace à ce jeu. Les contribuables sont à chaque fois du côté des perdants dans ce scénario de jeu de guerre.

  7. alex
    Août 27, 2020 à 13: 31

    La prise de décision par les robots militaires sera sans aucun doute basée sur des algorithmes qui prendront comme fondement la suprématie et le statut exceptionnel de l’Amérique (n’étant soumis à aucune sorte de loi).
    Cela rejette également la responsabilité des futurs crimes de guerre commis par des machines plutôt que par l’État voyou qui les a créés – une perspective effrayante.

  8. Août 27, 2020 à 12: 36

    « GI américains » est une expression désuète et inappropriée.

    Son utilisation évoque la notion de soldats citoyens pendant la Seconde Guerre mondiale, les soldats sentimentaux de Bill Mauldin.

    Mais ce n’est pas du tout ce qui existe aujourd’hui en Amérique.

    Vous disposez d’une armée de mercenaires, parfaitement équipée et même organisée selon des lignes particulièrement meurtrières comme les forces spéciales.

    Vous savez, les forces spéciales qui, au Vietnam, sortaient la nuit, rampaient dans les villages sur le ventre pour égorger les eiders et les fonctionnaires du village avec des couteaux ?

    Cela s’appelait Opération Phoenix et au moins 40 000 personnes ont été tuées de cette façon.

    Peu importe d’arrêter les futures machines, que diriez-vous simplement d’arrêter les massacres et les destructions que vous faites tant maintenant presque partout ?

    • régler
      Août 27, 2020 à 21: 32

      Commentaire approprié que vous faites.

      La réalité, cependant, est qu’il reste tout simplement trop d’argent à gagner pour que les massacres cessent. Un seul missile de croisière Tomahawk coûte plus d’un million de dollars l’unité. Par exemple, lors d’un raid de missiles totalement inefficace contre la Syrie, l’Amérique a dépensé au moins cinquante millions de dollars. Ces missiles avaient besoin d’être réapprovisionnés et Boeing a fait un massacre – pardonnez le jeu de mots – lors de ce seul raid.

      Il y aura la paix quand il n’y aura plus de profit dans la guerre.

  9. Stan W.
    Août 27, 2020 à 12: 21

    N'oubliez pas : « Ce n'est qu'un film. »

    • régler
      Août 27, 2020 à 21: 33

      Ce n'est pas le cas, n'est-ce pas ?

Les commentaires sont fermés.