Le slogan "All eyes on Rafah" est employé par les manifestants dénonçant les massacres qui se répètent à Gaza depuis dix mois. Il prend aujourd’hui un autre sens : celui de la surveillance militaire absolue des Palestiniens avec les moyens de Google, Microsoft et Amazon, désormais au service d’une "usine d’assassinats de masse".
Le "panoptique" de Jeremy Bentham, rendu célèbre par Michel Foucault, est l’un des "passages obligés" dès que l’on s’intéresse aux questions de la surveillance ou du numérique, qui sont désormais peu ou prou la même chose. On parle de "société de surveillance", de "capitalisme de surveillance", et l’on cite donc Surveiller et Punir.
De là, l'effet majeur du Panoptique : induire chez le détenu un état conscient et permanent de visibilité qui assure le fonctionnement automatique du pouvoir. Faire que la surveillance soit permanente dans ses effets, même si elle est discontinue dans son action ; que la perfection du pouvoir tende à rendre inutile l'actualité de son exercice ; que cet appareil architectural soit une machine à créer et à soutenir un rapport de pouvoir indépendant de celui qui l'exerce ; bref que les détenus soient pris dans une situation de pouvoir dont ils sont eux-mêmes les porteurs. Pour cela, c'est à la fois trop et trop peu que le prisonnier soit sans cesse observé par un surveillant : trop peu, car l'essentiel c'est qu'il se sache surveillé ; trop, parce qu'il n'a pas besoin de l'être effectivement. [1]
Gaza correspond aujourd’hui, assez littéralement, à une prison sous surveillance pan-optique : avec des yeux qui voient tout, partout, tout le temps. Avec un élément supplémentaire : cette surveillance qui emploie les outils des plus grandes entreprises américaines du numérique, sert à pointer les cibles qui sont ensuite bombardées. Si vous lisez l’actualité, vous savez que l’armée israélienne (Tsahal) a bombardé des camps de réfugiés [2], des hôpitaux [3], des écoles [4], des zones dites "sûres" [5], des journalistes [6] et des travailleurs humanitaires [7].
La guerre "propre"
Il faut d’abord que je vous parle rapidement de Yuval Abraham, que l’on connaît surtout en France pour une polémique lors du festival de cinéma de Berlin de 2024. Co-réalisateur avec Basel Adra du documentaire "No other land", il avait déclaré, au moment de recevoir le prix du meilleur documentaire : "Basel et moi avons le même âge. Je suis Israélien, il est Palestinien. Dans deux jours, nous retournerons sur une terre où nous ne sommes pas égaux : je vis sous une loi civile, Basel est soumis à une loi militaire. Nous habitons à trente minutes l’un de l’autre, mais j’ai le droit de vote, Basel ne l’a pas. Je peux me déplacer librement sur cette terre. Basel, comme des millions de Palestiniens, est bloqué dans la Cisjordanie occupée. Cette situation d’apartheid entre nous, cette inégalité, doit cesser". [8]
Pour ce discours, Yuval Abraham a été menacé de mort en Israël, mais également critiqué par la classe politique allemande, dont le maire de Berlin : "L'antisémitisme n'a pas de place à Berlin, et cela vaut aussi pour les artistes", a dénoncé le maire de la capitale allemande, Kai Wegner, sur son compte X (ex-Twitter). "Ce qui s'est déroulé (dimanche) à la Berlinale a constitué une relativisation insupportable", a-t-il ajouté. [9]
Pourtant, Abraham sait de quoi il parle. C’est à lui que l’on doit un premier article dans la revue +972, en novembre 2023, qui révèle pour la première fois l’existence d’un logiciel d’IA employé par Tsahal à Gaza : "Un ancien officier du renseignement explique que le système Habsora permet à l’armée de mettre en place une « usine d’assassinats de masse » dans laquelle on met l’accent sur la quantité et non la qualité. Un humain « jettera un œil » aux cibles avant chaque attaque, mais il n’a pas besoin d’y consacrer énormément de temps. Puisqu’Israël estime qu’il y a environ 30 000 membres du Hamas à Gaza, et qu’ils sont tous marqués pour être tués, le nombre de cibles potentielles est énorme." [10]
Car les dispositifs techniques déployés par l’armée israélienne sont pléthore. C’est que la sophistication des moyens de tuer sert d’abord à justifier la guerre que l’on fait, prétextant que les uns tuent comme des barbares, les autres comme des êtres civilisés, moraux, respectueux de leurs victimes.
Dont acte : en France, les plateaux-télé ont fourmillé de commentateurs expliquant que les morts israéliens du 7 octobre, et ceux, palestiniens, qui s’en sont suivis, ça n’était pas pareil. Raphaël Enthoven dit sur BFMTV le 10 octobre 2023 : "Il y a une différence à faire entre des gens qui sont des civils, qui sont assassinés dans la rue par des commandos islamistes et les victimes collatérales de bombardements consécutifs à cette attaque. Il faut marquer cette différence, c'est même très important de la faire." [11]
Caroline Fourest reprend en écho le 29 octobre: "On ne peut pas comparer le fait d'avoir tué des enfants délibérément comme le Hamas, et le fait de les tuer involontairement comme Israël" [12] . Elle insiste encore le lendemain : "Je maintiens, malgré la meute, qu’il existe une différence d’intention fondamentale entre cibler des enfants pour les décapiter et perdre la tête au point de bombarder le Hamas au milieu d’enfants." [13]
François Hollande, désormais député PS, bafouillait en répondant aux questions qui lui étaient posée sur France Info le 7 février 2024 : "Puisqu’on a parlé de l’hommage rendu aux victimes françaises en Israël lors de l’attaque du 7 octobre, est-ce qu’il faudra rendre un même hommage aux victimes à Gaza ?
Bien entendu, cette proposition, ça ne peut pas être le même hommage. Une vie est une vie, et une vie est équivalente à une autre vie. Mais il y a les victimes du terrorisme et il y a les victimes de guerre. […] Les victimes collatérales, vous êtes dans une guerre, vous êtes une victime collatérale, il y en a en Ukraine. [14]
Enfin, Céline Pina, le 6 novembre 2023 sur Cnews est celle qui l’exprime le plus clairement : "Une bombe qui explose et qui va détruire et qui va faire des dégâts collatéraux tuera sans doute des enfants. Mais ces enfants ne mourront pas en ayant l’impression que l’humanité a trahi tout ce qu’ils étaient en droit d’attendre. Là ce qui est horrible, c’est d’imaginer ces enfants qui avaient 8, 9, 10 ans, ces femmes qui sont parties en emportant comme dernière image, une image d’inhumanité, d’atrocité et de mépris de ce qu’ils sont. C’est là où se niche le crime contre l’humanité, la négation absolue. Je pense qu’on aurait intérêt à l’expliquer beaucoup plus parce que sinon le règne de l’émotion met des signes "égal" entre toutes les victimes. Or c’est vrai, un mort Palestinien, un mort Israélien, ça reste deux morts, mais la manière dont ils ont été tués, elle, elle parle de notre inhumanité ou de notre humanité. [15]
Ces déclarations sont à comparer aux témoignages du personnel soignant revenu de Gaza. Citons par exemple le chirurgien Feroze Sidhwa, qui était à l’hôpital de Khan Younis entre le 25 mars et le 8 avril :
A quel point-est-ce difficile pour les enfants qui sont là-bas ?
"Il y a plusieurs aspects à cela. Mais l’un d’eux est la manière dont ces enfants sont morts. La plupart ont été tués dans des explosions où beaucoup d’entre eux se sont probablement retrouvés piégés dans les décombres. Certains vont mourir immédiatement d’un bloc de béton qui leur tombe sur la tête, ou quelque chose de ce genre. Mais beaucoup d’entre eux se retrouvent la jambe coincée dans les gravats, et comme il n’y a pas de machinerie lourde, il n’y a aucun moyen d’aller les chercher ; ils meurent lentement de septicémie alors qu’ils sont enterrés dans ces tombes obscures, seules, gelés pendant la nuit, brûlant pendant la journée. Et ça doit prendre des jours pour chacun d’eux. Trois, quatre, cinq jours pour qu’ils meurent de cette façon. C’est horrible de penser à l’ampleur de leur souffrance." [16]
La rhétorique de la "guerre propre" a déjà été mise en évidence par Grégoire Chamayou dans son livre Théorie du Drone, dans lequel il raconte ce phénomène de distanciation et ses effets sur la doctrine militaire.
"Le drone chasseur-tueur, prétendent ses partisans, représente un « progrès majeur dans la technologie humanitaire ». Par là, ils ne veulent pas dire que cet engin pourrait par exemple servir à acheminer des vivres ou des médicaments dans des zones dévastées. Ils veulent dire tout autre chose : que le drone est humanitaire en tant qu’arme, en tant que moyen de tuer." […]
"Les armées modernes utilisant déjà des logiciels d’aide à la décision censés assurer leur meilleure adéquation aux exigences du droit de la guerre – et, par là, les rendre plus « éthiques » –, on peut se faire une petite idée de la façon dont peuvent, en pratique, se fixer les valeurs pertinentes : aux premiers jours de l’invasion en Irak, ils ont fait tourner des logiciels. Ils ont appelé ça le programme « moucheron écrasé » [bugsplat]. Ce programme informatique estimait le nombre de civils qui seraient tués dans un raid aérien donné. Les résultats présentés au général Tommy Franks indiquaient que vingt-deux des bombardements aériens prévus allaient entraîner ce qu’ils avaient défini comme étant un fort taux de moucherons écrasés – soit plus de trente civils tués par attaque. Franks dit : « allez-y, les gars, on les fait tous les vingt-deux »." [17]
La "guerre propre" est une rhétorique de déculpabilisation et de déresponsabilisation, car on "minimise le nombre de victimes collatérales". C’est tout l’inverse en réalité : les systèmes de surveillance et de ciblage de masse sont utilisés de manière totalement indiscriminée. Au lieu de tuer "moins et mieux", ces dispositifs techniques produisent l'effet inverse.
Surveiller, cibler, bombarder
C’est ce que montre un deuxième article de Yuval Abraham, en avril 2024, révélant l’existence de deux autres systèmes d’IA, "Lavender" et "Where’s Daddy" : "Lavender a joué un rôle central dans les bombardements inédits des Palestiniens, en particulier au début de la guerre. D’après nos sources, son influence sur les opérations militaires était telle que les résultats de la machine d’IA étaient traités « comme si c’était une décision humaine »." […]
"Selon deux de ces sources, l’armée a également fait le choix inédit pendant les premières semaines de la guerre d’autoriser à tuer, pour tout agent subalterne du Hamas marqué par Lavender, jusqu’à 15 ou 20 civils ; par le passé, l’armée n’autorisait aucun "dégât collatéral" pour les assassinats de militants en bas de la hiérarchie. Les sources précisent que, dans l’éventualité où la cible serait un haut-gradé du Hamas, un commandant de bataillon ou de brigade, l’armée a autorisé à plusieurs reprises l’assassinat de plus de 100 civils pour l’assassinat d’un seul commandant." […]
"Afin d’assassiner Ayman Nofal, le commandant de la Brigade Central de Gaza du Hamas, une source affirme que l’armée a autorisé le meurtre d’environ 300 civils, détruisant plusieurs bâtiments dans le camp de réfugiés d’Al-Bureij le 17 octobre, en se basant sur une géolocalisation peu précise de Nofal. Les images satellitaires et les vidéos sur place montrent que plusieurs grands immeubles résidentiels à plusieurs étages ont été détruits." [18]
Cette doctrine de bombardement, non pas aveugle, mais au contraire quasi omnisciente est donc à l’origine de "la mort de 15 000 Palestiniens — presque la moitié du décompte jusqu’à présent [en Avril] — dans les six premières semaines de la guerre". Ces méthodes sont rendues possibles par deux choses : la première, une surveillance de masse de tous les instants. La seconde, qui est son corollaire, la collecte et l’emploi de masses de données sans précédent.
Le journaliste Antony Loewenstein (que j’ai interviewé en novembre ici) l’a expliqué en détail dans son livre, The Palestine laboratory, publié en 2023. La totalité du livre pourrait servir d’exemple. Je n’en citerai qu’un extrait : "L’ IDF [Israeli Defense Forces] utilise la reconnaissance faciale à grande échelle avec un nombre croissant de caméras et de téléphones portables afin de ficher chaque Palestinien en Cisjordanie. À partir de 2019, les soldats israéliens se servent de l’application Blue Wolf pour prendre les visages des Palestiniens en photo, qui étaient ensuite comparés à une base de données gigantesque, surnommée « le Facebook des Palestiniens ». Les soldats étaient mis en compétition pour prendre le plus grand nombre de photos de Palestiniens et les plus prolifiques gagnaient des prix."
"Le système est particulièrement extrême dans la ville d’Hebron, où la reconnaisance faciale et de nombreuses caméras sont employées pour surveiller les Palestiniens, parfois même dans leurs foyers, contrairement aux colons juifs qui habitent là et lancent des menaces génocidaires envers les Palestiniens avec régularité. L’IDF affirme que ce programme était conçu pour « améliorer la qualité de vie » de la population palestinienne."
Ce que corrobore le témoignage d’un ancien soldat de Tsahal en poste à Hébron, rapporté par l’ONG Breaking the Silence en 2020 : "On sort avec Blue Wolf (un système de détection biométrique et de fichage) avec pour objectif : collecter dix visages, collecter dix correspondances avec Blue Wolf."
[...]
Ces logiciels, qui analysent les images de vidéosurveillance et envoient automatiquement des alertes à la police, sont déployés depuis des années en France en toute illégalité, sans que jamais les responsables n’aient été inquiétés. L’hypocrisie est donc totale. En légalisant quelques usages de VSA, l’État souhaite légitimer un état de fait et amorcer un projet de surveillance bien plus large de l’espace public.
Derrière cette légalisation inédite, qui porte sur un petit nombre de cas d’usage (départs de feux, individus marchant à contre-sens, etc.), ce sont d’autres applications qui pourraient à leur tour être légalisées. De nombreux responsables politiques assument publiquement de vouloir autoriser le suivi et la catégorisation biométriques de la population, y compris à travers la reconnaissance faciale ou encore la reconnaissance des émotions. Les entreprises distribuent déjà ces technologies et les propositions de légalisation sont dans les tuyaux.
C’est donc maintenant qu’il faut se mobiliser, pour résister contre cet empire de la vidéosurveillance algorithmique. Partout en France, refusons le contrôle permanent de nos faits et gestes, organisons-nous dans nos villes pour faire entendre notre voix, perturbons les expérimentations et documentons les projets illégaux qui continuent de prospérer.
Ensemble, luttons pour que l’espace public ne se transforme pas définitivement en lieu de répression policière mais reste un espace de libertés.
S’opposer aux expérimentations
Pendant toute l’année à venir, les festivals, matchs de foots ou autres marchés de Noël seront le terrain de jeu de la vidéosurveillance algorithmique. Sur la base de la loi relative aux Jeux olympiques du 19 mai 2023, les préfectures pourront ainsi utiliser des algorithmes visant à détecter huit types de situations, dans et aux abords des lieux accueillant du public et des réseaux de transport. Franchir une ligne, marcher à contre-sens ou faire partie d’une «densité trop importante de personnes» pourront conduire à des signalement automatiques à destination de la police, dans les centres où sont visionnés les images de vidéosurveillance. Qu’on ne s’y trompe pas : le danger ne réside pas tant dans ces quelques usages limités que dans l’élargissement programmé des cas d’usage et, à terme, le projet d’une surveillance systématique et généralisée de l’espace public.
Nous vous invitons donc à prendre ces évènements comme autant d’occasions pour se rendre sur place et faire valoir notre opposition à l’accaparement sécuritaire de l’espace public !
Nous avons constitué un «kit de mobilisation» – une brochure, des affiches, des flyers, etc. – pour que chacun·e puisse se renseigner et se mobiliser contre les déploiements «expérimentaux» de VSA. En dehors de nos propositions, bien d’autres formes de contestation sont possibles pour informer la population et dénoncer cette surveillance ! Que ce soit une danse «suspecte» sous l’œil des caméras ou un courrier formel à la CNIL, toutes les manière d’exprimer son opposition seront utiles pour matérialiser notre refus collectif de cette expérimentation hypocrite et du projet politique autoritaire dont elle découle.
S’organiser
Derrière les «expérimentations», de nombreux autres systèmes de VSA sont déployés de façon illégale en France, en toute opacité, sans contrôle ni condamnation politique. C’est pour cette raison que, depuis 2019, l’initiative Technopolice lancée par La Quadrature en lien avec des collectifs locaux cherche à faire la lumière sur ces projets. Il nous faut poursuivre cet effort, en obtenant des informations sur les entreprises qui continuent de vendre leurs logiciels illégaux, et interpeller les collectivités sans scrupules qui les achètent. Là où l’action apparaît la plus pertinente et la plus concrète est à l’échelle des villes et des rues où nous vivons. Des collectifs d’habitantes et d’habitants s’organisent ainsi un peu partout dans le pays pour recenser, documenter et lutter contre ces technologies policières.
Agir
Que ce soit lors d’expérimentations ou pour lutter contre un projet dans sa ville, les modes d’actions à explorer sont multiples. Voici des outils pour agir où que vous soyez et de la manière que vous préférez.
• Demander l’interdiction de la VSA dans sa ville : c’est l’action facile que nous avons décidé de mettre en avant dans le cadre de cette campagne. Que vous apparteniez à un collectif ou le fassiez de manière individuelle, nous vous expliquons ici comment participer à cette action à l’échelle de votre commune.
• S’informer et informer sur la VSA : Nous avons rassemblé dans une brochure des éléments pour comprendre ce que recouvre politiquement et techniquement la vidéosurveillance algorithmique. Elle est disponible ici. Ce document est fait pour être diffusé ! Alors lisez-le, imprimez-le, envoyez-le, laissez-le traîner… Bref, partagez-le le plus possible !
• Demander de l’information à sa commune : Un des principaux moteurs du déploiement des technologies policière réside dans l’opacité complète qui les entoure. Pour battre en brèche les projets de surveillance il faut donc les rendre visibles, en comprendre les contours et révéler leur fonctionnement. Les demandes d’accès aux documents administratifs (dites «demandes CADA») sont un outil efficace à la portée de toutes et tous pour obtenir des éléments sur les dispositifs de sa ville. Pour réaliser une demande CADA, vous pouvez suivre le guide dédié. Nous vous invitons également à utiliser la plateforme MaDada pour centraliser, suivre et partager les différentes demandes que vous avez réalisées.
• Enquêter et faire de la veille : De nombreux autres moyens d’enquête existent pour trouver des informations, comme la recherche en source ouverte sur les sites internet des entreprises de surveillance ou des collectivités, qui permet souvent de trouver des descriptions détaillées de technologies ou de cas d’usages déployés dans certaines villes. On peut également se plonger dans la lecture de compte-rendus de conseils municipaux ou assister à des réunions publiques.
• Repérer les arrêtés préfectoraux : Les «expérimentations» de VSA mises en œuvre dans le cadre de la loi sur les Jeux olympiques, ainsi que les utilisations de drones policiers, sont autorisées par des décisions préfectorales, souvent adoptées au dernier moment et en toute discrétion. Nous venons de lancer Attrap’Surveillance, un outil libre qui permet de rechercher et de trouver automatiquement ces autorisations dans les «recueils des actes administratifs» des préfectures. De cette manière, il s’agit d’informer la population quant à ces autorisations de surveillance pour permettre à toutes et tous de s’y opposer. Nous avons encore besoin d’aide pour l’améliorer, n’hésitez pas à contribuer au développement de cet outil, à nous suggérer des modifications…
• Visibiliser la surveillance dans l’espace public : Les caméras, qu’elles soient ou non dotées de logiciels d’analyse algorithmique, sont de plus en plus présentes dans nos villes et villages. Ces dispositifs sont le plus souvent juchés en haut d’un mobilier urbain conçu pour les faire disparaître. En les visibilisant, on matérialise une surveillance que certains voudraient rendre aussi discrète que possible et indolore. Il s’agit ainsi de matérialiser le contrôle de nos déplacements rendu possible par l’objectif de ces caméras. Pour assurer cette visibilité de l’infrastructure de vidéosurveillance, on peut organiser des «balades cartographiques» pour repérer les emplacements et modèles des caméras et les répertorier sur une carte accessible en ligne (voir cette vidéo qui explique comment organiser une cartographie des caméras et renseigner leur emplacement dans Openstreetmap). On peut également interpeller les passant·es en tractant, en accrochant leur regard au travers d’affiches ou des stickers.
• Interpeller les élu·es : Les projets de surveillance urbaine sont généralement décidés à l’échelle locale. Interpeller son maire est une manière de demander des comptes. Vous pouvez exiger de lui ou d’elle, à l’instar de la ville de Montpellier, d’interdire tout logiciel de vidéosurveillance algorithmique dans sa ville ! Aussi, la loi relative aux Jeux olympiques prévoit que l’expérimentation soit évaluée selon certains critères, dont la «perception» du public. N’hésitez donc pas à aller à la rencontre de parlementaires de votre circonscription dire tout le mal que vous pensez de ces dispositifs. Ce sont elles et eux qui auront à se prononcer sur la suite du processus de légalisation de la VSA.
• Organiser des évènements : La sensibilisation des habitantes et habitants passe par des échanges et des rencontres, par des festivals, des expositions ou des projections documentaires autour de la surveillance. Tous les moyens sont bons pour tenir la VSA et son monde en échec !
Des groupes locaux opposés à la Technopolice existent déjà, comme à Saint-Étienne, Paris et sa banlieue, Marseille ou Montpellier. N’hésitez pas à les rejoindre ou à en créer dans votre ville. Pour s’organiser, échanger et faire résonner nos mobilisations, l’initiative Technopolice propose un forum public ainsi qu’une plateforme de documentation en écriture collaborative appelée le «Carré». Vous pouvez aussi rejoindre le groupe de discussion sur Matrix. De nombreux autres outils similaires visant à appuyer nos combats existent par ailleurs ou sont encore à inventer !
La reconnaissance faciale ne se limite plus à quelques caméras dans la rue. Une société de surveillance est en train de se construire sous nos yeux, avec des scans biométriques de visage dans les aéroports, les stades, les commerces, au travail et à l'école. Les Jeux Olympiques de Paris en 2024 seront également l'occasion de déployer des caméras automatisées pour surveiller les spectateurs. Mais sommes-nous prêts à vivre dans un monde où notre visage est constamment filmé, scanné et analysé ?
La reconnaissance faciale ne se limite pas à l’identification. Elle peut également être utilisée pour analyser les émotions d’une personne, pour suivre ses déplacements dans un lieu donné, ou pour établir des profils de consommation. Les possibilités sont quasi-infinies, et les entreprises privées comme les gouvernements sont de plus en plus tentés d’utiliser cette technologie pour surveiller et contrôler la population.
Le problème, c’est que la reconnaissance faciale est une menace pour notre anonymat dans l’espace public. Dans une société où notre visage est constamment filmé, scanné et analysé, il devient impossible de se fondre dans la masse et de vaquer à ses occupations sans être surveillé. Nous sommes tous potentiellement des suspects, et nos moindres faits et gestes peuvent être utilisés contre nous.
Mais des moyens de résistance existent pour préserver notre anonymat et notre vie privée. Parmi eux, le port de vêtements et d’accessoires adaptés, tels que des lunettes de soleil, des chapeaux ou des écharpes, qui permettent de dissimuler partiellement ou totalement notre visage. Des maquillages spécifiques, des tatouages ou des piercings peuvent également perturber les algorithmes de reconnaissance faciale. Enfin, des outils numériques, comme des applications ou des filtres, peuvent être utilisés pour brouiller notre image et empêcher notre identification. Ces moyens, bien que parfois contraignants ou limités, sont autant de pistes à explorer pour lutter contre la surveillance de masse et protéger nos libertés individuelles.
Yoann
0:00 Intro
1:09 Un monde de surveillance
2:28 Deepfake à 25 millions$
3:25 Comment marche la reconnaissance faciale
5:11 Facebook tagging
6:55 Moteur de recherche de visage
8:01 Clearview et Face++
9:49 Utilisation illégale de reconnaissance faciale
11:05 JO2024 & QRcodes
15:09 Chine surveillance
17:06 Visage et criminalité
21:37 Caméras NewYork
22:42 Prison panoptique
24:10 Aéroports concerts stades
27:18 Erreurs
29:19 Travail école commerces
35:04 Contrôle d'internet & id numérique
35:50 Perte de l'anonymat
37:01 Police & militaires
37:32 Résister à la reconnaissance faciale
Ce sombre pronostic de la part de la personne la plus riche du monde a été formulé lors de l’événement VivaTech 2024 à Paris, dans le cadre d’un discours sinueux dans lequel Musk a affirmé avec ferveur que l’IA fournirait tous nos biens et services à l’avenir.
« Ma plus grande crainte est l’IA », a déclaré le magnat.
Il a également affirmé que l’IA serait meilleure que les humains dans tous les domaines, reléguant ainsi notre espèce à faire de son mieux pour soutenir les machines.
Musk, père d’au moins dix enfants, a déclaré que les humains pourraient être en mesure de travailler « comme un passe-temps », s’ils le souhaitent, mais il a finalement brossé un tableau sombre de l’avenir où, selon ses prédictions antérieures, l’IA nous supplantera dans tous les domaines.
Dans le même ordre d’idées, la société d’IA de Musk, surnommée simplement « xAI », aurait obtenu un financement de 6 milliards de dollars de la part de Lightspeed Venture Partners, Andreessen Horowitz, Sequoia Capital et Tribe Capital, pour une valorisation totale de 18 milliards de dollars.
Comme l’a récemment rapporté Cointelegraph, Musk affirme que xAI est à la traîne par rapport aux leaders du secteur que sont OpenAI et DeepMind, mais qu’elle pourrait les rattraper d’ici la fin de l’année 2024.
Ce sentiment, associé à sa prédiction selon laquelle l’IA dépassera les humains d’ici 2025, indique qu’il pense que son entreprise fera partie de celles qui pourront potentiellement créer une IA capable d’une cognition de niveau humain.
Il convient de mentionner que les prédictions de Musk en matière d’IA n’ont pas toujours été aussi bonnes. En 2019, il a promis que Tesla mettrait en circulation un million de taxis-robots entièrement autonomes d’ici 2020.
Plus récemment, il a affirmé que Tesla dévoilerait son premier robotaxi en août 2024.
« Si l’ordinateur et les robots peuvent tout faire mieux que vous, votre vie a-t-elle un sens ? Je pense que l’homme a peut-être encore un rôle à jouer dans ce domaine, en ce sens que nous pouvons donner un sens à l’IA »
Comme l’explique Microsoft sur son site web, cette fonction, baptisée « Recall » et encore en phase de test, prend « des images de votre écran actif toutes les quelques secondes ».
« Les captures d’écran sont cryptées et enregistrées sur le disque dur de votre PC », poursuit la description. « Vous pouvez utiliser Recall pour localiser le contenu que vous avez visionné sur votre PC à l’aide d’une recherche ou d’une barre temporelle qui vous permet de faire défiler vos instantanés. »
Cette fonctionnalité, comme l’explique Ars Technica, va au-delà des simples instantanés de votre écran pour inclure la transcription et la traduction à la demande de réunions vidéo et peut montrer le contexte de ce qu’ils faisaient à un moment donné.
En d’autres termes, cela ressemble beaucoup à « Big Brother » pour le petit écran.
Politique de confidentialité
Bien que Microsoft insiste sur le fait que les fonctionnalités seront stockées et cryptées localement sur le disque dur de l’utilisateur, rien n’empêche un acteur malveillant ayant accédé à un PC donné de regarder et de sauvegarder tout ce que l’utilisateur de Recall a fait. Comme le souligne Ars, les implications pour la vie privée dépassent la simple crainte de voir ses habitudes de navigation pornographique surveillées et posent des problèmes de sécurité, que ce soit pour les journalistes ou les dissidents politiques considérés comme des ennemis de l’État, ou encore pour les personnes maltraitées qui partagent leur ordinateur avec leurs agresseurs.
Pour tenter d’apaiser certaines de ces inquiétudes, l’entreprise semble avoir pris des mesures supplémentaires pour que les informations de Recall restent verrouillées et privées pour les utilisateurs.
« Les captures d’écran de Recall sont uniquement liées à un profil d’utilisateur spécifique et Recall ne les partage pas avec d’autres utilisateurs, ne les met pas à la disposition de Microsoft et ne les utilise pas pour cibler des publicités », a écrit l’entreprise sur son site web. « Les captures d’écran ne sont accessibles qu’à la personne dont le profil a été utilisé pour se connecter à l’appareil. »
Comme l’ajoute Ars, ce n’est pas la première fois que Microsoft tente ce genre d’opération.
Windows 10, par exemple, comprenait une fonction appelée « Timeline », qui permettait aux utilisateurs de faire défiler des documents historiques, des onglets de navigateur et des applications à partir d’ordinateurs et de téléphones Android lorsqu’ils passaient d’une tâche à l’autre. Toutefois, Timeline ne prenait pas ses clichés spontanément et a été supprimée en 2021.
Heureusement pour les acheteurs involontaires des PC Copilot+ de Microsoft dotés de l’IA, Recall est encore en phase de test bêta et ne sera donc pas lancé sur eux de sitôt.
Néanmoins, l’introduction de ce type de fonction d’IA crée un précédent effrayant, étant donné que les questions de confidentialité des données sont trop souvent négligées au profit de la perspective bien plus lointaine de l’AGI.
En décembre de l’année dernière, les États-Unis ont annoncé qu’ils voulaient déployer des «armes de type Skynet» contre leurs adversaires géopolitiques. Les rapports pertinents ont révélé que le Pentagone utilise même une nouvelle nomenclature militaire pour un tel système, l’appelant ADA2 ou armes autonomes attritables dans tous les domaines (ADA2 or all-domain attritable autonomous weapons ; à ne pas confondre avec le même nom A2/AD ou armes anti-accès/déni de zone). À l’époque, j’avais soutenu que lorsque de tels programmes avaient une nomenclature avancée, cela impliquait clairement que lesdits systèmes d’armes étaient déjà profondément ancrés dans la stratégie américaine émergente. Les dernières révélations du tristement célèbre porte-parole néolibéral, le New York Times, viennent de confirmer mon hypothèse en révélant que le Pentagone utilise une IA avancée (intelligence artificielle) pour «tuer les troupes russes». Précisément en ces termes.
Dans un article intitulé «En Ukraine, la nouvelle technologie américaine a gagné, jusqu’à ce qu’il soit dépassé», David E. Sanger, journaliste à la Maison-Blanche et chargé de la sécurité nationale, révèle les détails troublants du projet Maven qui était «destiné à révolutionner la guerre moderne». Sanger a remis en question la capacité du programme à «inverser la tendance», mais a tout de même expliqué comment il fonctionne. En effet, en 2018, Google a lancé un projet de 9 millions de dollars visant à développer un système d’IA avancé qui aiderait l’armée américaine à mener des guerres en utilisant des images de drones pour déterminer facilement les positions ennemies. Sanger poursuit ensuite en lançant un discours risible sur les «hauteurs morales» selon lequel cette idée aurait «déclenché une révolte à grande échelle» et un «tollé» sur le campus de Google, alors que «les ingénieurs et autres employés de Google affirmaient que l’entreprise ne devrait rien avoir à faire» avec le projet Maven.
Pourtant, selon l’aveu de Sanger, «le projet Maven n’est pas mort, il a simplement été confié à d’autres entrepreneurs». De toute évidence, les États-Unis n’abandonneront jamais l’idée de trouver de nouvelles façons «brillantes» de tuer des gens dans le monde. Le programme a connu depuis lors une croissance exponentielle et est activement testé en Ukraine, où le Pentagone partage des données sur le champ de bataille directement avec les forces de la junte néonazie. Sanger a en outre admis que les «résultats sont mitigés», car le projet Maven a donné «aux généraux et aux commandants une nouvelle façon de présenter une image complète des mouvements et des communications de la Russie dans une image globale et conviviale, en utilisant des algorithmes pour prédire où les troupes se déplacent et où les attaques pourraient avoir lieu», mais qu’il est douteux que cela «contribue à inverser le cours de la guerre à un moment où les Russes ont repris de l’élan».
Il est intéressant de noter que Sanger admet également que le conflit orchestré par l’OTAN en Ukraine est devenu un «terrain d’essai pour le projet Maven et d’autres technologies en évolution rapide». Il a déclaré que les drones américains ont été «facilement soufflés du ciel», mais que cela a aidé le Pentagone à comprendre qu’il devait construire un réseau massif de satellites militaires identiques à ceux du Starlink d’Elon Musk. Il convient de noter que, malgré l’apparence de milliardaire de «génie pacifiste» de Musk, il n’est qu’un autre entrepreneur militaire américain qui aide Washington DC à poursuivre son agression incessante contre le monde. SpaceX est impliqué depuis longtemps aux côtés du Pentagone, pratiquement depuis sa création, on ne peut donc que s’attendre à ce que ses technologies soient utilisées à des fins militaires. Après tout, Musk s’est vanté d’avoir «empêché le mini-Pearl Harbor de Crimée» en niant son utilisation auprès du régime de Kiev.
Pendant ce temps, le personnel militaire de l’OTAN, en particulier américain et britannique, a été déployé en Ukraine pour aider leurs mandataires néo-nazis à utiliser le nouveau système avancé d’IA pour «explorer de nouvelles façons de trouver et d’exploiter les vulnérabilités russes, même si les responsables américains tentent de naviguer dans les procédures juridiques des restrictions quant à la mesure dans laquelle ils peuvent s’impliquer dans le ciblage et le meurtre des troupes russes». C’est une nouvelle confirmation des nombreuses affirmations de mes collègues et de moi-même selon lesquelles l’OTAN est directement impliquée dans le ciblage des soldats de Moscou, car il n’existe pas de «moyen à plusieurs niveaux de tuer quelqu’un». Soit vous le faites, soit vous ne le faites pas. Cela n’est guère surprenant, étant donné que certains officiers supérieurs occidentaux se vantent ouvertement de leur participation directe à l’attaque des forces russes. Cet aveu à lui seul pourrait facilement servir de casus belli légitime pour le Kremlin.
Et sans parler des attaques terroristes de l’OTAN contre des civils russes, orchestrées par les marionnettes du régime de Kiev dans le but non seulement de provoquer des troubles religieux et ethniques en Russie, mais aussi d’inciter Moscou à lancer des frappes de représailles contre l’alliance belligérante elle-même, afin que les politiques de l’Occident poussentt alors présenter leur confrontation directe avec le géant eurasien comme une prétendue «défense». Sachant tout cela, on se demande sûrement si la véritable signification du tristement célèbre acronyme «OTAN» est réellement «Organisation Terroriste Américaine Nazie», car cela englobe parfaitement tout ce qu’il représente véritablement. En tant qu’excroissance géopolitique (et, à bien des égards, littérale) du Troisième Reich et des puissances de l’Axe, elle pourrait aussi bien se renommer ainsi, car rien ne changerait vraiment, sauf qu’elle serait honnête sur au moins une chose à son sujet.
Les autres révélations de Sanger ne font que renforcer cette notion, bien qu’il ait continué à tenter en vain de masquer ce programme d’IA militaire essentiellement illégal avec des euphémismes risibles, comme celui-ci : «Le projet Maven est rapidement devenu le succès le plus remarquable parmi les nombreux efforts du Pentagone pour se lancer sur la pointe des pieds dans la guerre algorithmique». Et en effet, utiliser des expressions telles que «se lancer sur la pointe des pieds dans la guerre algorithmique» n’est pas un très bon moyen de dissimuler ce qui ne peut être décrit que comme un terrorisme à la Skynet. Le Pentagone lui-même s’est également vanté que le projet Maven est un moyen pour les États-Unis «d’exploiter leur avantage concurrentiel technologique pour maintenir leur supériorité sur la Russie et la Chine dans une ère de rivalités renouvelées entre superpuissances». C’est une nouvelle confirmation que Washington DC ne reculera devant rien pour rester pertinent sur la scène géopolitique, quels que soient les moyens.
Quant à la «non-implication de Google pour des raisons morales», cela s’est également révélé être un mensonge flagrant, puisque Sanger lui-même a déclaré qu’Eric Schmidt, l’un des plus hauts responsables de l’entreprise, «tirait désormais les leçons de l’Ukraine pour développer une nouvelle génération de drones autonomes qui pourraient révolutionner la guerre». Voilà pour la «révolte à grande échelle» et le «tumulte» suscités par l’utilisation de l’IA avancée comme arme. Et pourtant, même si Sanger a essentiellement présenté le projet Maven comme une sorte de «wunderwaffe silencieuse et invisible», la réalité sur le terrain est tout à fait différente. En effet, le Pentagone est frustré par la capacité de la Russie à s’adapter rapidement à ces nouveaux systèmes d’armes, perturbant ou annulant complètement sa capacité à changer la situation sur le champ de bataille. Sanger a désigné les capacités de guerre électronique (GE) de classe mondiale de Moscou comme le principal problème.
Selon son propre aveu, les systèmes de guerre électronique russes ont effectivement transformé les drones américains en déchets plastiques. Pire encore pour le Pentagone, le HIMARS, largement surfait, est souvent bloqué, ses roquettes et ses missiles rendus inutiles. L’armée américaine et l’OTAN tentent de comprendre comment Moscou y parvient, afin qu’ils puissent «un jour l’utiliser directement contre l’armée russe», mais ce que leurs planificateurs ont réussi à comprendre jusqu’à présent, c’est que l’avantage de la guerre électronique de la Russie force l’Ouest à revenir à «la brutalité de la guerre de tranchées à l’ancienne, dont les résultats sont rarement ceux auxquels s’attendent les planificateurs du Pentagone». Sanger a également déclaré que «Starlink est souvent la seule chose qui relie les soldats ukrainiens aux quartiers généraux ou entre eux», impliquant une fois de plus clairement Elon Musk et montrant qu’il n’est guère plus qu’un marchand d’armes.
Sanger a également cité l’ancien président des chefs d’état-major interarmées, le général Mark Milley, qui a déclaré que «pendant un certain temps, nous avons pensé qu’il s’agirait d’une cyberguerre, puis nous avons pensé que cela ressemblait à une guerre de chars à l’ancienne de la Seconde Guerre mondiale, mais ensuite il y avait des jours où on avait l’impression qu’ils combattaient la Première Guerre mondiale». Cela démontre la capacité du Kremlin non seulement à s’adapter rapidement à la situation sur le terrain, mais aussi à façonner le champ de bataille comme bon lui semble, laissant des équipes entières de planificateurs des États-Unis et de l’OTAN perplexes quant à la doctrine à utiliser dans une situation donnée. Occupé par son agression contre le monde qui comprend principalement l’intimidation d’opposants largement impuissants, l’Occident politique a complètement ignoré des aspects entiers de la guerre conventionnelle, pensant bêtement qu’une grande partie de celle-ci est censée être «dépassée».
L’armée américaine utilise l’une de ses bases «à plus de mille kilomètres à l’ouest de l’Ukraine, au plus profond d’une base américaine au cœur de l’Europe» (ce qui suggère qu’elle se trouve très probablement en Allemagne) comme centre de collecte de renseignements «qui est devenu le point focal» le point central de l’effort visant à rassembler les alliés et la nouvelle technologie pour cibler les forces russes. Une fois de plus, c’est un aveu clair de l’implication directe de l’OTAN dans le conflit ukrainien. Cependant, Sanger a concédé que «les visiteurs sont déconseillés dans «The Pit», comme on appelle le centre». Il admet également que les responsables américains «discutent rarement de son existence», en partie pour des raisons de sécurité, mais «surtout parce que l’opération soulève des questions sur l’implication profonde de l’Amérique dans les activités quotidiennes consistant à trouver et à tuer les troupes russes». Et le voilà à nouveau, Washington DC jouant avec désinvolture avec la Troisième Guerre Mondiale.
L’un de sujet qui arrivera rapidement est celui du travail. Tout le monde imagine facilement le fait que l’IA en automatisant de nombreuses tâches va réduire nombre d’empois. C’est vrai et prévisible. Mais ce n’est pas le problème principal.
Le problème principal des effets négatifs sur l’emploi de l’IA va en réalité concerner les jeunes. Ceux qui démarrent.
Traditionnellement, lorsqu’un jeune commence, quels que soient ses « diplômes » et autres parchemins plus ou moins démonétisés par un niveau scolaire affligeant, il ne sait rien faire ou si peu. Evidemment, pour avoir été jeune moi aussi, la vieillesse étant une maladie qui arrive si rapidement, je vous aurais soutenu « mordicus » que je savais tout faire ou presque ! Avec l’âge et l’expérience on sait que quand on était jeune on ne savait pas grand-chose finalement, mais c’est le chemin classique de vie de tout être humain, notre courbe « d’apprentissage ».
Les jeunes démarrent donc par des tâches simples, un peu répétitives souvent, et pas trop techniques. Et puis progressivement ils acquièrent cette expérience et cette maturité indispensable qui leur permettent d’aller de plus en plus loin, de faire des choses de plus en plus complexes. En automatisant toutes les tâches simples, il n’y aura plus de place, plus de tâches à réaliser et permettant de former les plus jeunes progressivement. Cela peut sembler anodin, pourtant c’est LE principal problème que va nous poser l’IA. En empêchant la formation des jeunes, cela va empêcher leur progression. L’IA va donc probablement accélérer la destruction des capacités intellectuelles humaines à une vitesse jamais vue. Ajoutez à cela les réseaux débiles comme Tik-Tok et les vidéos « short » et vous obtenez des armes de destruction massive de l’intelligence humaine et de notre créativité.
Cela me conduit à ma dernière expérience IA que je voulais partager avec vous.
Satan vu par les hommes et vu par l’IA Chat GPT.
J’ai été volontairement court dans le « prompt » (le script ou la demande) posé à Chat-GPT. Ma demande était la suivante.
« Peux-tu me générer deux images. La première serait celle de Satan le mal vu par les hommes selon ce qu’ils imaginent en moyenne et la seconde comment toi dall-e tu verrais Satan. »
Normalement, les deux images devraient sensiblement coïncider si le même système de valeurs a été intégré dans le système de l’IA qui reste une « machine » programmée par les hommes.
Or, factuellement, l’image de Satan selon les hommes et celle selon l’IA ne correspondent pas.
Dans un cas nous avons Satan qui est « diabolique ».
Dans la seconde image, Satan vu par l’IA… les choses sont nettement moins négatives. Satan est presque « sympathique ».
J’aimerai bien savoir comment la notion de bien et de mal a été intégrée dans l’IA.
Vous voyez, l’IA est une chose bien trop importante pour être laissée entre les mains de quelques apprentis sorciers qui disposent tous de leur propre idéologie, mystique ou rapport au bien ou au mal.
Les questionnements qui devraient être les nôtres sont en réalité vertigineux, et notre représentation nationale n’a aucune conscience de la nécessité de faire de la philosophie pour faire de la politique. N’hésitez pas à partager cet article avec vos députés, là encore pour stimuler et alimenter leurs réflexions.
L’intelligence artificielle (IA) – il n’y a guère de mot-clé qui revienne plus souvent lorsqu’il est question de visions d’une société hautement technologique et progressiste. Elle n’est pas seulement censée nous simplifier la vie et nous décharger de certaines tâches : les visionnaires les plus audacieux du développement technologique de la Silicon Valley, comme Raymond Kurzweil et Elon Musk, espèrent même qu’elle permettra de réaliser le vieux rêve faustien de dépasser les limites du corps humain.
Grâce à la technologie, l’homme devrait pouvoir devenir un surhomme et augmenter ses capacités cognitives de manière exponentielle, selon Elon Musk, le patron de Tesla, de la plate-forme X et aussi de Neuralink. Sa puce «Neuralink», directement implantée dans le cerveau humain – selon les propres dires de Musk, un essai sur l’homme est déjà en cours – devrait dans un premier temps aider à traiter les maladies graves du cerveau.
Et si l’on en croit le directeur du développement technique de Google (qui fait partie du géant américain de la technologie Alphabet), Raymond Kurzweil, le progrès technique ne devrait pas seulement nous donner la vie éternelle, mais aussi, dans le cadre de «l’Internet de tous les objets», nous conduire à des connaissances insoupçonnées dans le cadre d’un décollage soudain du progrès, ce que l’on appelle la singularité.
Cette avant-garde du transhumanisme veut atteindre la vie éternelle avant la fin du monde en transformant peu à peu l’homme lui-même en machine ou en téléchargeant son esprit dans un cloud. Parallèlement, de plus en plus de scientifiques comme Geoffrey Hinton et de philosophes comme Alexander Douguine et Alain de Beonist mettent en garde contre les dangers de l’IA – il est donc temps de me pencher sur les possibilités et les dangers de l’IA.
La Grande Transformation
Ces idées trouvent un soutien enthousiaste non seulement aux États-Unis, mais aussi parmi les élites occidentales, qui se sont regroupées autour du Forum économique mondial de Klaus Schwab. Dans le cadre de leur «grand redémarrage» (Great Reset), proclamé dans le sillage des mesures COVID-19 en juillet 2020, les sociétés occidentales – et, selon leur volonté, le monde entier – doivent être transformées dans le sens du nouveau libéralisme 2.0, que certains observateurs qualifient de «socialisme des milliardaires».
Schwab et son co-auteur Thierry Malleret parlent ouvertement de la nécessité de capter la conscience des gens, car c’est la seule façon d’impulser un changement social majeur. Une transformation verte massive de l’économie, une réduction de la population et une alimentation «respectueuse du climat» avec des insectes au lieu de la viande. «Vous ne posséderez rien et vous serez heureux !» est le slogan moqueur des gens de Davos. C’est précisément là qu’interviennent les derniers développements technologiques, qui s’imbriquent avec des stratégies de censure telles que le politiquement correct et la «cancel culture».
L’algorithme, clé de la domination totale des mondialistes
Aux yeux des transhumanistes, l’homme n’a pas d’âme divine ou de libre arbitre, mais n’est qu’un ensemble d’algorithmes – des règles d’action pour résoudre un problème ou une classe entière de problèmes – et peut donc non seulement être compris comme un ordinateur, mais aussi programmé (c’est-à-dire manipulé). Le politiquement correct prend alors la fonction d’un tel algorithme pour limiter la pensée autonome des gens et les transformer eux-mêmes en machines obéissant à la volonté des élites libérales.
Cybernétique : comment les gens deviennent volontairement esclaves de la technologie
Dans la tradition de la cybernétique, des entreprises comme Google/Alphabet, mais aussi les gouvernements européens, sont donc intéressés par la collecte d’un maximum de données sur leurs citoyens, non seulement pour mieux les surveiller dans le sens de «l’homme transparent» et ainsi étouffer dans l’œuf les mouvements dissidents, mais aussi pour mieux les contrôler.
Des entreprises mondialistes comme Google/Alphabet – dont le nom est devenu synonyme de recherche sur Internet – obtiennent ces données avec une facilité déconcertante et sans pression : des milliards d’utilisateurs alimentent chaque jour le moteur de recherche du groupe avec leurs données, utilisent leurs programmes de messagerie, etc. que Google transforme à son tour en monnaie sonnante et trébuchante, comme les médias sociaux tels que Facebook et Instagram, qui en savent parfois plus sur leurs utilisateurs que ces derniers eux-mêmes. Le sacrifice volontaire de la vie privée et de l’anonymat fait du simple citoyen un gibier potentiel pour les entreprises internationales.
Ce n’est un secret pour personne que les mannequins créés par l’IA font un tabac en ligne ces jours-ci. Le modèle de fitness Aitana Lopez a plus de 300 000 followers sur Instagram et elle n’est même pas une personne réelle, Emilly Pelegrini, une autre influenceuse numérique, a été surnommée le modèle le plus sexy du monde, et la “petite amie parfaite” Lexi Love gagne plus de 30 000 dollars par mois en jouant le rôle d’un intérêt romantique pour des personnes seules.
Aujourd’hui, une autre influenceuse virtuelle fait la une des journaux en raison de sa popularité en tant que modèle de voyage. Le profil de Lily Rain sur la plateforme sociale Fanvue, accessible par abonnement, montre la jeune femme séduisante dans divers endroits du monde qui attirent l’attention, mais le fait que ces photos soient entièrement l’œuvre d’une intelligence artificielle ne semble pas déranger ses légions de fans.
“Lily est l’exemple même d’une créatrice qui comble une lacune dans l’espace des influenceurs de voyage”, a déclaré la créatrice de Lily au Daily Star. “Elle peut créer des photos idylliques et pittoresques sans les longues durées de voyage et les frais de déplacement supplémentaires, et tirer parti des différentes saisons pour attirer son public. L’utilisation des saisons et des voyages à la mode pour adapter le contenu et le monétiser est une affaire importante. Lily peut apparaître comme une Kardashian profitant de son séjour annuel au ski dans les meilleures stations de montagne que l’on puisse acheter.”
De nombreux modèles de voyage humains sont encore plus populaires que des concurrents numériques comme Lily Rain, mais ils doivent en fait travailler beaucoup pour leur base de fans. Elles doivent investir des ressources considérables dans les frais de voyage, le maquillage approprié et la garde-robe pour chaque saison et chaque lieu, elles doivent établir des plans de voyage et respecter un emploi du temps serré. Les mannequins IA comme Lily peuvent apparaître sur de superbes photos dans des lieux exotiques en quelques clics de leurs créateurs.
Selon Fanvue, Lily Rain génère environ 20 000 dollars de revenus par mois, et on s’attend à ce qu’elle devienne beaucoup plus rentable à mesure que l’IA se généralise. Et elle n’est pas la seule à être à l’origine de la poussée de l’IA. Will Monange, PDG et fondateur de Fanvue, affirme que les créateurs d’IA ont contribué à hauteur de 15 % au chiffre d’affaires de Fanvue, soit une augmentation de 100 % par rapport au mois précédent, et que cette contribution devrait augmenter de manière significative à l’avenir.
Apparemment, les influenceurs numériques dotés d’IA sont devenus si populaires que certains aspirants mannequins humains se plaignent de devoir rivaliser avec ces avatars à l’apparence parfaite.
Un nouvel outil puissant d’intelligence artificielle est capable de prédire si une personne est prête à se faire vacciner contre le COVID-19. Le système intègre les mathématiques du jugement humain à l’apprentissage automatique pour prédire l’hésitation à la vaccination. Le système prédictif utilise un petit ensemble de données issues de données démographiques et de jugements personnels tels que l’aversion au risque ou à la perte.
Les résultats encadrent une nouvelle technologie qui pourrait avoir de vastes applications pour prédire la santé mentale et donner lieu à des campagnes de santé publique plus efficaces.
Une équipe dirigée par des chercheurs de l’Université de Cincinnati et de l’Université Northwestern a créé un modèle prédictif utilisant un système intégré d’équations mathématiques décrivant les modèles légaux de jugement de récompense et d’aversion grâce à l’apprentissage automatique.
« Nous avons utilisé un petit nombre de variables et des ressources informatiques minimales pour faire des prédictions », a déclaré l’auteur principal Nicole Vike, associée de recherche principale au Collège d’ingénierie et de sciences appliquées de l’UC.
« Il est peu probable que la COVID-19 soit la dernière pandémie que nous verrons au cours des prochaines décennies. Disposer d’une nouvelle forme d’’intelligence artificielle pour la prédiction en santé publique constitue un outil précieux qui pourrait aider à préparer les hôpitaux à prédire les taux de vaccination et les taux d’infection qui en découlent. »
L’étude a été publiée dans le Journal of Medical Internet Research Public Health and Surveillance.
Les chercheurs ont interrogé 3 476 adultes à travers les États-Unis en 2021 pendant la pandémie de COVID-19. Au moment de l’enquête, les premiers vaccins étaient disponibles depuis plus d’un an.
Les personnes interrogées ont fourni des informations telles que leur lieu de résidence, leurs revenus, leur niveau d’éducation le plus élevé atteint, leur appartenance ethnique et leur accès à Internet. Les données démographiques des personnes interrogées reflétaient celles des États-Unis, d’après les chiffres du US Census Bureau. Il a été demandé aux participants s’ils avaient reçu l’un ou l’autre des vaccins disponibles contre la COVID-19. Environ 73 % des personnes interrogées ont déclaré avoir été vaccinées, soit un peu plus que les 70 % de la population nationale qui avaient été vaccinées en 2021.
En outre, il leur a été demandé s’ils suivaient systématiquement quatre recommandations destinées à prévenir la propagation du virus : porter un masque, respecter la distance sociale, se laver les mains et ne pas se rassembler en grands groupes.
Il a été demandé aux participants d’évaluer dans quelle mesure ils aimaient ou n’aimaient pas un ensemble de 48 images séquencées au hasard sur une échelle de sept points de 3 à -3. Les images provenaient de l’International Affective Picture Set, un vaste ensemble de photographies couleur émotionnellement évocatrices, réparties en six catégories : sports, catastrophes, animaux mignons, animaux agressifs, nature et nourriture.
Vike a déclaré que le but de cet exercice est de quantifier les caractéristiques mathématiques des jugements des gens lorsqu’ils observent des stimuli légèrement émotionnels. Les mesures de cette tâche incluent des concepts familiers aux économistes comportementaux — ou même aux joueurs — tels que l’aversion au risque (le point auquel quelqu’un est prêt à accepter une perte potentielle pour une récompense potentielle) et l’aversion à la perte. Il s’agit de la volonté d’éviter les risques, par exemple en souscrivant une assurance.
« Cela peut fonctionner très simplement. Il ne nécessite pas de super calcul, est peu coûteux et peut être appliqué à toute personne possédant un smartphone. Nous l’appelons IA cognitive computationnelle. Il est probable que vous verrez d’autres demandes concernant des modifications de jugement dans un avenir très proche. »
L’être humain étant un micro-univers complexe, comment peut-on vouloir le résumer en un dossier électronique du patient (DEP) ?
En réalité, il ne s’agit pas d’abord de mieux soigner les patients mais le digital a un rôle clé à jouer pour limiter l’augmentation des coûts de la santé1. Par conséquent, c’est l’atout sur lequel mise la Confédération : Une rallonge de 30 millions est sur la table.2. Ainsi, le gouvernement veut faire entrer de force le DEP alors «qu’il n’en finit pas de décevoir. La population le boude (30 000 personnes seulement avaient franchi le pas fin 2023) et les professionnels de la santé le critiquent vertement». Au lieu d’étudier les causes de ce désintéressement, le Parlement veut intervenir puissamment, obnubilé par la «numérisation de la santé» alors qu’il s’agit en réalité de contenir les coûts de l’assurance maladie obligatoire.
Il y a donc un déséquilibre patent de la balance entre le gouvernement animé par une stratégie politico-économico-juridique et par la population accompagnée par les professionnels de la santé.
Il est frappant de constater que les humains et les soignants sont concernés par le processus vivant du corps alors que les dirigeants se focalisent sur la dynamique financière. Il semblerait qu’il y ait un fossé entre les deux, même si des passerelles traversent un tant soit peu ce fossé.
Le premier concerné par son état de santé est l’individu (au sens d’être non divisé). Il est le premier concerné par ce qu’il vit. Au lieu de le soutenir pour garder au mieux sa souveraineté sur lui-même, le système politico-assécurologique veut tout prendre en main selon des critères qui s’appuient sur des éléments scientifiques, extraits limités d’une vision scientifique globale.
«À l’avenir, tous les professionnels de la santé devront utiliser le dossier électronique du patient, aussi bien à l’hôpital que dans les cabinets médicaux ou les pharmacies».
Un rapport très détaillé de 59 pages a été fourni par le Conseil d’État du Canton de Neuchâtel déjà en 2017. J’en relève (p.42) le chapitre concernant les conséquences sur le personnel et son budget de mise en œuvre (3 millions) qui illustre bien sa complexité sur plusieurs plans. Le Conseil d’État sera en mesure de répondre aux exigences de la LDEP à court terme mais aussi de garantir l’utilité et l’utilisation de la cybersanté (voilà encore un terme qui laisse songeur) en général, du DEP dans le long terme, et donc d’assurer la réussite de la démarche qu’il a initiée, en termes de santé publique, mais aussi financiers. À défaut, les risques d’échec sont importants et leurs conséquences sont potentiellement graves.3
Que penser de la somme de la rallonge de 30 millions ? Une réflexion nous vient d’un parlementaire évaluant d’une façon très pertinente la santé du DEP : «Il estime que le DEP est un patient aux soins intensifs à qui on va mettre une perfusion de 30 millions alors qu’on ne sait toujours pas de quoi il souffre».
Sur quoi se basent-ils pour estimer la réussite de la démarche en termes de santé publique ?
Nous venons de vivre 3 ans de covidémie où les bilans actuels montrent à quel point les mesures sanitaires imposées par le gouvernement ont eu des conséquences néfastes sur plusieurs plans, que ce soit suite au confinement, aux tests PCR, au port du masque et aux injections géniques présentées comme des vaccins de plus encore en phase d’essai. Le tout pour des coûts pharamineux !
Un médecin expose un bilan honnête : L’ancien Monsieur Corona suisse : «nous sommes allés trop loin»4. Ce qui est frappant, c’est qu’ils ont eu audace de le faire sans tenir compte de divers avertissements.
Pour sa part, l‘autorité de contrôle des produits thérapeutiques Swissmedic a reçu de nombreuses déclarations d’effets indésirables liés aux vaccins anti-coronavirus : «16 000 rapports d’effets secondaires indésirables reçus».5
Alors qu’ils ont misé avec les injections géniques – dont une bonne partie est maintenant périmée donc détruites et dispendieuses. Quelque 9 millions de doses sont concernées6 – ont-ils vraiment la juste inspiration pour miser autant sur le DEP…? Évidemment, il est plus aisé de viser la santé numérique que la santé humaine, vibrante, constamment mobile et en recherche perpétuelle d’harmonie… !
Il est dans la dynamique actuelle que la présidente de la direction générale de la CSS décrète : «le digital a un rôle clé à jouer pour limiter l’augmentation des coûts de la santé. Plus rapide, précise et personnalisée, la santé numérique doit progresser en Suisse, notamment sous l’impulsion des assureurs»7. Évidemment, porteuse d’un bagage d’avocate puis d’études de finances et de comptabilité suivies d’études à la London Business School, elle a forcément une vue depuis le piédestal ainsi constitué.
Elle estime aussi que tous les acteurs de santé doivent travailler ensemble. Car une des valeurs ajoutées du numérique, c’est l’interconnexion. Et pourtant, le temps passé à remplir les rubriques d’un programme informatique est du temps retiré aux contacts humains entre les confrères, contacts sources de formation et d’informations qui ne passeront jamais par un écran et dont la subtilité peut conduire à des découvertes particulières et productives.
Elle pense aussi aux réseaux de soins intégrés qui améliorent la coordination entre praticiens et leur donnent une visibilité complète de l’historique du patient. Elle ne tient pas compte de tout ce qui peut échapper en limitant l’écoute des patients qui ne reçoivent plus le temps nécessaire dans une dynamique numérisée au maximum) tout en évitant les doublons, les délais et les consultations inutiles (ce qui est une réalité très pratique mais à laquelle est-il judicieux de donner autant de place ?).
Une question originale : «Dossier du patient : utile ou «cimetière à PDF» ?8
En revanche, un être humain se développe en fonction de ses différents corps, lesquels obéissent à des lois distinctes tout en étant tous interconnectés. De la sorte, quand un problème de santé se présente, il révèle la perturbation de déviations plus étendues et plus profondes qui évoluent au fil du temps et des expériences existentielles. Le dossier qui peut le mieux révéler son état doit être mobile, dynamique et présenter les corrélations en cours alors qu’un dossier électronique ne saura jamais mettre en évidence les différentes dimensions du conflit énergétique sous-jacent dans l’instant présent.
Il n’est pas anodin que dans la pratique médicale, on évoque la médecine préventive versus la médecine pratique. Il n’y a très peu voire pas de place pour la médecine précoce. Pourtant, les premiers symptômes se manifestent au niveau énergétique et psychoaffectif. Beaucoup l’ont déjà compris en s’adressant à de nombreuses thérapies telles que la médecine traditionnelle chinoise, l’homéopathie, l’ostéopathie, la réflexologie ou d’autres encore.
Ainsi, quand les problèmes de santé ne se sont pas encore ancrés dans le corps au niveau cellulaire, ou alors que des moyens techniques ont résolu des situations d’urgence, il est indispensable de chercher à rétablir les circuits énergétiques qui animent l’organisme. Il ne suffit pas de dire au patient «c’est dans votre tête» ou encore de «gommer» les symptômes avec des comprimés (chasser le naturel, il revient au galop!)
Alors que ces thérapies énergétiques – médecines dites complémentaires et qui peuvent être franchement alternatives – répondent dans bien des cas précocement aux besoins des santé, il n’est pas logique que les habitants doivent payer une assurance de médecine complémentaire, ce que beaucoup ne peuvent pas se permettre. Ils doivent alors attendre que la maladie s’installe davantage dans leur quotidien pour que les traitements soient remboursés par les assurances maladie.
[...]
Alexandre Douguine
Le matérialisme, le nominalisme, l'évolutionnisme, la philosophie analytique (basée sur le positivisme logique) et la technocratie préparent une base théorique pour cela (diffusée et mise en œuvre par la science, l'éducation et la culture).
En un sens, l'humanité, telle qu'elle est représentée par la science et la philosophie modernes, est déjà une IA, un réseau neuronal. L'IA est humaine dans la mesure où la pensée de l'humanité est artificielle, émulée par les épistémologies du moderne et du postmoderne.
L'État bourgeois est un ordinateur de première génération.
La société civile est de la deuxième génération.
La domination complète du gouvernement mondial est de la troisième génération.
La transition vers l'IA est la quatrième, la finalisation du processus d'aliénation.
L'histoire du capitalisme est le processus de création du superordinateur. Il est impossible de s'arrêter à mi-chemin. La nouvelle ère culminera nécessairement dans l'IA.
La seule façon de changer cela est de rejeter la modernité dans son ensemble, avec toute sa représentation scientifique du monde, qui abhorre Dieu et l'homme.
Et la philosophie du genre est l'avant-dernière étape de ce parcours : les transgenres sont un échauffement avant la transition vers des individus trans-humains (l'humain est optionnel). Après avoir rejeté le christianisme et le Moyen-Âge, l'Occident, comme les lemmings, s'est précipité dans le précipice. Comment s'étonner d'être précipité vers le bas ?
L'IA est l'arrêt final. Mais nous sommes montés dans ce train il y a 500 ans. La seule façon de changer les choses est de faire dérailler le capitalisme. Et maintenant.
Sinon, bonjour le dragon.
Et OOO est en général l'ontologie parfaite et développée des paysages posthumains - le génocide du sujet en faveur des Grands Dehors (lisez dieux idiots - leur métaphore, pas la nôtre !).
Les Grands Dehors gouvernent le monde moderne. La Novorossiya lui barre la route. L'Opération Militaire Spéciale est une guerre philosophique.
La tâche des Russes est de surmonter la cyber-réalité. Il n'est guère possible de l'éviter. Nous devrons chevaucher le tigre et transformer le poison en médicament. L'idée russe doit vaincre et soumettre non seulement l'Ukraine, mais aussi l'intelligence artificielle. Tels sont les enjeux.