Dernière modification par Nathan - 55 ans il y a
Gemini by Google

Echelle de JacobGemini, le moteur ultra-Woke de Google

Echelle de Jacob - 27 fév 2024

La semaine dernière, alors qu’OpenAI faisait frémir le monde de l’intelligence artificielle avec Sora, le premier moteur permettant de créer des petites vidéos réalistes à partir d’une simple description textuelle, Alphabet (la maison-mère de Google) lançait en fanfare la nouvelle version de son agent conversationnel, réponse de l’entreprise mondiale à ChatGPT d’OpenAI, elle-même détenue par Microsoft. Le moins qu’on puisse dire est qu’on n’a pas été déçu.

   

Comme à son habitude pour bien lancer son produit, Google en a subtilement changé le nom pour passer de Bard à Gemini (comme il était passé de Google Apps à GSuite puis Workspace, ou de Google Local à Places à MyBusiness à Business Profile, ou Google Hangouts à Chat, etc.) tout en lui donnant de nouvelles fonctionnalités.

Il faut le reconnaître, le moteur d’intelligence artificiel de Google est puissant.

Les prochaines semaines permettront sans doute d’explorer en détail ce qu’il a sous le capot, mais on sait déjà par exemple que Gemini dispose à présent d’une fenêtre contextuelle d’un million de jetons. Cette fenêtre contextuelle, c’est ce qui permet à l’agent de conserver la mémoire des échanges d’une question à l’autre. Par comparaison, ChatGPT 3.5 (la version gratuite) dispose d’une fenêtre d’environ 16.000 jetons et la version 4 autorise jusqu’à 128.000 jetons et pour donner un ordre de grandeur, ce dernier nombre représente l’équivalent d’un livre de poche à peu près, là où Gemini peut se rappeler d’une œuvre complète de 1.500 pages…

Ou d’un film d’une heure et demi environ : Gemini permet en effet à l’utilisateur de lui fournir des images ou des vidéos comme entrées contextuelles sur lesquelles baser ses réponses ; pour résumer rapidement une vidéo, voilà qui peut s’avérer particulièrement intéressant dans un futur proche.

Mais à côté de ces progrès techniques indéniables et d’une puissance vraiment intéressante, Gemini s’est surtout illustré par l’identification très rapide d’un problème assez gênant pour la firme de Moutain View en Californie : voulant sans doute rattraper son retard en matière de production d’image à partir d’une description textuelle – OpenAI permet en effet à ses clients de produire des images depuis plusieurs mois directement depuis ChatGPT – Gemini a été doté de cette possibilité mais à l’usage, il est rapidement apparu que certaines demandes n’étaient tout simplement pas acceptés ou que l’écart entre les requêtes et les résultats était si fort que, très rapidement, les réseaux sociaux se sont emparés de l’affaire.

Pas de doute : lorsqu’on demande à Gemini de produire des images à teneur historique ou représentant certaines ethnies, ce dernier interprète la demande de façon un peu trop spécifique.

Ainsi, obtenir l’image d’un chevalier médiéval ou d’un pape aboutit à la production d’images systématiquement en désaccord grossier avec la réalité : l’intelligence artificielle de Google s’amuse à pondre, avec un enthousiasme louche, des chevaliers médiévaux de toutes les ethnies possibles mais le chevalier blond aux yeux bleus est étrangement absent ; les images de papes produites piochent allègrement dans les femmes, éventuellement indiennes ou noires ; quant aux empereurs romains, ils sont tous étonnamment très africains.

Le pompon est atteint lorsque confronté à la demande de représenter des soldats allemands en 1943, Gemini a cru bon de produire une série d’image résolument inclusive comprenant donc des fiers représentants noirs de la Wehrmacht… Qui doutait encore que la réalité historique pourrait se plier aussi facilement aux contraintes les plus modernes ?

accéder à l'article

Dernière modification par Nathan - 55 ans il y a
la tentation de l'IA

Sott : Sign of The TimesIA : la tentation transhumaniste

Sott : Sign of The Times - 26 fév 2024

Ce que l'on appelle l'intelligence artificielle (IA) commence à peine à envahir notre monde du travail, mais aussi tous les autres domaines de notre vie quotidienne.

   

Nous ne parlons encore que de programmes vocaux de plus en plus sophistiqués - c'est-à-dire de robots textuels comme ChatGPT ou "Alexa" d'Amazon - et de générateurs d'images comme Image Creator, Midjourney ou Leonardo. Mais comme le développement est exponentiel à l'ère du numérique, l'IA deviendra de plus en plus puissante dans un avenir proche, effectuera de plus en plus de tâches jusqu'ici réservées à l'intelligence humaine et se rapprochera encore plus de nous, au sens littéral du terme. L'assistant vocal d'Amazon, Alexa, et une foule d'appareils ménagers "intelligents" nous indiquent la direction à prendre. Nous nous entourons d'un cocon de plus en plus dense de vampires de données numériques qui ne font rien de moins que de s'emparer de notre identité.

Il ne faut pas oublier que tout cela n'a rien à voir avec "l'intelligence", c'est-à-dire la compréhension de relations complexes. En réalité, il ne s'agit que de processus complexes de calcul (algorithmes) qui reposent sur la probabilité avec laquelle, par exemple, un mot donné est suivi d'un autre dans le flux de texte, ou avec laquelle certains éléments structurels sont associés les uns aux autres dans la structure des graphiques ou des images. L'IA "apprend" ces probabilités mathématiques au fur et à mesure de son optimisation, pour finalement fournir, après un nombre infini d'heures de travail, des résultats qui doivent se rapprocher le plus possible des opérations du cerveau humain, c'est-à-dire de la pensée. On peut s'attendre à des améliorations drastiques des performances dans ce domaine à l'avenir.

Un autre aspect important, que l'on perd facilement de vue, est que tous les petits "bots", qu'il s'agisse de programmes de texte, de dialogue ou de graphisme, font partie de l'agenda transhumaniste. En fin de compte, il s'agit de rendre le cerveau humain "lisible" pour les ordinateurs et de pouvoir transférer des données dans les deux sens - du cerveau à l'ordinateur (ou aux supports de stockage), mais aussi de l'ordinateur au cerveau, par exemple au moyen d'une puce implantée. Des fichiers d'images et de textes calculés à grands frais pourraient un jour devenir le support intermédiaire décisif. L'objectif final est - outre la possibilité de contrôle total de l'humanité - la possibilité de mémoriser la conscience humaine, afin de la rendre indépendante de son existence physique et finalement immortelle. Hollywood en parle depuis de nombreuses années, et des intervenants tels que le journaliste israélien Yuval Harari ("Homo Deus", 2017), qui est également un invité apprécié du Forum économique mondial de Klaus Schwab, font des déclarations sans équivoque à ce sujet.

L'un des chercheurs les plus en vue dans la recherche de l'"interface homme-machine" est d'ailleurs Elon Musk. Depuis 2017 déjà, il fait étudier, sous l'égide d'une société spécialement créée à cet effet, Neuralink, les possibilités de relier le cerveau humain aux ordinateurs. Il s'agit d'une "interface directe avec le cortex cérébral". En 2020, en pleine année Corona, Musk a présenté au public le prototype de sa puce cérébrale : huit millimètres d'épaisseur, 23 millimètres de diamètre.

accéder à l'article

Dernière modification par Nathan - 55 ans il y a
nvidia - bourse

Le Media en 4-4-2NVIDIA gagne 277 milliards de dollars en une journée à Wall Street

Le Media en 4-4-2 - 24 fév 2024

Dans l'arène effervescente de la bourse, Nvidia s'impose comme la star du moment, propulsée par la fièvre des semi-conducteurs et les enjeux de l'intelligence artificielle.

   

Ah, la folie des grandeurs à la bourse ! Nvidia, le maître incontesté des puces d’intelligence artificielle, s’est lancé dans une course effrénée vers des sommets financiers jusqu’alors inexplorés. Hier, la frénésie a atteint son paroxysme alors que les cours ont littéralement explosé, propulsant Nvidia dans une sphère stratosphérique.

L’épopée de Nvidia, c’est celle d’un conquérant moderne, chevauchant les vagues tumultueuses de l’intelligence artificielle. Dans cette ruée vers l’or 2.0 Nvidia se taille la part du lion dans ce marché bouillonnant.

Les chiffres parlent d’eux-mêmes : en à peine un an et demi, la valeur de Nvidia a été multipliée par six, hissant l’entreprise au pinacle de la bourse mondiale, devant même des géants comme Google et Amazon. Hier, l’ascension a atteint des hauteurs vertigineuses, avec une augmentation de la valorisation de l’ordre de 277 milliards de dollars en une seule journée. Un tour de force sans précédent qui a relégué au rang d’anecdote le précédent record établi par Meta quelques semaines auparavant.

Scott Rubner de la Goldman Sachs ne mâche pas ses mots en qualifiant Nvidia de « l’action la plus importante du monde ». Avec une capitalisation de près de 2 000 milliards de dollars, Nvidia se positionne désormais comme la troisième plus grande entreprise au monde, sur le point de défier le trône d’Apple, géant aux 2 850 milliards de dollars de capitalisation.

Dans cette course effrénée vers les sommets de la bourse, Nvidia surpasse toutes les attentes, offrant un spectacle captivant aux investisseurs du monde entier. Reste à voir si ce roi de l’IA parviendra à détrôner le titan Apple dans un futur proche. Le spectacle ne fait que commencer !

accéder à l'article

Dernière modification par Nathan - 55 ans il y a
Deepfakes sur Youtube

Réseau InternationalYouTube noyé de DeepFakes frauduleux

Réseau International - 04 fév 2024

La prolifération alarmante des deepfakes frauduleux sur YouTube représente une menace croissante pour les utilisateurs.

   

Dans l’immense univers du web, une nouvelle forme de menace numérique se manifeste, celle des DeepFakes. J’ai eu l’occasion d’en discuter dans ma chronique cyber sur les antennes de M6 et RTL dans l’émission de Julien Courbet «Ça peut vous arriver». Ces vidéos trompeuses, utilisant l’image et la voix de célébrités, ont fait une apparition remarquée aux États-Unis, ciblant principalement les utilisateurs des programmes d’assurance médicale Medicare et Medicaid.

Les journalistes du média américain 404 Media ont éclairé cette réalité préoccupante dans un article détaillé. Ils ont révélé une playlist de 1600 vidéos deepfake sur YouTube, totalisant plus de 195 millions de visionnages. Un vrai trésor pour les pirates. Ces vidéos détournent l’image de personnalités comme Taylor Swift, Steve Harvey, Ice Cube, Andrew Tate, Oprah Winfrey, et d’autres, tel que MrBeast, leader des vidéos sur YouTube. Certains DeepFakes utilisent des voix générées par intelligence artificielle pour renforcer l’illusion comme j’ai pu vous le montrer dans les deepfakes utilisées dans des sextorsions.

Ces deepfakes promettent faussement divers avantages liés aux programmes Medicare et Medicaid, incitant les victimes à divulguer leurs informations bancaires ou à réaliser des transferts financiers. On note l’inefficacité apparente de YouTube, propriété de Google, à détecter et bloquer ces contenus générés par l’IA, malgré l’indignation des utilisateurs et des célébrités concernées.

Il a été également rapporté que des escroqueries similaires, utilisant les voix de Cardi B, Tom Hanks, Elon Musk, Rishi Sunak, et même Joe Biden, ont été identifiées sur d’autres plateformes telles que Facebook, TikTok et Instagram.

Un exemple frappant est une publicité deepfake de Taylor Swift, vue plus de 300 000 fois, promettant des aides financières illusoires dans le cadre de prétendus «forfaits vacances» offerts par l’État. D’autres clones IA de célébrités comme Joe Rogan, Andrew Tate, et Oprah Winfrey, ont également été utilisés dans ces campagnes trompeuses.

Les vidéos deepfake utilisent souvent des extraits réels de célébrités suivis de messages frauduleux, créant ainsi une confusion chez les spectateurs. Ces publicités redirigent vers des sites proposant de fausses aides gouvernementales, une arnaque déjà signalée par le ministère de la Santé et des Services sociaux des États-Unis.

Malgré la facilité de repérer ces escroqueries, comme l’a démontré un étudiant ayant identifié plus de 16 000 annonces frauduleuses, YouTube et Google semblent peu réactifs, continuant à générer des revenus publicitaires de ces entreprises douteuses. Ce laxisme soulève des inquiétudes quant à la capacité et la volonté de Google de protéger ses utilisateurs.

Cette situation met en lumière un aspect sombre de l’intelligence artificielle générative : sa capacité à produire en masse des contenus de mauvaise qualité et trompeurs. Alors que l’IA a le potentiel de révolutionner de nombreux secteurs, son utilisation malveillante dans ces escroqueries souligne la nécessité d’une vigilance accrue et d’une régulation efficace pour protéger les utilisateurs et maintenir l’intégrité des plateformes en ligne.

Il est également essentiel que les utilisateurs cessent de croire naïvement à tout ce qu’ils voient en ligne, 7 jours sur 7, 365 jours par an.

accéder à l'article

Dernière modification par Nathan - 55 ans il y a
surveillance des enfants par l'IA

The DefenderNormaliser la surveillance dès le plus jeune âge

The Defender - 03 jan 2024

Normaliser la surveillance dès le plus jeune âge : De plus en plus d’écoles utilisent la reconnaissance faciale et les technologies d’IA pour surveiller les enfants.

   

Les parents et les élèves sont de plus en plus préoccupés par l’utilisation des technologies d’intelligence artificielle (IA) en classe, en particulier la technologie de reconnaissance faciale, selon une enquête du Center for Democracy and Technology (Centre pour la démocratie et la technologie, CDT ).

Le rapport du CDT, publié le 12 décembre, révèle que plus de la moitié des parents et des élèves interrogés s’inquiètent de l’utilisation de la reconnaissance faciale et d’autres technologies d’intelligence artificielle, y compris les systèmes de localisation, dans les écoles.

Les enseignants, qui ont également été interrogés, ont montré un degré d’acceptation plus élevé des technologies.

Selon le rapport, un nombre croissant d’écoles ont mis en place de tels outils.

Les partisans de ces technologies affirment qu’elles peuvent contribuer à protéger les environnements scolaires contre les menaces violentes, telles que les tireurs dans les écoles.

Les défenseurs de la vie privée soutiennent que les technologies qui présentent un risque pour la vie privée et les données personnelles des élèves n’ont pas prouvé qu’elles renforçaient la sécurité dans les écoles..

Un fossé profond entre les écoles, les parents et les élèves

Selon le CDT, “des outils de sécurité expérimentaux et potentiellement dangereux sont utilisés sans tenir compte des préoccupations des élèves et des parents”, y compris des technologies “que nous considérions auparavant comme trop extravagantes”.

Il s’agit notamment de l’analyse prédictive, de la surveillance à distance, de la reconnaissance faciale, du partage des données des forces de l’ordre, des systèmes de détection d’armes et de la géolocalisation des étudiants.

Poussées par [l’industrie de] l’IA, ces technologies “sont déployées dans les écoles pour répondre aux fusillades de masse, à la crise de la santé mentale des jeunes et à d’autres menaces permanentes pour la sécurité du personnel et des élèves”, a déclaré le CDT – une tendance “alarmante” selon laquelle les écoles poursuivent le déploiement de ces technologies en dépit des “niveaux élevés d’inquiétude” des parents et des élèves.

Ces “niveaux élevés d’inquiétude” étaient évidents dans les résultats de l’enquête:

58 % des parents et 55 % des élèves (et 33 % des enseignants) sont préoccupés par l’utilisation de caméras de reconnaissance faciale pour vérifier qui devrait être autorisé à entrer dans un bâtiment scolaire ou qui est autorisé à s’y trouver.
71 % des parents et 74 % des élèves (et 36 % des enseignants) se sont dits préoccupés par l’utilisation de ces technologies pour localiser physiquement les élèves.
60 % des parents et 58 % des élèves (et 31 % des enseignants) s’inquiètent de l’utilisation de caméras d’IA “pour remarquer des mouvements physiques inhabituels ou irréguliers”.
55% des parents et 45% des élèves (et 27% des enseignants) ont exprimé leur inquiétude quant à l’utilisation de ces technologies pour détecter les coups de feu dans l’enceinte de l’école.
69 % des élèves et des parents (et 36 % des enseignants) sont préoccupés par le fait que les données relatives aux élèves sont analysées afin de prédire quels élèves sont les plus susceptibles de commettre un crime, un acte violent ou un acte d’automutilation.
66 % des parents et 65 % des élèves (et 38 % des enseignants) ont exprimé leur inquiétude quant à la possibilité que les informations scolaires des élèves, telles que leurs notes et leur assiduité, soient communiquées aux forces de l’ordre.
68 % des parents et 71 % des élèves (et 37 % des enseignants) s’inquiètent de l’utilisation de ces technologies pour surveiller les comptes de médias sociaux des élèves.

Ces résultats montrent “un profond décalage entre les priorités des écoles, des parents et des élèves en ce qui concerne les décisions d’achat d’edtech [educational data and technology] “, écrit le CDT.

Les écoles utilisent les fonds de récupération COVID pour acheter des technologies de surveillance

accéder à l'article

Dernière modification par Nathan - 55 ans il y a
bombardements IA sur la Palestine

Réseau InternationalIsraël utilise la «révélation du Christ» pour bombarder les Palestiniens

Réseau International - 10 déc 2023

Alors que les médias occidentaux relatent les massacres du Hamas sur des citoyens israéliens, relativement peu d’attention a été accordée aux méthodes utilisées par les Forces de défense israéliennes (FDI) pour sélectionner des cibles à Gaza, ni au rôle que l’intelligence artificielle (AI) a joué dans leur campagne de bombardement : un programme appelé «révélation du Christ».

   

The Guardian se dit «inquiet concernant un système basé sur les données qui augmente considérablement le nombre de cibles de frappes dans le territoire palestinien» : l ‘intelligence artificielle (IA). L’armée israélienne n’a pas caché l’intensité de ses bombardements sur la bande de Gaza. Au début de l’offensive, le chef de l’armée de l’air parlait de frappes aériennes incessantes, 24 heures sur 24 qui ne frappaient que des cibles militaires. Mais, il a ajouté : «Nous ne sommes pas chirurgicaux», continue le média britannique.

Cette approche ciblée des bombardements avec l’AI suscite des inquiétudes. «L’approche ciblée de Tsahal dans une guerre contre le Hamas, qui, selon le ministère de la Santé de Gaza – dirigé par le Hamas – a jusqu’à présent tué plus de 15 000 personnes dans le territoire, suscite de plus en plus d’inquiétudes», souligne The Guardian. C’est qu’après la guerre de 11 jours à Gaza en mai 2021, les responsables ont déclaré qu’Israël avait mené sa «première guerre avec l’AI» en utilisant l’apprentissage automatique et l’informatique avancée.

La dernière guerre entre Israël et le Hamas a fourni une opportunité sans précédent à Tsahal d’utiliser de tels outils sur un théâtre d’opérations beaucoup plus large et, en particulier, de déployer une plateforme de création de cibles via AI appelée «révélation du Christ» (Gospel), qui a considérablement accéléré les attaques mortelles au point où cette technique est comparée à «une usine à bombardements».

L’emploi de Tsahal de l’AI fait poser des questions sur cette utilisation aussi dans d’autres armées. «L’Unité de renseignement militaire israélien est facilitée par l’AI qui joue un rôle important dans la réponse israélienne au Hamas dans le sud d’Israël depuis 7 octobre», martèle The Guardian et «cet emploi de l’AI pour bombarder s’inscrit dans un contexte d’inquiétudes croissantes concernant les risques posés aux civils alors que les armées avancées du monde entier étendent l’utilisation de systèmes automatisés complexes et opaques sur le champ de bataille».

L’unité la «révélation du Christ» bombarde peu importe l’endroit

accéder à l'article

Dernière modification par Nathan - 55 ans il y a
niveau math en baisse

InsolentiaeEffondrement du niveau de math des adolescents français

Insolentiae - 07 déc 2023

Il n’y a aucune économie développée, saine, et dynamique sans une sécurité assurée à tous et sans une éducation massive de la population.

   

Imaginer un seul instant que des imbéciles incultes vont devenir plus intelligents avec l’intelligence artificielle alors qu’ils n’auront pas développé leur intelligence naturelle est une énorme erreur.

Wikipédia n’a pas rendu plus cultivés les gens, alors que la culture n’a jamais été aussi accessible de même que toutes les formes de connaissances.

Pire.

Croyant que tout est disponible on en perd l’utilité d’apprendre et de retenir puisque « YAKA » regarder sur Internet.

Sauf, que l’on ne peut regarder que ce dont on a connaissance le reste étant de la chance !

Si vous vous penchez un peu sur l’IA ou le fonctionnement de ChatGPT, vous vous rendrez compte très rapidement que l’IA va changer le monde exactement comme Internet a changé le monde.

La culture et les connaissances des masses n’y ont pas gagné ! Loin de là même.

Jamais le niveau n’autant décroché que depuis que nous avons tous les outils numériques.

Les outils numériques sont une immense fabrique à crétins et notre effondrement n’en fini pas.

accéder à l'article

Dernière modification par Nathan - 55 ans il y a
Captcha révolu

Aube DigitaleIA : prouvez que vous êtes un humain

Aube Digitale - 21 août 2023

L’ère des captcha est officiellement révolue. Les IA sont désormais meilleures que les humains pour résoudre les tests de type « prouvez que vous êtes un humain »

   

Des chercheurs ont découvert que les robots sont étonnamment doués pour remplir les CAPTCHA (Completely Automated Public Turing test to tell Computers and Humans Apart), ces petits puzzles ennuyeux conçus – ironiquement – pour vérifier que vous êtes bien un être humain.

En fait, comme l’a découvert l’équipe de Gene Tsudik, de l’université de Californie à Irvine, les robots sont bien meilleurs et plus rapides que nous pour résoudre ces tests, signe inquiétant que cette technologie déjà vieillissante est sur le point de disparaître.

Comme l’indique un article qui n’a pas encore été examiné par des pairs, les chercheurs ont constaté qu’en dépit de l’évolution des CAPTCHA en termes de sophistication et de diversité au cours des deux dernières décennies, les techniques permettant de contourner les CAPTCHA se sont elles aussi considérablement améliorées.

« Si rien n’est fait, les robots peuvent réaliser ces actions néfastes à grande échelle », peut-on lire dans l’article.

« Nous savons avec certitude que [les tests] sont très mal aimés. Nous n’avons pas eu besoin de faire une étude pour arriver à cette conclusion », a déclaré Tsudik au New Scientist. « Mais les gens ne savent pas si cet effort, cet effort mondial colossal qui est investi dans la résolution des CAPTCHA chaque jour, chaque année, chaque mois, si cet effort en vaut vraiment la peine ».

accéder à l'article

Dernière modification par Nathan - 55 ans il y a
Worldcoin

Nouveau MondeWORLDCOIN : L’IA exige la preuve que vous êtes humain

Nouveau Monde - 07 août 2023

Ce n’est pas l’IA qui doit prouver qu’elle n’est pas humaine. Ce sont les humains qui doivent prouver qu’ils ne sont pas des IA.

   

Plus nous devons prouver notre identité, plus l’IA trouvera des moyens de la falsifier. Plus nous donnons d’informations à l’IA, plus ces informations peuvent être utilisées contre nous.

Par exemple, Amazon utilise la surveillance pour comptabiliser les secondes de la pause toilette de chaque travailleur ou chronométrer chaque étape de son travail. Et en fait, les travailleurs sont formés pour le faire eux-mêmes avec leurs appareils Fitbit enregistrant leurs pas en une journée. Dans certains lieux de travail, l’IA écoute chaque conversation, répertorie chaque mot, qui l’a dit et comment, puis note chaque agent.

« Dans le travail à bas salaire, nous constatons que beaucoup plus de décisions prises par un cadre intermédiaire sont sous-traitées à un algorithme », déclare Aiha Nguyen de l’organisme de recherche Data & Society.

De plus en plus d’entreprises collectent des données pour augmenter la production et former des machines pour imiter les humains. Aux États-Unis, des caméras ont été installées au-dessus de la tête de chaque travailleur dans les chaînes de montage lors de l’assemblage de pièces automobiles ou de composants électroniques.

Le résultat est que les humains sont tenus de se comporter davantage comme des robots, aucune spontanéité de pensée ou d’action, aucune excuse pour les erreurs, tandis que les machines apprennent à se comporter davantage comme des humains.

« La plupart des gens dans le monde ne sont même pas au courant des protocoles de preuve de personnalité, et si vous leur dites de tenir un code QR et de scanner leurs yeux pour 30 $, ils le feront. »

Vitalik Buterin

accéder à l'article

Dernière modification par Nathan - 55 ans il y a
Les voitures autonomes sont des caméras de surveillance sur roues

Anguille sous rocheLes voitures autonomes sont des caméras de surveillance sur roues

Anguille sous roche - 10 juil 2023

Les voitures autonomes sont des caméras de surveillance sur roues d’après le technologue Bruce Schneier

   

Bruce Schneier est technologue de l’intérêt public, travaillant à l’intersection de la sécurité, de la technologie et des personnes.

Selon lui, la police utilise déjà les images des voitures autonomes comme preuves vidéo. Voici le recueil de sa publication.

Alors que les caméras de sécurité sont monnaie courante dans les villes américaines, les voitures autonomes représentent une nouvelle possibilité d’accès pour les forces de l’ordre et une nouvelle méthode d’empiètement sur la vie privée, affirment des défenseurs des droits de l’homme. En sillonnant la ville sur leurs itinéraires, les voitures autonomes captent un plus grand nombre d’images. Et il est plus facile pour les forces de l’ordre de s’adresser à une entreprise disposant d’un vaste répertoire de vidéos et d’une équipe d’intervention spécialisée que de contacter toutes les entreprises d’un quartier dotées de systèmes de sécurité.

« Nous savons depuis longtemps qu’il s’agit essentiellement de caméras de surveillance sur roues »

Chris Gilliard

accéder à l'article

Dernière modification par Nathan - 55 ans il y a
Google - facial

Aube DigitaleGoogle : Reconnaissance des gens sans voir le visage

Aube Digitale - 15 juin 2023

Google développe une technologie permettant de détecter les personnes sur les photos sans voir leur visage. Les personnes peuvent désormais être détectées par d’autres moyens.

   

Google a mis au point une technologie capable de suggérer l’identité d’une personne même lorsque celle-ci regarde ailleurs et que son visage n’est pas entièrement visible.

Cette technologie est introduite dans l’application Google Photos, mais ses implications sont considérables.

Le nouveau système peut suggérer le nom d’une personne même si l’on ne voit que l’arrière de sa tête sur la photo.

Google Photos utilise la reconnaissance faciale pour suggérer le nom des personnes sur les photos. La précision n’est pas toujours au rendez-vous, mais selon Android Authority, la nouvelle fonctionnalité permet d’identifier avec une précision de 80 à 85 % les personnes qui regardent ailleurs sur une photo.

Le système peut utiliser d’autres signaux que l’apparence de la tête d’une personne, comme les similitudes avec d’autres photos, les vêtements et les métadonnées.

accéder à l'article

Dernière modification par Nathan - 55 ans il y a
Fisc IA

Presse CitronTaxes foncières : le fisc utilise l’IA pour traquer les vérandas et abris de jardins

Presse Citron - 01 mai 2023

Le fisc français prévoit d’étendre son outil d’intelligence artificielle permettant de détecter les piscines non déclarées aux vérandas et abris de jardins.

   

Depuis octobre 2022, le fisc français utilise un logiciel d’intelligence artificielle (IA) pour détecter les piscines non déclarées dans neuf départements. Ce dispositif, qui a permis de récolter environ 10 millions d’euros, va être étendu à l’ensemble du territoire d’ici le printemps 2023. Mais le fisc ne compte pas s’arrêter là : il envisage aussi de traquer les vérandas, les pergolas, les carports et autres abris de jardin qui ne sont pas inscrits au cadastre.

Le logiciel, baptisé “Foncier innovant”, a été conçu par Google et développé par Capgemini pour le compte de la Direction générale des Finances publiques (DGFIP). Il se base sur des images satellitaires qu’il compare aux déclarations des contribuables. Grâce à l’IA, il peut identifier les constructions qui augmentent la valeur locative d’un bien et qui sont donc imposables.

“Nous visons particulièrement les extensions de maison, comme les vérandas par exemple”, a confié Antoine Magnant, le directeur général adjoint de la DGFIP, au Parisien. “Mais nous devons être sûrs que le logiciel pourra trouver des bâtiments avec de grosses emprises au sol et pas la niche du chien ou la cabane des enfants”, a-t-il précisé.

En effet, le logiciel n’est pas encore parfait et peut commettre des erreurs, comme confondre une piscine hors-sol non taxable avec une piscine creusée imposable. C’est pourquoi le fisc doit vérifier manuellement les anomalies détectées par l’IA avant de procéder à des révisions de taxes foncières ou à des redressements fiscaux.

accéder à l'article