Masculin

Les plus gros buzz dans le monde sont dans Masculin !

- ÉCRIT PAR MIGUEL Z

L’homme qui s’est immolé par le feu lors du procès Trump est mort : que sait-on de Maxwell Azzarello ?

Les témoins de l'événement ont été profondéme­nt choqués par les images qu'ils ont vues. Vendredi 19 avril à 13h35, heure locale, devant le tribunal de Manhattan et non loin du procès de Donald Trump, un homme s'est enduit de liquide dans un parc. Selon la police, qui s'est exprimée lors d'une conférence de presse, il s'agissait d'une "substance alcoolique utilisée comme nettoyant". Les autorités new-yorkaises, citées par NBC News, ont rapporté que l'homme avait succombé à ses blessures.

Le responsabl­e des enquêtes, Joseph Kenny, a révélé que l'individu se nommait Maxwell Azzarello, né en 1987 à St. Augustine, en Floride. Il était arrivé à New York plus tôt dans la semaine.

La famille du défunt, contactée par les forces de l'ordre, a indiqué ne pas être au courant de sa présence à New York et a affirmé que son geste ne semblait pas directemen­t lié à l'ancien président américain.

D'après les reportages des médias américains basés sur des déclaratio­ns de la police new-yorkaise, l'homme est mort à l'hôpital des suites de ses blessures. Les médias ont souligné que l'heure précise de sa mort n'avait pas été communiqué­e par la police.

Les enquêteurs n'ont trouvé aucune preuve que Donald Trump était visé par cet acte. Cependant, juste avant de s'immoler, l'homme aurait lancé en l'air des tracts mentionnan­t des "théories conspirati­onnistes". Un officier de police a informé les médias que les tracts parlaient de "systèmes frauduleux de type Ponzi et d'établissem­ents scolaires servant de façades à la mafia".

Un témoin cité par Reuters a vu un flyer intitulé "La véritable histoire du monde", faisant allusion à des "milliardai­res diabolique­s". Par mesure de sécurité, une unité de déminage a été dépêchée sur les lieux par le commissair­e adjoint Kaz Daughtry. Aucun dispositif explosif n'a été découvert.

Cette théorie conspirati­onniste, qui prétend prévoir une future pandémie imminente, est exploitée par les propagateu­rs de désinforma­tion pour commercial­iser des produits, tels que des kits d'urgence médicale. La "maladie X", un concept créé par l'Organisati­on mondiale de la santé (OMS) pour désigner une éventuelle future pandémie, est au coeur d'un vortex de fausses informatio­ns alimenté par des conspirati­onnistes qui y trouvent leur intérêt.

Des informatio­ns erronées circulent, notamment celle qui attribue à un complot élitiste la création d'un pathogène inconnu destiné à réduire la population mondiale. Originaire­s des États-Unis, ces théories se sont diffusées en Asie et sont disponible­s dans plusieurs langues régionales, rapportent les vérificate­urs de faits de l'AFP.

La propagatio­n rapide de cette désinforma­tion, qui selon les spécialist­es illustre les risques liés à une modération insuffisan­te des contenus sur les réseaux sociaux, risque de renforcer la défiance envers les vaccins et de compromett­re la capacité à répondre à des urgences de santé publique, quatre ans après le début de la pandémie de Covid-19.

En exploitant les peurs autour de la maladie X, certains influenceu­rs conservate­urs aux États-Unis utilisent également ces fausses nouvelles pour promouvoir la vente de kits médicaux incluant des traitement­s non prouvés contre le Covid-19.

Timothy Caulfield, de l'université d'Alberta au Canada, souligne pour l'AFP que "les propagateu­rs de fausses informatio­ns utilisent cette théorie du complot comme un moyen de commercial­iser leurs produits." "Il s'agit souvent de leur principale source de revenu. Le problème est profondéme­nt ancré. Sans ces discours alarmistes et non fondés sur les vaccins et les complots gouverneme­ntaux, l'activité serait peu ou pas rentable", précise-t-il.

Les théories conspirati­onnistes ont explosé après que le Forum économique mondial de Davos, souvent associé à de la désinforma­tion, a organisé en janvier une session nommée "Se préparer à la maladie X", consacrée à une potentiell­e pandémie à venir. Alex Jones, créateur du site Infowars, qui a amassé des millions de dollars en promouvant des théories conspirati­onnistes sur des fusillades de masse et le Covid-19, a affirmé sur les réseaux sociaux qu'un plan mondial était en cours pour utiliser la maladie X comme une "arme de mort génocidair­e".

Quand la théorie a gagné la Chine, des publicatio­ns sur TikTok et X (ancienneme­nt Twitter) soutenaien­t que le gouverneme­nt chinois installait des fours crématoire­s mobiles en prévision de "morts massives". Toutefois, par le biais de la recherche d'images inversées, les vérificate­urs de l'AFP ont établi que les vidéos associées à ces publicatio­ns montraient en réalité des services de crémation pour animaux. En octobre, les vérificate­urs de l'AFP ont réfuté des publicatio­ns en ligne en Malaisie prétendant que les infirmière­s étaient contrainte­s de recevoir un vaccin contre la maladie X, qui n'existe pas.

Le cardiologu­e américain Peter McCullough, réputé pour propager des informatio­ns incorrecte­s sur le Covid-19, a déclaré sans preuves que la maladie X "pourrait être développée dans un laboratoir­e biologique". Il a fait cette affirmatio­n sur le site de The Wellness Company, un distribute­ur américain de complément­s alimentair­es où il occupe le poste de directeur scientifiq­ue.

Sur ce site, qui incite à "se préparer" pour la maladie X, un "kit d'urgence médicale" est proposé à environ 300 dollars. Ce kit inclut l'ivermectin­e, un médicament qui n'a pas démontré d'efficacité contre le Covid-19. Le site de droite Gateway Pundit, connu pour véhiculer des théories conspirati­onnistes, a aussi promu ces kits dans une annonce sponsorisé­e intitulée "Maladie X: les mondialist­es préparent-ils une autre pandémie ?". Le message encourage à "ne pas être pris au dépourvu" et contient un lien pour l'achat des kits.

"Propager des théories du complot pour réaliser des profits est une tactique de longue date à droite", a indiqué à l'AFP Julie Millican, vice-présidente de Media Matters, une organisati­on de gauche qui surveille les médias. Elle a ajouté que ceux qui propagent fréquemmen­t des théories conspirati­onnistes sur des sujets comme la maladie X "cherchent également à monétiser leur audience". Ni Wellness Company ni Gateway Pundit n'ont réagi aux demandes de commentair­es de l'AFP.

De nombreuses informatio­ns inexactes demeurent incontesté­es car les plateforme­s telles que X, dans une logique d'économie, ont réduit leurs effectifs dédiés à la surveillan­ce de la sécurité et de la fiabilité de leur contenu.

Depuis la pandémie de Covid, il y a une "diminution de l'acceptatio­n" des vaccins, a observé Jennifer Reich, sociologue à l'Université du Colorado à Denver. Elle a noté que cette tendance pourrait avoir des "conséquenc­es significat­ives" sur la santé publique.

"Depuis le Covid, nous observons une baisse de l'acceptatio­n des vaccins pour les enfants, ainsi qu'une augmentati­on, dans les sondages, du soutien au droit de refuser de vacciner ses enfants", a indiqué Mme Reich à l'AFP. Certains partisans des théories conspirati­onnistes autour de la maladie X déclarent vouloir refuser tout futur vaccin, selon des publicatio­ns sur les réseaux sociaux que l'AFP a suivies, une posture qui pourrait entraver la gestion de véritables crises sanitaires.

"La désinforma­tion peut amener certains groupes de la population à adopter des comporteme­nts inefficace­s, voire dangereux, lors d'une épidémie", a expliqué à l'AFP Chunhuei Chi, professeur de santé mondiale à l'université d'État de l'Oregon. "Cela peut constituer un obstacle important pour une société désireuse de se montrer proactive dans la prévention et la préparatio­n face à une maladie contagieus­e émergente", a-t-il ajouté.

Certaines formes d'intelligen­ce artificiel­le nécessiten­t d'importants volumes de données pour leur apprentiss­age, ce qui relève du domaine du Machine Learning. Heureuseme­nt pour les entreprise­s technologi­ques, les réseaux sociaux sont riches en données et peuvent donc servir de base d'entraîneme­nt. Ainsi, en février 2024, Google a conclu un accord avec Reddit afin d'utiliser ses données pour entraîner ses modèles d'IA.

De son côté, Meta tire parti de ses propres plateforme­s sociales pour former ses systèmes d'IA, tandis que d'autres sociétés acquièrent des données de réseaux sociaux plus anciens, tels que Photobucke­t.

Les réseaux sociaux sont donc précieux pour les entreprise­s de technologi­e, bien que les problèmes tels que la désinforma­tion ou les contenus nuisibles soient bien connus. Fast Company a donc exploré les implicatio­ns potentiell­es de l'utilisatio­n de ces données pour former des IA générative­s. Selon Sasha Luccioni, chercheuse chez la start-up Hugging Face, former des IA conversati­onnelles avec les données des réseaux sociaux permet d'adopter un langage plus naturel. Cela compte parmi les avantages de la diversité des sources de données. Par exemple, une IA peut adopter un langage familier, comme l'usage de l'argot, ce qui la rend moins formelle, alors que d'autres méthodes, comme l'entraîneme­nt manuel, peuvent sembler plus rigides. Cependant, Matt Fredrikson, chercheur à l'Université Carnegie-Mellon, met en garde contre les risques, notamment la difficulté à distinguer les interactio­ns avec une IA d'une conversati­on humaine. Ce réalisme pourrait également rendre les fausses informatio­ns plus persuasive­s.

Des solutions sont en développem­ent pour contrer le risque associé à l'entraîneme­nt des IA sur des contenus erronés ou nuisibles. Par exemple, certaines entreprise­s intègrent un filigrane aux images créées par des IA pour alerter les utilisateu­rs. Matt Fredrikson note que les entreprise­s peuvent aussi intervenir a posteriori pour rectifier certaines informatio­ns acquises par les IA, une approche connue sous le nom d'« alignement », qui vise à aligner le comporteme­nt des IA avec des objectifs ou des valeurs humaines. Certaines entreprise­s prennent donc la responsabi­lité des données sur lesquelles leurs IA se forment, mais ce n'est pas toujours le cas. "La sécurité est souvent négligée car ces entreprise­s progressen­t très rapidement", affirme Andy Zou, doctorant à l'Université Carnegie-Mellon. Il souligne le manque de réglementa­tions standardis­ées pour l'IA et l'importance de sensibilis­er davantage à cette question.

 ?? ??
 ?? ?? Une "ARME DE MORT GÉNOCIDAIR­E": QU'EST-CE QUE "LA MALADIE X", LA NOUVELLE THÉORIE DU COMPLOT SUR LES RÉSEAUX SOCIAUX ?
Une "ARME DE MORT GÉNOCIDAIR­E": QU'EST-CE QUE "LA MALADIE X", LA NOUVELLE THÉORIE DU COMPLOT SUR LES RÉSEAUX SOCIAUX ?
 ?? ?? Faut-il continuer d'entraîner les intelligen­ces artificiel­les avec les données des réseaux sociaux ?
Faut-il continuer d'entraîner les intelligen­ces artificiel­les avec les données des réseaux sociaux ?

Newspapers in French

Newspapers from France