Les plus gros buzz dans le monde sont dans Masculin !
L’homme qui s’est immolé par le feu lors du procès Trump est mort : que sait-on de Maxwell Azzarello ?
Les témoins de l'événement ont été profondément choqués par les images qu'ils ont vues. Vendredi 19 avril à 13h35, heure locale, devant le tribunal de Manhattan et non loin du procès de Donald Trump, un homme s'est enduit de liquide dans un parc. Selon la police, qui s'est exprimée lors d'une conférence de presse, il s'agissait d'une "substance alcoolique utilisée comme nettoyant". Les autorités new-yorkaises, citées par NBC News, ont rapporté que l'homme avait succombé à ses blessures.
Le responsable des enquêtes, Joseph Kenny, a révélé que l'individu se nommait Maxwell Azzarello, né en 1987 à St. Augustine, en Floride. Il était arrivé à New York plus tôt dans la semaine.
La famille du défunt, contactée par les forces de l'ordre, a indiqué ne pas être au courant de sa présence à New York et a affirmé que son geste ne semblait pas directement lié à l'ancien président américain.
D'après les reportages des médias américains basés sur des déclarations de la police new-yorkaise, l'homme est mort à l'hôpital des suites de ses blessures. Les médias ont souligné que l'heure précise de sa mort n'avait pas été communiquée par la police.
Les enquêteurs n'ont trouvé aucune preuve que Donald Trump était visé par cet acte. Cependant, juste avant de s'immoler, l'homme aurait lancé en l'air des tracts mentionnant des "théories conspirationnistes". Un officier de police a informé les médias que les tracts parlaient de "systèmes frauduleux de type Ponzi et d'établissements scolaires servant de façades à la mafia".
Un témoin cité par Reuters a vu un flyer intitulé "La véritable histoire du monde", faisant allusion à des "milliardaires diaboliques". Par mesure de sécurité, une unité de déminage a été dépêchée sur les lieux par le commissaire adjoint Kaz Daughtry. Aucun dispositif explosif n'a été découvert.
Cette théorie conspirationniste, qui prétend prévoir une future pandémie imminente, est exploitée par les propagateurs de désinformation pour commercialiser des produits, tels que des kits d'urgence médicale. La "maladie X", un concept créé par l'Organisation mondiale de la santé (OMS) pour désigner une éventuelle future pandémie, est au coeur d'un vortex de fausses informations alimenté par des conspirationnistes qui y trouvent leur intérêt.
Des informations erronées circulent, notamment celle qui attribue à un complot élitiste la création d'un pathogène inconnu destiné à réduire la population mondiale. Originaires des États-Unis, ces théories se sont diffusées en Asie et sont disponibles dans plusieurs langues régionales, rapportent les vérificateurs de faits de l'AFP.
La propagation rapide de cette désinformation, qui selon les spécialistes illustre les risques liés à une modération insuffisante des contenus sur les réseaux sociaux, risque de renforcer la défiance envers les vaccins et de compromettre la capacité à répondre à des urgences de santé publique, quatre ans après le début de la pandémie de Covid-19.
En exploitant les peurs autour de la maladie X, certains influenceurs conservateurs aux États-Unis utilisent également ces fausses nouvelles pour promouvoir la vente de kits médicaux incluant des traitements non prouvés contre le Covid-19.
Timothy Caulfield, de l'université d'Alberta au Canada, souligne pour l'AFP que "les propagateurs de fausses informations utilisent cette théorie du complot comme un moyen de commercialiser leurs produits." "Il s'agit souvent de leur principale source de revenu. Le problème est profondément ancré. Sans ces discours alarmistes et non fondés sur les vaccins et les complots gouvernementaux, l'activité serait peu ou pas rentable", précise-t-il.
Les théories conspirationnistes ont explosé après que le Forum économique mondial de Davos, souvent associé à de la désinformation, a organisé en janvier une session nommée "Se préparer à la maladie X", consacrée à une potentielle pandémie à venir. Alex Jones, créateur du site Infowars, qui a amassé des millions de dollars en promouvant des théories conspirationnistes sur des fusillades de masse et le Covid-19, a affirmé sur les réseaux sociaux qu'un plan mondial était en cours pour utiliser la maladie X comme une "arme de mort génocidaire".
Quand la théorie a gagné la Chine, des publications sur TikTok et X (anciennement Twitter) soutenaient que le gouvernement chinois installait des fours crématoires mobiles en prévision de "morts massives". Toutefois, par le biais de la recherche d'images inversées, les vérificateurs de l'AFP ont établi que les vidéos associées à ces publications montraient en réalité des services de crémation pour animaux. En octobre, les vérificateurs de l'AFP ont réfuté des publications en ligne en Malaisie prétendant que les infirmières étaient contraintes de recevoir un vaccin contre la maladie X, qui n'existe pas.
Le cardiologue américain Peter McCullough, réputé pour propager des informations incorrectes sur le Covid-19, a déclaré sans preuves que la maladie X "pourrait être développée dans un laboratoire biologique". Il a fait cette affirmation sur le site de The Wellness Company, un distributeur américain de compléments alimentaires où il occupe le poste de directeur scientifique.
Sur ce site, qui incite à "se préparer" pour la maladie X, un "kit d'urgence médicale" est proposé à environ 300 dollars. Ce kit inclut l'ivermectine, un médicament qui n'a pas démontré d'efficacité contre le Covid-19. Le site de droite Gateway Pundit, connu pour véhiculer des théories conspirationnistes, a aussi promu ces kits dans une annonce sponsorisée intitulée "Maladie X: les mondialistes préparent-ils une autre pandémie ?". Le message encourage à "ne pas être pris au dépourvu" et contient un lien pour l'achat des kits.
"Propager des théories du complot pour réaliser des profits est une tactique de longue date à droite", a indiqué à l'AFP Julie Millican, vice-présidente de Media Matters, une organisation de gauche qui surveille les médias. Elle a ajouté que ceux qui propagent fréquemment des théories conspirationnistes sur des sujets comme la maladie X "cherchent également à monétiser leur audience". Ni Wellness Company ni Gateway Pundit n'ont réagi aux demandes de commentaires de l'AFP.
De nombreuses informations inexactes demeurent incontestées car les plateformes telles que X, dans une logique d'économie, ont réduit leurs effectifs dédiés à la surveillance de la sécurité et de la fiabilité de leur contenu.
Depuis la pandémie de Covid, il y a une "diminution de l'acceptation" des vaccins, a observé Jennifer Reich, sociologue à l'Université du Colorado à Denver. Elle a noté que cette tendance pourrait avoir des "conséquences significatives" sur la santé publique.
"Depuis le Covid, nous observons une baisse de l'acceptation des vaccins pour les enfants, ainsi qu'une augmentation, dans les sondages, du soutien au droit de refuser de vacciner ses enfants", a indiqué Mme Reich à l'AFP. Certains partisans des théories conspirationnistes autour de la maladie X déclarent vouloir refuser tout futur vaccin, selon des publications sur les réseaux sociaux que l'AFP a suivies, une posture qui pourrait entraver la gestion de véritables crises sanitaires.
"La désinformation peut amener certains groupes de la population à adopter des comportements inefficaces, voire dangereux, lors d'une épidémie", a expliqué à l'AFP Chunhuei Chi, professeur de santé mondiale à l'université d'État de l'Oregon. "Cela peut constituer un obstacle important pour une société désireuse de se montrer proactive dans la prévention et la préparation face à une maladie contagieuse émergente", a-t-il ajouté.
Certaines formes d'intelligence artificielle nécessitent d'importants volumes de données pour leur apprentissage, ce qui relève du domaine du Machine Learning. Heureusement pour les entreprises technologiques, les réseaux sociaux sont riches en données et peuvent donc servir de base d'entraînement. Ainsi, en février 2024, Google a conclu un accord avec Reddit afin d'utiliser ses données pour entraîner ses modèles d'IA.
De son côté, Meta tire parti de ses propres plateformes sociales pour former ses systèmes d'IA, tandis que d'autres sociétés acquièrent des données de réseaux sociaux plus anciens, tels que Photobucket.
Les réseaux sociaux sont donc précieux pour les entreprises de technologie, bien que les problèmes tels que la désinformation ou les contenus nuisibles soient bien connus. Fast Company a donc exploré les implications potentielles de l'utilisation de ces données pour former des IA génératives. Selon Sasha Luccioni, chercheuse chez la start-up Hugging Face, former des IA conversationnelles avec les données des réseaux sociaux permet d'adopter un langage plus naturel. Cela compte parmi les avantages de la diversité des sources de données. Par exemple, une IA peut adopter un langage familier, comme l'usage de l'argot, ce qui la rend moins formelle, alors que d'autres méthodes, comme l'entraînement manuel, peuvent sembler plus rigides. Cependant, Matt Fredrikson, chercheur à l'Université Carnegie-Mellon, met en garde contre les risques, notamment la difficulté à distinguer les interactions avec une IA d'une conversation humaine. Ce réalisme pourrait également rendre les fausses informations plus persuasives.
Des solutions sont en développement pour contrer le risque associé à l'entraînement des IA sur des contenus erronés ou nuisibles. Par exemple, certaines entreprises intègrent un filigrane aux images créées par des IA pour alerter les utilisateurs. Matt Fredrikson note que les entreprises peuvent aussi intervenir a posteriori pour rectifier certaines informations acquises par les IA, une approche connue sous le nom d'« alignement », qui vise à aligner le comportement des IA avec des objectifs ou des valeurs humaines. Certaines entreprises prennent donc la responsabilité des données sur lesquelles leurs IA se forment, mais ce n'est pas toujours le cas. "La sécurité est souvent négligée car ces entreprises progressent très rapidement", affirme Andy Zou, doctorant à l'Université Carnegie-Mellon. Il souligne le manque de réglementations standardisées pour l'IA et l'importance de sensibiliser davantage à cette question.