Trouble de l'information – Le glossaire essentiel – astuces Blackhat SEO

Image de l'écran de l'ordinateur Markus Spiske sur Unsplash
Image d'un écran d'ordinateur par Markus Spiske sur Unsplash

L'article suivant a été reproduit avec l'aimable autorisation de First Draft News.
Premier logo d'actualités concept

Pour les décideurs, les entreprises technologiques, les politiciens, les journalistes, les bibliothécaires, les éducateurs, les universitaires et les organisations de la société civile qui sont tous confrontés aux défis des perturbations de l'information, un accord sur un vocabulaire partagé est essentiel.

Ce glossaire a été compilé avec le soutien de la recherche de Grace Greason, Joe Kerwin et Nic Dias. Vous pouvez télécharger un PDF de ce glossaire inclus au bas de cette pièce.

Une algorithme est un ensemble d'étapes fixes qu'un ordinateur prend pour résoudre un problème ou effectuer une tâche. Les plateformes de médias sociaux utilisent des algorithmes pour filtrer et hiérarchiser le contenu de chaque utilisateur en fonction de divers indicateurs, tels que leur comportement de visualisation et leurs préférences de contenu. La désinformation conçue pour provoquer une réponse émotionnelle peut prospérer dans ces espaces lorsque les algorithmes détectent qu'un utilisateur est plus susceptible d'être impliqué ou de répondre à un contenu similaire.

Une API, ou interface de programmation d'application, est un moyen par lequel les données d'un outil Web ou d'une application peuvent être échangées avec ou reçues par un autre. De nombreuses enquêtes sur la source et la distribution des informations contaminées dépendent de l'accès aux API des plateformes sociales, mais toutes ne sont pas créées de la même manière, et l'étendue des données accessibles au public varie d'une plateforme à l'autre. L'API ouverte et facile à utiliser de Twitter a permis des recherches approfondies et des investigations sur son réseau, ainsi que le développement d'outils d'atténuation tels que des systèmes de détection osseuse. Cependant, en raison des limitations sur d'autres plateformes et d'un manque de standardisation des API, il n'est pas encore possible d'étendre et de reproduire ce travail sur le Web social.

Intelligence artificielle (AI) décrit des programmes informatiques «formés» pour résoudre des problèmes qui sont normalement difficiles à résoudre pour un ordinateur. Ces programmes & # 39; apprennent & # 39; des données analysées, en ajustant les méthodes et les réponses de manière à maximiser la précision. À mesure que la désinformation augmente en taille et en sophistication, certains voient l'IA comme un moyen de détecter et de modérer efficacement le contenu. L'IA contribue également au problème, en automatisant les processus qui permettent des manipulations plus convaincantes des images visuelles, et en permettant des campagnes de désinformation qui peuvent être ciblées et personnalisées beaucoup plus efficacement.²

Automatisation est le processus de conception d'une "machine" pour accomplir une tâche avec peu ou pas de direction humaine. Cela prend des tâches qui prendraient beaucoup de temps aux gens et les transforment en tâches qui sont accomplies rapidement et presque sans effort. Par exemple, il est possible d'automatiser le processus d'envoi d'un tweet afin qu'une personne ne soit pas activement sur & # 39; publier & # 39; besoin de cliquer. Les processus d'automatisation sont l'épine dorsale des techniques utilisées pour fabriquer efficacement "l'amplification de la désinformation".

SEO chapeau noir (optimisation des moteurs de recherche) décrit les stratégies agressives et illicites utilisées pour augmenter artificiellement la position d'un site Web dans les résultats des moteurs de recherche, par exemple, en modifiant le contenu d'un site Web après son classement. Ces pratiques violent généralement les conditions d'utilisation des moteurs de recherche, car elles génèrent du trafic vers un site Web au détriment de l'expérience utilisateur.³

Bots sont des comptes de médias sociaux entièrement gérés par des programmes informatiques et conçus pour générer des publications et / ou utiliser du contenu sur une plate-forme particulière. Dans les campagnes de désinformation, les bots peuvent être utilisés pour attirer l'attention sur des histoires trompeuses, détourner les listes populaires de plates-formes et créer l'illusion de discussions et de soutiens publics. ou des règles plus simples basées sur le nombre de messages par jour

UNE botnet est une collection ou un réseau de robots qui agissent en coordination et sont généralement gérés par une personne ou un groupe. Les botnets commerciaux peuvent contenir des dizaines de milliers de bots

Exploration de données est le processus de surveillance de grandes quantités de données en combinant des outils de statistiques et d'intelligence artificielle pour reconnaître des modèles utiles. En collectant des informations sur l'activité d'un individu, les agents de désinformation disposent d'un mécanisme pour cibler les utilisateurs en fonction de leurs publications, de leurs goûts et de leur historique de navigation. Une crainte commune chez les chercheurs est que, à mesure que les profils psychologiques alimentés par l'exploration de données deviennent plus sophistiqués, les utilisateurs peuvent cibler en fonction de leur tendance à croire certaines fausses histoires.

Annonces sombres sont des publicités qui ne sont visibles que par l'éditeur et son public cible. Par exemple, Facebook permet aux annonceurs de créer des publications qui atteignent des utilisateurs spécifiques en fonction de leur profil démographique, & # 39; aime & # 39; sur la page et leurs intérêts déclarés, mais qui ne sont pas visibles par le public. Ce type de message ciblé coûte de l'argent et est donc considéré comme une forme de publicité. Parce que ces messages ne sont vus que par un segment de l'audience, ils sont difficiles à suivre ou à suivre

Deepfakes est le terme actuellement utilisé pour décrire les supports manufacturés produits avec l'intelligence artificielle. En synthétisant divers éléments de fichiers vidéo ou audio existants, l'IA permet des méthodes relativement simples de création de & # 39; nouvelles & # 39; contenu, où les individus semblent parler des mots et effectuer des actions qui ne sont pas basées sur la réalité. Alors qu'ils sont encore à leurs balbutiements, nous verrons probablement des exemples de ce type de supports synthétiques plus couramment utilisés dans les campagnes de désinformation à mesure que ces techniques deviennent plus sophistiquées.

UNE compte de sommeil est un compte de réseau social qui n'a pas publié ou utilisé d'autres comptes depuis longtemps. Dans le contexte de la désinformation, cette description est utilisée pour les comptes qui peuvent être gérés par des humains ou des bots et rester inactifs jusqu'à ce qu'ils soient & # 39; programmés & # 39; ou chargé d'exécuter une autre tâche

Doxing ou doxxing consiste à publier en ligne des informations personnelles ou d'identification sur un individu sans son autorisation. Ces informations peuvent inclure des noms complets, des adresses, des numéros de téléphone, des photos et plus encore. Ox Doxing est un exemple d'informations incorrectes, qui sont des informations précises qui sont partagées publiquement pour causer des dommages.

Désinformation est une fausse information qui a été créée ou distribuée intentionnellement dans le but exprès de nuire. Les producteurs de désinformation ont généralement des motivations politiques, financières, psychologiques ou sociales

Cryptage est le processus de cryptage des données afin qu'elles ne puissent être interprétées que par les destinataires prévus. De nombreux services de messagerie populaires comme WhatsApp codent les textes, photos et vidéos envoyés entre les utilisateurs. Cela empêche les gouvernements de lire le contenu des messages WhatsApp interceptés.

Vérifier les faits (dans le contexte du trouble de l'information) est le processus de détermination de la véracité et de l'exactitude des informations officielles publiées telles que les déclarations de politiciens et les reportages. dans des publicités politiques diffusées à la télévision. Il existe actuellement environ 150 organisations de vérification des faits dans le monde, et nombre d'entre elles nient désormais également les erreurs et la désinformation provenant de sources non officielles circulant en ligne.

Faux abonnés sont des comptes de médias sociaux anonymes ou trompeurs créés pour afficher de fausses impressions de popularité sur un autre compte. Les utilisateurs de médias sociaux peuvent payer pour les faux abonnés ainsi que les faux goûts, les vues et les partages pour créer l'impression d'un public plus large. Par exemple, un service en anglais offre aux utilisateurs de YouTube un million de vues "de haute qualité" et 50 000 likes pour 3 150 $.

Informations erronées est une information réelle qui est partagée pour causer des dommages. Omvat Cela inclut les informations personnelles ou révélatrices qui sont distribuées pour nuire à une personne ou à sa réputation.

Renfort fabriqué se produit lorsque la portée ou la diffusion de l'information est artificiellement augmentée. Cela inclut la manipulation humaine et automatisée des résultats des moteurs de recherche et des listes de tendances, ainsi que la promotion de certains liens ou hashtags sur les réseaux sociaux. Prijs Il existe des listes de prix en ligne pour différents types de renforcement, y compris les prix pour générer de faux votes et signatures dans les sondages et pétitions en ligne et le coût de la rétrogradation de contenu spécifique à partir des résultats des moteurs de recherche

La définition formelle du terme meme, inventé par le biologiste Richard Dawkins en 1976, est une idée ou un comportement qui se propage d'une personne à l'autre à travers une culture en se propageant rapidement et en changeant au fil du temps. Le terme est maintenant le plus couramment utilisé pour décrire les photos de légende. 39 ou GIF qui sont distribués en ligne, et les plus efficaces sont humoristiques ou critiques de la société. Ils sont de plus en plus utilisés comme de puissants véhicules de désinformation.

Désinformation est une information qui est fausse, mais qui n'est pas destinée à causer du tort. Par exemple, les personnes qui ne savent pas qu'une information est fausse peuvent la diffuser sur les réseaux sociaux pour être utile.²⁰

La propagande est une information vraie ou fausse diffusée pour convaincre un public, mais a souvent des connotations politiques et est souvent associée aux informations produites par les gouvernements. Il convient de noter que les lignes de démarcation entre la publicité, la publicité et la propagande ne sont souvent pas claires.²¹

Satire est une écriture qui utilise des moyens littéraires tels que le ridicule et l'ironie pour critiquer des éléments de la société. La satire peut devenir de la désinformation si le public l'interprète à tort comme un fait .²² Il existe une tendance bien connue dans laquelle les agents de désinformation étiquettent le contenu comme de la satire pour l'empêcher d'être signalé par les vérificateurs des faits.

Gratter est le processus d'extraction de données d'un site Web sans utiliser d'API. Il est souvent utilisé par les enquêteurs et les journalistes informatiques pour suivre les erreurs et la désinformation sur diverses plateformes sociales et forums. La mise au rebut viole généralement les conditions d'utilisation d'un site Web (c'est-à-dire les règles selon lesquelles les utilisateurs acceptent d'utiliser une plate-forme). Cependant, les chercheurs et les journalistes justifient souvent le raclage car il n'y a pas d'autre moyen d'enquêter et d'étudier l'impact des algorithmes.

UNE marionnette est un compte en ligne qui utilise une fausse identité spécialement conçue pour tromper. Les marionnettes à chaussettes sont utilisées sur les plateformes sociales pour faire exploser les numéros de série d'un autre compte et pour diffuser ou amplifier de fausses informations auprès d'un large public .²³ Le terme est considéré par certains comme synonyme du terme "bot".

Spam est une communication en ligne non sollicitée et impersonnelle, généralement utilisée pour promouvoir, annoncer ou arnaquer le public. Aujourd'hui, il est généralement distribué par e-mail et des algorithmes détectent, filtrent et bloquent le spam dans les boîtes de réception des utilisateurs. Des technologies similaires à celles utilisées dans la lutte contre le spam pourraient potentiellement être utilisées dans le contexte de perturbations de l'information une fois que les critères et indicateurs acceptés auront été convenus.

Pêche à la traîne publie délibérément du contenu offensant ou incendiaire dans une communauté en ligne dans le but de provoquer des lecteurs ou de perturber la conversation. Aujourd'hui, le terme & # 39; troll & # 39; habituellement utilisé pour désigner quelqu'un qui harcèle ou offense les autres en ligne. Cependant, il a également été utilisé pour décrire des comptes contrôlés par l'homme qui effectuent des activités semblables à des os.

UNE ferme de troll est un groupe d'individus qui coordonnent la pêche à la traîne ou la publicité osseuse d'histoires. Une importante ferme de trolls était l'Agence de recherche Internet basée en Russie qui a distribué du contenu incendiaire en ligne dans le but de perturber l'élection présidentielle américaine.

Vérification est le processus de détermination de l'authenticité des informations publiées en ligne par des sources non officielles, en particulier les médias visuels.²⁵ Il est apparu à la fin des années 2000 comme un nouvel ensemble de compétences pour les journalistes et les défenseurs des droits humains, notamment en réponse pour vérifier les images visuelles pendant le & # 39; printemps arabe & # 39;.

UNE VPN, ou réseau privé virtuel, est utilisé pour crypter les données d'un utilisateur et masquer son identité et son emplacement. Il est donc difficile pour les plateformes de savoir où se trouve une personne qui pousse la désinformation ou achète des publicités. Il est également judicieux d'utiliser un VPN pour enquêter sur les espaces en ligne où des campagnes de désinformation sont produites.
Téléchargez un PDF de ce glossaire.

1 Wardle, C. & H. Derakshan (27 septembre 2017) Information Disorder: Towards an Interdisciplinary Framework for Research and Policy Making, Conseil de l'Europe, https://rm.coe.int/information-disorder-toward-an- Interdisciplinary Framework -pour la recherche / 168076277c
2 Ghosh, D. & B. Scott (janvier 2018) #DigitalDeceit: Les technologies derrière la propagande de précision sur Internet, New America
3 Ghosh, D. & B. Scott (janvier 2018) #DigitalDeceit: Les technologies derrière la propagande de précision sur Internet, New America
4 Wardle, C. & H. Derakshan (27 septembre 2017) Information Disorder: Towards an Interdisciplinary Framework for Research and Policy Making, Conseil de l'Europe, https://rm.coe.int/information-disorder-toward-an- Interdisciplinary Framework -pour la recherche / 168076277c
5 Howard, PN & K. Bence (2016) Bots, #StrongerIn et #Brexit: Computational Propaganda during the UK-EU Referendu, COMPROP Research note, 2016.1, http://comprop.oii.ox.ac.uk/wp – contenu / téléchargements / sites / 89/2016/06 / COMPROP-2016-1.pdf
6 Ignatova, T.V., V.A. Ivichev, V.A. & F.F. Khusnoiarov (2 décembre 2015) Analyse des blogs, forums et réseaux sociaux, problèmes de transition économique
7 Ghosh, D. & B. Scott (janvier 2018) #DigitalDeceit: Les technologies derrière la propagande de précision sur Internet, New America
8 Wardle, C. & H. Derakshan (27 septembre 2017) Information Disorder: Towards an Interdisciplinary Framework for Research and Policy Making, Conseil de l'Europe, https://rm.coe.int/information-disorder-toward-an- Interdisciplinary Framework -pour la recherche / 168076277c
9 Li, Y. Chang, M.C. Lyu, S. (11 juin 2018) In Ictu Oculi: Exposing AI Generated Fake Face Videos by Detecting Eye Clignotant, Computer Science Department, University at Albany, SUNY
10 Ince, D. (2013) A Dictionary of the Internet (3 éd.), Oxford University Press
11 MacAllister, J. (2017) The Doxing Dilemma: Seeking a Remedy for the Malicious Publication of Personal Information, Fordham Law Review, https://ir.lawnet.fordham.edu/cgi/viewcontent.cgi?article=5370&context=fl
12 Wardle, C. & H. Derakshan (27 septembre 2017) Information Disorder: Towards an Interdisciplinary Framework for Research and Policy Making, Conseil de l'Europe, https://rm.coe.int/information-disorder-toward-an- Interdisciplinary Framework -pour la recherche / 168076277c
13 Mantzarlis, A. (2015) La vérification tuera-t-elle la vérification des faits?, The Poynter Institute, https://www.poynter.org/news/will-verification-kill-fact-checking
14 Funke, D. (2018) Rapport: Il existe 149 projets de vérification des faits dans 53 pays. C'est un nouveau point fort, The Poynter Institute, https://www.poynter.org/news/report-there-are-149-fact-checking-projects-53-countries-thats-new-high
15 Gu, L., V.Kropotov et F.Yarochkin (2017) The Fake News Machine: How propagandists abuse the Internet and manipulator the public. Université d'Oxford, https://documents.trendmicro.com/assets/white_papers/wp-fake-news-machine-howpropagandists-abuse-the-internet.pdf
16 Wardle, C. & H. Derakshan (27 septembre 2017) Information Disorder: Towards an Interdisciplinary Framework for Research and Policy Making, Conseil de l'Europe, https://rm.coe.int/information-disorder-toward-an- Interdisciplinary Framework -pour la recherche / 168076277c
17 Wardle, C. & H. Derakshan (27 septembre 2017) Information Disorder: Towards an Interdisciplinary Framework for Research and Policy Making, Conseil de l'Europe, https://rm.coe.int/information-disorder-toward-an- Interdisciplinary Framework -pour la recherche / 168076277c
18 Gu, L., V.Kropotov et F.Yarochkin (2017) The Fake News Machine: How propagandists abuse the Internet and manipulator the public. Université d'Oxford, https://documents.trendmicro.com/assets/white_papers/wp-fake-news-machine-howpropagandists-abuse-the-internet.pdf
19 Dawkins, R. (1976) Le gène égoïste. Journal de l'Université d'Oxford.
20 Wardle, C. & H. Derakshan (27 septembre 2017) Information Disorder: Towards an Interdisciplinary Framework for Research and Policy Making, Conseil de l'Europe, https://rm.coe.int/information-disorder-toward-an- Interdisciplinary Framework -pour la recherche / 168076277c
21 Jack, C. (2017) Lexique des mensonges, données et société, https://datasociety.net/pubs/oh/DataAndSociety_LexiconofLies.pdf
22 Wardle, C. & H. Derakshan (27 septembre 2017) Information Disorder: Towards an Interdisciplinary Framework for Research and Policy Making, Conseil de l'Europe, https://rm.coe.int/information-disorder-toward-an- Interdisciplinary Framework -pour la recherche / 168076277c
23 Hofileña, C.F. (9 octobre 2016) Fake Accounts, Crafted Reality on Social Media, Rappler, https://www.rappler.com/newsbreak/investigative/148347-fake-accounts-manufactured-reality-social-media
24 Bureau du directeur du renseignement national. (2017). Évaluation des activités et des intentions de la Russie lors des récentes élections américaines. Washington, D.C.: National Intelligence Council, https://www.dni.gov/files/documents/ICA_2017_01.pdf.
25 Mantzarlis, A. (2015) La vérification tuera-t-elle la vérification des faits?, The Poynter Institute, https://www.poynter.org/news/will-verification-kill-fact-checking

Par Claire Wardle, avec l'aide à la recherche de Grace Greason, Joe Kerwin et Nic Dias.

Remarque: Ce matériel est apparu pour la première fois sur First Draft et est reproduit ici avec la permission de l'auteur.



La publication de textes visant seulement à développer le positionnement d’un profession est l’une des actions plébiscitées pendant initié du Black Hat SEO. Il s’agit d’ailleurs de contenus spinnés qui se ressemblent sensiblement au sein d’eux et n’apportent pas précieux ajoutée puisqu’une unique version donne l’occasion en général de répondre à la requête émise selon l’utilisateur d’un moteur de recherche. La création d’un réseau de plateformes web pourvu dans des Splog associe des textes de bonne qualité médiocre au netlinking qui n’a pas de réel intérêt pour l’internaute. Le bourrage de mots-clés et la duplication de contenus (susceptible d’être recopiés sur un autre site) font partie des pratique faciles à mettre en oeuvre. La première n’a plus aucun impact, la seconde peut fonctionner dans divers comme nous l’évoquerons par la suite. La multiplication des tags sur un CMS comme WordPress s’apparente aussi à une action SEO Black Hat dans le connaissance où les pages créées automatiquement n’apportent généralement pas grand chose puisqu’elles compilent des extraits d’articles.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *