Copier
This is some text inside of a div block.

Quand les réseaux numériques modèlent nos perceptions et comportements

L’influence au travers des avancées technologiques et des espaces de confrontation

Depuis des centaines d’années, la capacité d’influencer les comportements humains confère un avantage conséquent à ceux qui la maîtrise. Considérée aux différents niveaux d’Ardoino1 individuel », « inter-individuel », « groupal », « organisationnel » et « institutionnel »), cette aptitude permet aux « influenceurs » des réseaux sociaux de nos jours, mais aussi aux orateurs, tribuns et démagogues de tout temps, d’acquérir une « autorité » et du pouvoir sur une population donnée ; pouvoir pris au sens de la faculté de « produire certains effets »2 sur un quelconque niveau ciblé. 

Si cette science de l’influence, discernée par Tocqueville dans son oeuvre3, est souvent restée associée au quatrième pouvoir « médiatique »4 (« La presse est en France un quatrième pouvoir dans l’État »5), elle est devenue pour de nombreux États l’un des principaux moyens stratégiques d’une part, de gestion des insurrections internes6 et, d’autre part, de pratiques « d’ingérences politiques, économiques et financières de puissances étrangères »7 ou de « guérillas 2.0 »8

Ainsi, la nature du médium employé pour pratiquer une action (non planifiée et non-nécessairement visant un objectif) ou une opération (série d’actions planifiées déterminées suivant un but à accomplir) d’influence varie selon les époques et en fonction des ressources des protagonistes à l'œuvre. D’une nature initialement « psycho-cognitive »9 à l’instar de la littérature orale des sociétés traditionnelles10, « physique ou matérielle »11 par le biais des journaux, livres ou affiches de propagande, les techniques d’actions sont aujourd’hui de nature « virtuelle ou logicielle »12, avec la démocratisation des outils d’influence à grande échelle, apparus avec l’usage de « l’Internet of Things »13 (IoT ou Internet des objets) et du « Big Data » (données massives).

L’hybridation des champs d’actions de l’influence

Depuis 1945, les bouleversements technologiques, souvent poussés par une « course à l’armement »14, des rivalités culturelles, et la révolution de l’informatique, au sens du « traitement automatique de l’information »15, intensifièrent les capacités d’influence par leur dématérialisation dans un champ d’opération nouveau, de nature « hybride »16. Et c’est en France, en 1989, que des chercheurs du CERN17 ont mis au point une innovation de rupture dans les réseaux et systèmes de communication : le World Wide Web (communément désigné par le Web). 

Cette prouesse, loin d’être uniquement une révolution technologique, marque également un tournant dans l’art de l’influence. Désormais, sa pratique s’étale au sein des trois macro-couches indissociables de ce qui est désormais appelé communément le « cyberespace »18, un « milieu de confrontation à part entière qui se combine aux milieux traditionnels (terre, mer, air et espace extra-atmosphérique) »19. Les trois strates de ce nouveau champ de bataille sont ainsi :

Schéma adapté du tableau de Daniel Ventre, Cyberespace et acteurs du cyberconflits, éditions Hermès Lavoisier, Paris, 2011 (25)

Dès lors, l’avènement des médias et des réseaux sociaux, permis par ce nouveau champ de communication, a considérablement modifié la donne entre les acteurs de l’influence. Facilitant l’utilisation combinée de l’information (couche physique et virtuelle), de connaissances (couche cognitive) par le biais de stratégies hybrides (« stratégies combinant une palette d’outils hors du champ militaire pour affaiblir un adversaire sans passer le seuil du conflit armé »26), l’ambition est de maintenir un compétiteur stratégique dans le flou du « brouillard de la guerre »27) et d’orienter ses prises de décision politiques, économiques ou sociales. En conséquence, l’objectif affiché de nos armées françaises dans ces confrontations irrégulières est aujourd’hui de « gagner la guerre avant la guerre »28, par le biais notamment, de l’anticipation des crises et par la nouvelle fonction stratégique29 donnée à l’influence.

C’est pourquoi dans un monde hyper-connecté, à l’image d’un cyberespace fragmenté ou « Splinternet »30, militarisé au point de devenir l’espace de confrontation majeur du 21ème siècle, le concept de « cyberpsychologie »31 émerge comme une discipline essentielle pour comprendre comment les réseaux numériques affectent les comportements humains, notamment au moyen des algorithmes32 ou du « micro-ciblage » (« utilisation sophistiquée des données pour cibler des individus ou des groupes spécifiques »33). À mesure que les nouvelles technologies digitales envahissent presque tous les aspects de notre vie, des interactions sociales aux décisions politiques, les effets psycho-cognitifs des interactions en ligne nécessitent une attention particulière afin de ne pas être la source de « backdoor » sociétale ou institutionnelle (l’appréciation de « porte dérobée » est prise au sens métaphorique comme une faille dans un système social, qui, à terme, engendrerait des dégâts irréversibles tels des ingérences étrangères, des attaques dans les champs cognitifs ou informationnels, ou plus classiquement, des cyber-attaques). 

Le cas TikTok34 illustre précisément ce mode d’action, dans la mesure où la plateforme, grâce à des algorithmes sophistiqués, collecte d’énormes quantités de données personnelles pour proposer des contenus hyper-ciblés, influençant subtilement les comportements et les opinions de ses utilisateurs par le biais de contenus captivants personnalisés. Plus qu’un simple réseau social, TikTok est considéré et perçu comme un outil stratégique de soft power et smart power, utilisé non seulement pour influencer les tendances culturelles, mais aussi pour potentiellement servir des intérêts géopolitiques, soulevant ainsi des préoccupations sur la sécurité des données et les plausibles ingérences étrangères35 dans les sphères cognitives et informationnelles.

L’impact des réseaux sociaux sur la psychologie humaine

Ce terme néologique de cyberpsychologie s’intéresse donc aux effets multidimensionnels des champs immatériels, en explorant comment l’utilisation intensive des médiums cybernétiques36 (réseaux sociaux, plateformes numériques et technologies en ligne) modifie la psychologie humaine (étude du comportement et de la pensée, des perceptions, des relations interpersonnelles, des dynamiques de groupe et des processus décisionnels).

Les réseaux sociaux majoritaires tels qu’Instagram37, TikTok38 et Facebook39 ont radicalement transformé la manière dont les individus interagissent et se perçoivent. Ces plateformes, en permettant une connexion quasi-instantanée et continue avec un large réseau d’utilisateurs (respectivement 2 milliards, 1, 582 milliards et 3,065 milliards d’utilisateurs actifs en 202440 selon Statista), favorisent le processus de validation sociale (défini par des « ressentis à propos des caractéristiques, comportements ou croyances que les autres utilisateurs approuvent ou considèrent comme désirable »41). 

Par exemple, la preuve sociale est un phénomène psychologique par lequel les individus prennent exemple sur les actions et opinions des autres pour déterminer leur propre comportement, en particulier dans des situations d’incertitude ou d’ambiguïté. Ce principe, bien ancré dans la psychologie sociale42, implique que lorsque nous ne savons pas exactement comment réagir ou ce qu’il faut penser, nous nous tournons instinctivement vers le comportement ou les points de vue des autres pour nous orienter, nous nous conformons aux autres.

Dans le cadre de l’usage des médias sociaux, cette preuve sociale se manifeste par le développement d’une « culture du like »43, du commentaire et du partage de contenus des autres utilisateurs pour se conformer aux normes du groupe. Cela repose sur un mécanisme de validation sociale : en voyant un post très populaire, avec de nombreux « likes » et partages, l’individu est naturellement poussé à croire que ce contenu est pertinent ou intéressant, simplement parce qu’il a déjà été validé par d’autres. 

Expliciter davantage la relation entre les actions de « liker », « republier », et l’envie de créer un contenu viral, permet de souligner que ces comportements répondent à une volonté de faire partie d’une dynamique collective de représentations idéalisées (effet de la « spirale de l’envie »44). Ce phénomène est particulièrement accentué sur des plateformes comme Instagram, où la mise en scène de soi devient un outil puissant de comparaison45 et de validation. De plus, le fait de « liker » un contenu témoigne d’une reconnaissance tacite : cela signifie que l’individu s’identifie au message et qu’il valide, voire renforce, sa légitimité. La republication, quant à elle, va plus loin dans la démarche en signalant une adhésion encore plus forte, et contribue à propager le contenu, augmentant ainsi sa visibilité. Le moteur de ces actions réside dans l’envie de voir son propre post devenir viral, étape vers un accomplissement personnel, malgré des effets pervers considérables46.

Cependant, les comparaisons sociales sont un phénomène humain naturel. Mais l’émergence des réseaux sociaux comme principal mode de communication a nettement exacerbé cette tendance. Les plateformes comme Instagram, TikTok et Facebook exposent les utilisateurs à des images idéalisées et filtrées de la vie des autres, amplifiant ainsi les effets du rapport aux autres individus. Et ce, en impactant les individus au cœur des  rapports sociaux, soit dans un sens réductionniste vers soi-même (mésestimation ou perte de conscience de la réalité, confusion entre le réel et les mondes virtuels ou métavers, enfermement cognitif solipsiste), soit dans la propagation d’un phénomène vers les autres (polarisation des narratifs, des croyances et des idéologies).

Les dynamiques de preuve sociale numérique comme un cercle d’enfermement vicieux, schéma de l’auteur

Autre singularité notable, le cas du « Fear of Missing Out »47 (FOMO), ou la peur de manquer une expérience sociale, élément clé de ces dynamiques d’encerclement cognitif. Les utilisateurs, en voyant les publications des autres, ressentent souvent une pression à aimer, valoriser ou participer à des événements ou des expériences similaires pour ne pas être laissés pour compte, pour éviter une anxiété sociale ou encore un sentiment d’inadéquation au groupe. Ce type de comparaison pousse à croire que d’autres ont des vies plus enrichissantes, ce qui renforce une perception négative de sa propre situation. Ce phénomène est aisément instrumentalisé au sein du « Splinternet » dans le but d’orienter les motivations et comportements d’individus par comparaison. L’astroturfing, par exemple, est une technique d’opérations dans le cyberespace, qui consiste en la création de bots, des faux comptes sur les réseaux sociaux spontanés créés pour simuler la perception de mouvements populaires à des fins publicitaires, de propagande ou politique. 

Ainsi, les médias sociaux agissent comme un miroir déformant, renvoyant une version idéalisée des vies des autres, ce qui peut entraîner des effets néfastes sur la santé mentale48, tels que la dépression ou la rumination49, l’anxiété sociale50 et une baisse de l’estime de soi51.

De même, la comparaison avec les autres sur les réseaux sociaux peut conduire à des distorsions dans la perception de soi52, ce qui peut conduire des décideurs en devenir ou des personnes à responsabilités à perdre le sens de la raison, par la naissance d’un fossé entre les informations perçues et la réalité, actions typiques des « guerres irrégulières »53. Mais aussi par une action de « capture de l’utilisateur / législateur / régulateur »54, pour « attirer l’attention et l’engagement d’un utilisateur de manière à ce qu’il devienne dépendant de produits ou services» à l’aide de ses données personnelles, de ses usages professionnels et de ses connaissances techniques du cyberespace utilisés pour établir son profil psychologique et métacognitif et façonner ses perceptions.

Les comportements de groupe, phénomènes de foule et impacts psycho-cognitifs des interactions numériques au sein du cyberespace 

Tout d’abord, la « désindividualisation »55 dans les environnements numériques autorise aux individus d’adopter des comportements qu’ils n’adopteraient pas dans des situations réelles en face-à-face, par dé-responsabilisation et par la sensation d’anonymat que procure le solipsisme des interfaces digitales d’un « homo numericus »56.  Cet anonymat sur Internet amplifie les comportements antisociaux et favorise la désinhibition57. Il s’agit de la tendance des individus « à s’exposer et à s’exprimer plus souvent et plus intensément qu’ils ne le font dans le monde réel »58 lorsqu’ils interagissent à l’aide d’outils numériques, comme sur les réseaux sociaux ou sur des forums en ligne. Cette dynamique explique la prévalence de phénomènes tels que le cyber-harcèlement, où certains individus et groupes se livrent à des comportements agressifs59 en ligne sans crainte de répercussions, par l’absence de régulations notables60.

Les médias sociaux favorisent l’émergence de mouvements de masse, comme l’activisme numérique 2.0 (hashtag activism61), où des individus se rassemblent autour de causes sociales, économiques ou politiques. Des mouvements comme #BlackLivesMatter et #MeToo illustrent comment les réseaux numériques peuvent amplifier les voix marginalisées et catalyser le changement social. 

Par conséquent, ces mêmes dynamiques peuvent être exploitées dans le cadre d’opérations d’informations (comme la doctrine américaine MISO - Military Information Support Operations62) ou de manipulation de masse (désinformation, malinformation, mésinformation, propagande63), comme l’ont montré les campagnes de fake news lors des élections américaines de 201664, du vote du Brexit au Royaume-Uni ou de la pandémie de COVID-1965.

En outre, les algorithmes utilisés par les réseaux sociaux favorisent et renforcent les « bulles de filtre », terme conceptualisé par Eli Pariser66 en 2011, en créant des environnements dans lesquels les utilisateurs ne sont exposés qu’à des informations qui confirment leurs croyances existantes67. Ces bulles d’informations, enfermant les utilisateurs dans une vision auto-centrée, renforcent l’émergence de décisions biaisées68 par : 

Tout ceci en contrôlant par des biais algorithmiques l’exposition des utilisateurs à des opinions divergentes et en exacerbant la polarisation sociale70 au sein de chambres d’échos71, véritable caisse de résonance idéologique et déferlante de normes de plus en plus extrêmes.

Les bulles filtrantes entourant l’utilisateur au sein des cyberespaces (72), schéma de l’auteur. L’utilisateur, piégé au sein de multiples caisses de résonance médiatique, idéologique ou commerciale, n’est pas maître des contenus avec lequel il interagit et qui nécessairement, l’influence, ne serait-ce que par conditionnement ou par raisonnement inductif. Sa compréhension du système global informationnel auquel il appartient est ainsi dégradée et brouillée par le surplus d’informations résonnant entre elles, ce qui induit des biais de confirmation et mnésiques.

Par conséquent, la numérisation croissante de nos sociétés et le développement de nouvelles technologies (démocratisation des deepfakes, multiplication des objets connectés, bots sur les réseaux sociaux) ont ainsi ouvert la porte à de nouvelles menaces hybrides73, définies comme des « activités menées ouvertement ou non à l’aide de moyens militaires et de moyens non militaires : désinformation (référendum du Brexit), cyberattaques (ransomwares, attaques DDOS, hameçonnage), pression économique (embargo commercial ou financier), déploiement de groupes armés irréguliers (Hezbollah, Hamas) ou emploi de forces régulières (conflit russo-ukrainien) »

C’est pourquoi, les frontières entre les différents champs et milieux de confrontation se sont atténuées et laissent pleinement la place à des stratégies hybrides de « guerre irrégulière dans le cyberespace »74 au cœur des populations, entre médias sociaux de masse et « influenceurs »

Ainsi, dans la prolongation de l’opérationnalisation des guerres asymétriques, le département de la Défense des États-Unis (DoD) définit les opérations de guerre cognitive (ou opérations du domaine cognitif, CDO) comme des actions « combin[ant de] la guerre psychologique avec des opérations cybernétiques pour façonner le comportement de l’adversaire et la prise de décisions » ; « (visant) la domination de l’esprit [...] comme l’utilisation de l’information pour influencer l’opinion publique à modifier le système social d’une nation » ; (et comme une ) « capacité asymétrique de dissuader les États-Unis ou des tiers d’entrer dans un conflit futur, ou capacité offensive de façonner les perceptions ou de polariser une société. »75. Cet art opératif mêle judicieusement l’ensemble des capacités technologiques, des connaissances psychologiques et neurologiques ainsi que l’ensemble des modes d’actions hybrides qu’offre la société contemporaine (lawfare, guerre de l’opinion publique et guerre de l’information, guerre cyber et guerre électronique).  

Au cœur de ce champ de bataille immatériel : les fonctions cognitives (attention, mémoire, langage) et exécutives (processus mentaux, flexibilité cognitive, mémoire de travail) de la cible ainsi que ses vulnérabilités exploitables, telles nos heuristiques de raisonnement ou de jugement. Il est par conséquent nécessaire de considérer les effets psychologiques et cognitifs subséquents à l’usage des réseaux numériques. 

En effet, l'exposition continue à des contenus numériques rapidement renouvelés (scrolling) a un impact spontané sur la durée de l’attention des utilisateurs. L’abondance de stimuli numériques entraîne une fragmentation de l’attention76, rendant difficile la capacité à se concentrer sur une tâche sur une longue période, soit sur la manière dont les utilisateurs traitent et évaluent les informations. Un autre exemple est celui de l’effet Google77, une sorte d’amnésie numérique ou la tendance des individus à oublier des informations parce qu’ils savent qu’elles sont facilement accessibles via des moteurs de recherche, tel Google. Cet effet est typique d’une opération d’agnotologie78 (action de promouvoir l’ignorance dans une population).

Parallèlement, les boucles dopaminergiques79 (dopamine loops) expliquent nos addictions numériques dans la mesure où les notifications constantes d’applications diverses80, les « likes » et interactions en ligne, déclenchent au niveau biologique une libération de dopamine. Cette boucle de rétroaction exploite les circuits de récompense du cerveau, créant une dépendance aux réseaux sociaux similaire à celle observée dans les addictions comportementales typique du conditionnement pavlovien ou opérant.

Enfin, la surcharge informationnelle81 est un effet collatéral82 inévitable de l’hyper-connectivité. Les utilisateurs sont constamment exposés à une quantité massive d’informations, dont beaucoup sont contradictoires ou non vérifiées. Cette augmentation de la charge mentale83 de l’utilisateur des réseaux entraîne une surcharge cognitive84, rendant difficile l’évaluation de la pertinence des informations et du contexte, surtout dans le cadre d’une prise de décision politique, géostratégique ou économique de responsables exécutifs ou législatifs notamment.

Conclusion

Les réseaux numériques et les plateformes sociales ont profondément transformé les comportements humains, tant au niveau individuel que collectif. La cyberpsychologie, en tant que discipline émergente, fournit un cadre utile pour comprendre ces impacts, dans la mesure où les guérillas 2.0 ne se jouent plus sur un champ clos, mais bien aux cœur des populations, décideurs, forces armées et influenceurs, au travers des champs immatériels, à l’image de la « social media warfare » chinoise85. De la modification de la perception de soi à l’influence sur les décisions politiques, les réseaux numériques sont devenus des terrains où se jouent des batailles psychologiques et cognitives. Il est impératif de développer des stratégies comme la « social cybersecurity »86 pour réguler l’usage de ces technologies et encourager des comportements plus responsables dans le cyberespace.

  1. Ardoino J., Propos actuels sur l'éducation, contribution à l'éducation des adultes, In: Population, 24ᵉ année, n°2, 1969. pp. 363-364, [en ligne], 10 octobre 2024.
  2. Dictionnaire en ligne Larousse, [en ligne], 10 octobre 2024.
  3. De Tocqueville, A. (1850). « De la démocratie en Amérique (Vol. 1) », Pagnerre, [en ligne], 10 octobre 2024.
  4. Gauchet, M. (2006). Contre-pouvoir, méta-pouvoir, anti-pouvoir. Le Débat, (1), 17-29, [en ligne], 10 octobre 2024
  5. De Balzac, H. La Revue parisienne, 25 août 1840, p.243, [en ligne], 10 octobre 2024..
  6. Nan, R., & Ouyang, F. (2020). Influence of social networks on citizens’ willingness to participate in social governance: evidence from China. Complexity, 2020(1), 3819514, [en ligne], 10 octobre 2024. 
  7. Seizième législature de l’Assemblée Nationale. (Juin 2023). Rapport fait au nom de la commission d’enquête relative aux ingérences politiques, économiques et financières de puissances étrangères – États, organisations, entreprises, groupes d’intérêts, personnes privées – visant à influencer ou corrompre des relais d’opinion, des dirigeants ou des partis politiques français, [en ligne], 10 octobre 2024.
  8. Boyer, B. (2020). Guerilla 2.0. Guerres irrégulières dans le cyberespace. École de guerre. 
  9. Ventre, D. (2015). Cyberstratégie. In Guerre et stratégie (pp. 333-348). Presses Universitaires de France, [en ligne], 10 octobre 2024.
  10. Mounziegou-Mombo, N. W. (2011). La littérature orale aux frontières de la mystification et de la manipulation dans les sociétés traditionnelles au Gabon. Interstudia (Revista Centrului Interdisciplinar de Studiu al Formelor Discursive Contemporane Interstud), (08), 96-101, [en ligne], 10 octobre 2024.
  11. Ventre, D. (2015). Ibid.
  12. Ventre, D. (2015). Ibid.
  13. Mah, P. M., Skalna, I., Munyeshuri, E., & Akoko, J. (2022). Influence of Internet of things on human psychology (internet of thoughts) for education, healthcare, and businesses. EAI Endorsed Transactions on Mobile Communications and Applications, 7(2), [en ligne], 10 octobre 2024. 
  14. Ayerbe, L. F. (2000). Néoconservatisme et guerre culturelle. Cultures et mondialisation, 7(3), 93-108, , [en ligne], 10 octobre 2024.
  15. Paoletti, F. (1993). Épistémologie et technologie de l'informatique. Revue de l'EPI (Enseignement Public et Informatique), (71), 175-182, [en ligne], 10 octobre 2024.
  16. Giegerich, B., (2016). Hybrid warfare and the changing character of conflict., Connections, 15(2), 65-72, [en ligne], 10 octobre 2024.
  17. Fluckiger, F. (2023). Il y a 30 ans Le Web naissait au CERN. Le Monde, 1(CERN-IT-2023-005), 40, [en ligne], 10 octobre 2024. 
  18. Définition initiale de la DIA-3.20(A)_OPS-CYBER (2018), Opérations dans le cyberespace, n° 82/ARM/CICDE/DR du 5 septembre 2018. 
  19. Centre Interarmées de Doctrines et d’Expérimentations, concept interarmées CIA-0.1.1_M2MC (2021), Multimilieux et multichamps (M2MC), la vision française interarmées, [en ligne], 10 octobre 2024.
  20. Ventre, D. (2015). Ibid.
  21. Ventre, D. (2015). Ibid.
  22. Ventre, D. (2015). Ibid. 
  23. Huyghe, F. B. (2020). Cyberespace. Inflexions, (1), 89-98, [en ligne], 10 octobre 2024.
  24. Clark, D. D. (2010). Characterizing cyberspace: past, present and future, [en ligne], 10 octobre 2024.
  25. Daniel Ventre, (2011), Cyberespace et acteurs du cyberconflits, éditions Hermès Lavoisier, Paris, [en ligne], 10 octobre 2024. 
  26. Éléments publics de doctrine militaire de lutte informatique d’influence (L2I), Ministère des Armées, COMCYBER, (2021), [en ligne], 10 octobre 2024.
  27. CLAUSEWITZ (VON), C. Vom Kriege. F.Dümmler, Berlin Germany), 1832. Traduction Naville, D. De la guerre. Éditions de Minuit, Paris (France), 1998. 
  28. Vision stratégique du chef d'état-major des armées, Ministère des Armées, (Octobre 2021), [en ligne], 10 octobre 2024.
  29. Revue nationale stratégique 2022, Secrétariat général de la défense et de la sécurité nationale (SGDSN), [en ligne], 10 octobre 2024.
  30. Mhalla, A. (2024). Technopolitique: comment la technologie fait de nous des soldats. Seuil, [en ligne], 10 octobre 2024.
  31. Bernard Claverie, Barbara Kowalczuk. Cyberpsychology. Bernard Claverie; Baptiste Prébot; Norbou Buchler; François du Cluzel. Cognitive Warfare: The Future of Cognitive Dominance, NATO Collaboration Support Office, pp.9, 1-5, 2022, 978-98-837-2368-4, [en ligne], 10 octobre 2024. 
  32. Pariser, E. (2011). The filter bubble: What the Internet is hiding from you. penguin UK, [en ligne], 10 octobre 2024.
  33. Julien Debidour Lazzarini, Paul Pelletier. De l’analyse d’audience au microciblage : outil comportemental pour la guerre cognitive. Ingénierie cognitique, 2024, 7 (1), pp.94-98, [en ligne], 10 octobre 2024. 
  34. Le Monde, (2023). Que reproche-t-on à TikTok ? Soft power, espionnage, données personnelles… [en ligne], 10 octobre 2024.
  35. Sénat, (2023). Commission d'enquête sur l'utilisation du réseau social tiktok, son exploitation des données, sa stratégie d'influence,  [en ligne], 10 octobre 2024.
  36. Claverie, B. (2014). De la cybernétique aux NBIC: l’information et les machines vers le dépassement humain. Hermès, (1), 95-101, [en ligne], 10 octobre 2024.
  37. Stapleton, P., Luiz, G., & Chatwin, H. (2017). Generation validation: The role of social comparison in use of Instagram among emerging adults. Cyberpsychology, Behavior, and Social Networking, 20(3), 142-149, [en ligne], 10 octobre 2024.
  38. Galanis, P., Katsiroumpa, A., Moisoglou, I., & Konstantakopoulou, O. (2024). The TikTok Addiction Scale: Development and validation, [en ligne], 10 octobre 2024. 
  39. Guadagno, R. E., Muscanell, N. L., Rice, L. M., & Roberts, N. (2013). Social influence online: The impact of social validation and likability on compliance. Psychology of Popular Media Culture, 2(1), 51, [en ligne], 10 octobre 2024.
  40. Statista, Most popular social networks worldwide as of April 2024, by number of monthly active users, [en ligne], 10 octobre 2024
  41. Otterbring, T., & Folwarczny, M. (2024). Social validation, reciprocation, and sustainable orientation: Cultivating “clean” codes of conduct through social influence. Journal of Retailing and Consumer Services, 76, 103612, [en ligne], 10 octobre 2024.
  42. Gosling, P., & Ric, F. (1996). Psychologie sociale (Vol. 1). Editions Bréal, [en ligne], 10 octobre 2024.
  43. Claverie, B. (2021). Qu’est-ce que la cognition et comment en faire l’un des moyens de la guerre?. Cognitive Warfare: La Guerre Cognitique, 4-1.
  44. Tandoc Jr, E. C., Ferrucci, P., & Duffy, M. (2015). Facebook use, envy, and depression among college students: Is facebooking depressing ?. Computers in human behavior, 43, 139-146, [en ligne], 10 octobre 2024.
  45. Krasnova, H., Wenninger, H., Widjaja, T., & Buxmann, P. (2013). Envy on Facebook: a hidden threat to users’ life satisfaction ?., [en ligne], 10 octobre 2024.
  46. Gonzales, A. L., & Hancock, J. T. (2011). Mirror, mirror on my Facebook wall: Effects of exposure to Facebook on self-esteem. Cyberpsychology, behavior, and social networking, 14(1-2), 79-83, [en ligne], 10 octobre 2024.
  47. Przybylski, A. K., Murayama, K., DeHaan, C. R., & Gladwell, V. (2013). Motivational, emotional, and behavioral correlates of fear of missing out. Computers in human behavior, 29(4), 1841-1848, [en ligne], 10 octobre 2024.
  48. Le Monde, (2023). Plainte contre Instagram : les procureurs américains cherchent à impliquer Mark Zuckerberg, [en ligne], 10 octobre 2024. 
  49. Feinstein, B. A., Hershenberg, R., Bhatia, V., Latack, J. A., Meuwly, N., & Davila, J. (2013). Negative social comparison on Facebook and depressive symptoms: Rumination as a mechanism. Psychology of popular media culture, 2(3), 161, [en ligne], 10 octobre 2024.
  50. Chou, H. T. G., & Edge, N. (2012). “They are happier and having better lives than I am”: the impact of using Facebook on perceptions of others' lives. Cyberpsychology, behavior, and social networking, 15(2), 117-121, [en ligne], 10 octobre 2024.
  51. Vogel, E. A., Rose, J. P., Roberts, L. R., & Eckles, K. (2014). Social comparison, social media, and self-esteem. Psychology of popular media culture, 3(4), 206, [en ligne], 10 octobre 2024.
  52. Haferkamp, N., & Krämer, N. C. (2011). Social comparison 2.0: Examining the effects of online profiles on social-networking sites. Cyberpsychology, Behavior, and Social Networking, 14(5), 309-314.
  53. Boyer, B. (2020). Ibid.
  54. Coelho,O. (2023). Géopolitique du numérique L'impérialisme à pas de géant.. . p.253, [en ligne], 10 octobre 2024.
  55. Postmes, T., & Spears, R. (1998). Deindividuation and antinormative behavior: A meta-analysis. Psychological bulletin, 123(3), 238, [en ligne], 10 octobre 2024.
  56. Pierre, N. O. R. O. La souveraineté numérique sans l’État: y a-t-il une souveraineté individuelle pour «l’homo numericus»?. La souveraineté numérique: dix ans de débats, et après?, 113, [en ligne], 10 octobre 2024. 
  57. Suler, J. (2004). The online disinhibition effect. Cyberpsychology & behavior, 7(3), 321-326, [en ligne], 10 octobre 2024.
  58. Suler, J. et Allouche, É. (2012) . Effet de désinhibition. Le Journal des psychologues, n° 301(8), 34-36,[en ligne], 10 octobre 2024. 
  59. Lapidot-Lefler, N., & Barak, A. (2012). Effects of anonymity, invisibility, and lack of eye-contact on toxic online disinhibition. Computers in human behavior, 28(2), 434-443, [en ligne], 10 octobre 2024.
  60. Kiesler, S., Siegel, J., & McGuire, T. W. (1984). Social psychological aspects of computer-mediated communication. American psychologist, 39(10), 1123, [en ligne], 10 octobre 2024.
  61. Konnelly, A. (2015). # Activism: Identity, affiliation, and political discourse-making on Twitter. The Arbutus Review (TAR), 6(1), 1-16, [en ligne], 10 octobre 2024.
  62. DEPARTMENT OF THE NAVY, (2015), MILITARY INFORMATION SUPPORT OPERATIONS (MISO), [en ligne], 10 octobre 2024.
  63. Julie Achmirowicz, Morganne Martin. Cognitive Warfare: Report. Ecole de Guerre. 2023, [en ligne], 10 octobre 2024.
  64. Howard, P. N., Ganesh, B., Liotsiou, D., Kelly, J., & François, C. (2018). The IRA, social media and political polarization in the United States, 2012-2018., [en ligne], 10 octobre 2024.
  65. Roozenbeek, J., Schneider, C. R., Dryhurst, S., Kerr, J., Freeman, A. L., Recchia, G., ... & Van Der Linden, S. (2020). Susceptibility to misinformation about COVID-19 around the world. Royal Society open science, 7(10), 201199, [en ligne], 10 octobre 2024.
  66. Pariser, E. (2011). The Filter Bubble: What the Internet is Hiding from You. Penguin Press, [en ligne], 10 octobre 2024.
  67. Sunstein, C. R. (2014). On rumors: How falsehoods spread, why we believe them, and what can be done. Princeton University Press, [en ligne], 10 octobre 2024.
  68. Tversky, A., & Kahneman, D. (1974). Judgment under Uncertainty: Heuristics and Biases: Biases in judgments reveal some heuristics of thinking under uncertainty. Science, 185(4157), 1124-1131, [en ligne], 10 octobre 2024.
  69. Tversky, A., & Kahneman, D. (1974). Ibid.
  70. Lee, J. K., Choi, J., Kim, C., & Kim, Y. (2014). Social media, network heterogeneity, and opinion polarization. Journal of communication, 64(4), 702-722, [en ligne], 10 octobre 2024.
  71. Flaxman, S., Goel, S., & Rao, J. M. (2016). Filter bubbles, echo chambers, and online news consumption. Public opinion quarterly, 80(S1), 298-320, [en ligne], 10 octobre 2024.
  72. Schéma conceptuel réalisé dans le cadre de l’article par Julien Debidour Lazzarini.
  73. Organisation du Traité de l’Atlantique Nord - OTAN( 2024),  Lutte contre les menaces hybrides, [en ligne], 10 octobre 2024.
  74. Boyer, B. (2020). Ibid.
  75. u.s department of defense MILITARY AND SECURITY DEVELOPMENTS INVOLVING THE PEOPLE'S REPUBLIC OF CHINA, 2023 ANNUAL REPORT TO CONGRESS, https://media.defense.gov/2023/Oct/19/2003323409/-1/-1/1/2023-MILITARY-AND-SECURITY-DEVELOPMENTS-INVOLVING-THE-PEOPLES-REPUBLIC-OF-CHINA.PDF, [en ligne], 10 octobre 2024.
  76. Carr, N. (2020). The shallows: What the Internet is doing to our brains. WW Norton & Company, [en ligne], 10 octobre 2024.
  77. Sparrow, B., Liu, J., & Wegner, D. M. (2011). Google effects on memory: Cognitive consequences of having information at our fingertips. science, 333(6043), 776-778, [en ligne], 10 octobre 2024.
  78. École de Guerre Économique, Loik Jamon, (2022), Comment la guerre cognitive a gagné en popularité, [en ligne], 10 octobre 2024.
  79. Montag, C., & Reuter, M. (2017). Internet addiction (pp. 143-150). Cham, Switzerland: Springer International Publishing, [en ligne], 10 octobre 2024.
  80. Oulasvirta, A., Rattenbury, T., Ma, L., & Raita, E. (2012). Habits make smartphone use more pervasive. Personal and Ubiquitous computing, 16, 105-114, [en ligne], 10 octobre 2024.
  81. Meny, L. (2021). L’art de la guerre dans un monde hyperconnecté. Revue Défense Nationale, (HS4), 155-168, [en ligne], 10 octobre 2024.
  82. Bawden, D., & Robinson, L. (2009). The dark side of information: overload, anxiety and other paradoxes and pathologies. Journal of information science, 35(2), 180-191, [en ligne], 10 octobre 2024.
  83. Sweller, J. (1988). Cognitive load during problem solving: Effects on learning. Cognitive science, 12(2), 257-285, [en ligne], 10 octobre 2024.
  84. De Boisboissel, G., Giaume, L., & Trousselard, M. (2024). Ce que les neurosciences apportent aux militaires. Inflexions, (2), 129-137, [en ligne], 10 octobre 2024.
  85. Chen Hanghui [陈航辉] and Xia Yuren [夏育仁], “Social Media Warfare: A New Dimension of Information Age Wars” [“社交媒体战: 信息时代战争新维度”], PLA Daily [解放军报].
  86. Carley, K. M. (2020). Social cybersecurity: an emerging science. Computational and mathematical organization theory, 26(4), 365-381.

Quand les réseaux numériques modèlent nos perceptions et comportements

Depuis des centaines d’années, la capacité d’influencer les comportements humains confère un avantage conséquent à ceux qui la maîtrise. Cette aptitude permet aux « influenceurs » des réseaux sociaux de nos jours, mais aussi aux orateurs, tribuns et démagogues de tout temps, d’acquérir une « autorité » et du pouvoir sur une population donnée. Si cette science de l’influence est souvent restée associée au quatrième pouvoir « médiatique », elle est devenue pour de nombreux États l’un des principaux moyens stratégiques d’une part, de gestion des insurrections internes et, d’autre part, de pratiques « d’ingérences politiques, économiques et financières de puissances étrangères » ou de « guérillas 2.0 ».
Télécharger