Problématiques de transports Pt 2
Problèmes de transports pt1
Qui sommes-nous ?
Nous sommes des étudiants de divers cursus (stratégie territoriale, sociologie, droit, économie…) et avons créé Connexions, un projet qui se positionne comme un espace de réflexions et d’échanges constructifs.
Le projet se veut :
• Apolitique et Fédérateur : Dans une société polarisée, notre objectif est de promouvoir le débat, fédérer autour d’enjeux communs, en dépassant les clivages politiques.
• Instructif et Informatif : A travers les sujets traités, Connexions fait dialoguer les points de vue (universitaires et institutionnels), en s’appuyant sur des références chiffrées et normatives. Disposer de suffisamment d’informations, objectives et factuelles, est nécessaire pour se forger une opinion éclairée.
• Innovant et Réfléchi : Au-delà de la présentation des enjeux dans nos sujets traités, nous cherchons en plus à formuler des propositions réalistes, visant à nourrir une réflexion sur l’amélioration des politiques publiques.
• Humain avant tout : Au-delà des thèmes traités, Connexions est surtout un espace de réflexions individuelles et de rencontres. Chaque participant est invité à s’interroger avec les autres sur ce qu’il souhaite personnellement pour la société.
Votre voix compte !
THE DEVELOPING RELEVANCE OF ENVIRONMENTAL JUSTICE (PART II: An increasing plethora of responses to Environmental Justice)
By Harrison Cox, University College London
The movement’s organisation
The grassroots movement was effective because of its popularity, but its lack of organisation led to a disjointed approach, meaning that efforts were often unnecessarily duplicated. A more organised approach would have been more coherent and promoted its relevance.
The movement seems to have acknowledged this drawback. Following the upsurge of interest in the issues, the organisations working on EJ seem to have institutionalised themselves[1]. They became “Registered EJ Organisations (REJOs)”. This allowed them to secure consistent financial assistance,[2] and more importantly, the movement gained political legitimacy. These groups also gained legal ability as officially recognised representatives of the discriminated communities.
The US REJOs have also expanded their remit by developing alliances and combining their work with NGOs. This is notable given the historical differences between the EJ movement and NGOs, who have tended not to “engage with communities on the ground dealing with Environmental Justice”[3]. In a similar movement of combining efforts, the EJ Atlas was launched in 2014, offering an invaluable tool for these movements to coordinate to work more effectively. However, one could question how these grassroots movements can fit into an institutional framework in which discriminatory processes have historically dominated. To remain relevant, they must take care not to alienate the social origin of the movement in favour of a globalised broad approach.
The legal evolution
It was not until Clinton’s 1994 Federal Executive Order that legal provisions were implemented to address these issues in the US. This seems relatively late, given that the movement has been at the forefront of environmental demands since 1987. It is also remarkable that international instruments started to discuss this issue before the US addressed it. In 1992, the Rio Declaration recognised the inherent link between social and environmental issues. Principle 6 highlights this recognition by combining “the least developed and those most environmentally vulnerable”. Naturally, this does not refer directly to racial discrimination, but often, the least developed countries are those that suffered from extraction by colonial empires. EJ theories also figure in the Kyoto Protocol[4] by recognising different climate change responsibilities, the Aarhus Convention,[5] which offers solutions to address these issues through procedural rights and the Sustainable Development Goals (SDGs)[6].
Finally, a significant factor in environmental law is environmental impact assessments. These play a valuable role in promoting EJ. By guaranteeing public participation, they are giving local communities a say in the development of their environment and favouring better decision-making in protecting vulnerable communities. However, they are a limited EJ tool because they do not examine environmental effects on specific communities.
EJ is thus addressed throughout international instruments raising its relevance.
An increased relevance through affiliation
EJ has become more relevant through its affiliation with other vital movements in the environmental field.
This has already been evidenced by its legal representations being mainly instruments regarding sustainability (Rio, Kyoto, SDGs). Nationally, this is also the case as in the UK, the 1999 UK Sustainable Development Strategy has a guiding principle of “Ensuring a Strong, Healthy and Just Society”[7] with a focus on combatting poverty and social exclusion, leading to what Agyeman has coined “Just Sustainability”. This gives EJ an important supplement, as it was about distributing harm equally but not limiting harm’s occurrence, which is the objective of sustainability. Interestingly, this also gives an essential political platform as many NGOs and policy decisions focus on sustainability issues.[8] Thus, EJ has developed a form of mission hybridity[9], making itself more relevant in political discourse.
The movement has also been linked to environmental democracy. Firstly, through Procedural Environmental Rights,[10] which emerged following Agenda 21[11] and secondly, through the Aarhus Convention. These two procedures are interlinked, as Aarhus offers procedural rights to deal with environmental issues. This gives vulnerable communities opportunities to access information, allowing them to participate effectively and defend their rights in court. The Aarhus Convention also requires that they can access the courts to defend themselves without being prohibited due to prohibitive costs,[12] which is an essential consideration for vulnerable communities.
Finally, recognising environmental rights in the human rights discourse may give further weight to EJ arguments[13]. This is especially the case if combined with non-discrimination legislation relating to race. Although this gives increased relevance to EJ by allowing communities of colour to claim discrimination in their right to a healthy environment, and given how important environmental human rights are becoming, it is to be seen how this movement will adapt to the rights-based approach, specifically when considering the argument that the ‘human’ in human rights is a white, wealthy male[14] and not the discriminated communities of colour.
To conclude, EJ has evolved since its origins. It has gone from an unorganised movement addressing local issues in the US to a global movement affiliated with various other theoretical and practical approaches to addressing environmental concerns. This has made EJ much more relevant today than in the 1980s.
Bibliography
AC Perez and others, ‘Evolution of the EJ movement: activism, formalization and differentiation’ [2015] 10(10) Environmental Research Letters <https://iopscience.iop.org/article/10.1088/1748-9326/10/10/105002> accessed 30 November 2023
Anibal Quijano, ‘Coloniality and Modernity/Rationality’ [2007] 21(2) Cultural Studies 168, 171
Commonwealth of Massachusetts, EJ Policy of the Executive Office of Environmental Affairs, 2002
Dorceta Taylor, ‘The Rise of the EJ Paradigm’ [2000] 43(4) American Behavioral Scientist 508-580
Elizabeth Fisher, ‘The many forms of EJ’ Environmental Law: A Very Short Introduction (OUP 2017) 110
Executive Order, ‘Federal Actions to Address EJ in Minority Populations and Low-Income Populations’, (12898 1994), Federal Register, 59, 32
Friends of the Earth (FoE), ‘EJ: mapping transport and social exclusion in Bradford’ [2001]
G. Mitchell, The Messy Challenge of EJ in the UK: Evolution, status and prospects, (NECR273, 2019), Natural England Commissioned Reports
Groundwork UK, ‘Out of Bounds : Equity in Access to Urban Nature’ |2021]
Harris AP, “Toward a Law and Political Economy Approach to EJ” in Sumudu A Atapattu, Carmen G Gonzalez and Sara L Seck (eds), The Cambridge Handbook of EJ and Sustainable Development (Cambridge University Press 2021)
Jane Holder, ‘EJ in Everyday Green Spaces’, [2016] 81-85
Joshua Gellers and Chris Jeffords, ‘Toward Environmental Democracy?: Procedural Environmental Rights and EJ’ [2018] 18(1) Global Environmental Politics 99-121
Julian Agyeman and Bob Evans, “Just Sustainability’: The Emerging Discourse of EJ in Britain?’ [2004] 170(2) Environment and Development in the UK 155-164
Principles of EJ, The First People of Color Environmental Leadership Summit, 1991
Robert Bullard, ‘Overcoming Racism in Environmental Decision Making’ [1994] 36(4) <https://www.tandfonline.com/doi/abs/10.1080/00139157.1994.9929997> accessed 1 December 2023
Spencer Banzhaf and others, ‘EJ: The Economics of Race, Place, and Pollution’ [2019] 33(1) The Journal of Economic Perspectives 185-208
United Church of Christ Commission for Racial Justice. ‘Toxic Wastes and Race in the United States’ [1987]
[1] Perez (7), 2
[2] Perez (7), 5
[3] Perez (7), 7
[4] 1997
[5] 1998
[6] Ideas underpinning EJ are explicitly visible in SDGs, 1, 3, 5, 10 and 16.
[7] My emphasis
[8] Agyeman (2), 160
[9] Perez (7), 9
[10] Gellers, PERs and EJ, 2018
[11] Ibid
[12] Aarhus Costs protection – CPR 45, Part VII
[13] Harris (3), 467
[14] Ibid
The developing relevance of Environmental Justice (Part I : A developing globalised issue of Environmental ‘Injustice’)
By Harrison Cox, University College London
Harm stemming from environmental causes affects everyone. However, in the 1980s, grassroots activism in the United States argued and effectively proved that communities of colour were disproportionately affected by environmental harm, specifically the siting of pollutant activities. This idea developed into Environmental Justice (EJ). In the context of this essay, I will proceed according to the idea that EJ is “the equal protection and meaningful involvement of all people with respect to”[1] environmental laws. This highlights two key elements. First, it is related to protecting those who have suffered disproportionately under discriminatory pretences. Second, resolving the issue requires the active participation of all involved.
Since the 1980s, the concept has evolved; today, we see a significantly different idea of EJ. This raises the question of whether it is more relevant today than in the 1980s.
It will be shown that it is much more relevant today as the issue of environmental ‘injustice’ has become globally recognised (I), and the responses to this injustice have evolved, introducing themselves into mainstream politics (II).
Part I: A developing globalised issue of Environmental ‘Injustice’
To determine whether EJ is more relevant today, it is necessary to establish how the issue at the heart of EJ has evolved.
EJ’s origins
The discriminatory approach to distributing environmental harms is not contemporary. It can be stretched back to 1492 with Christopher Columbus’ discovery of the Americas[2]. It was later developed during colonialism[3]. This idea, advanced by Harris, is interesting as it provides a basis to analyse modern ‘injustice’. We see through Harris’ approach to law and political economy that the colonial history of discrimination is a structural limitation of society. Quijano suggests that humans have always considered themselves separate from the environment[4] and masters of anything non-human. This idea developed the racist approach to distributing environmental harm. We have preserved the ‘upside-down’ approach in which an anthropocentric view prevails of division between humans and nature — placing a disproportionate burden of environmental extraction on traditionally vulnerable groups.
In the 1980s, various events spearheaded the EJ movement to the forefront of environmental concerns. Notably, the 1987 United Church of Christ Report concluded that “race has been a factor in the location of commercial hazardous waste facilities in the United States”. This led to a considerable grassroots movement in the United States.
For some time, it remained a US-centred movement. This can be seen through the breadth of reports and literature published during that time focusing on US issues. For instance, the 1990 Greenpeace Report ‘Playing with Fire’ discussed by Bullard[5] identified that the demographic in communities with incinerators was 89% more people of colour than the national average. Bullard’s 1994 article further highlights the issues in the US, stating that the “geographic distribution of both minorities and the poor has been found to be highly correlated to the distribution of air pollution”.[6] The issue in the US was clear, and the evidence was strong; this led to a robust grassroots activism movement and numerous court victories[7]. However, the idea of EJ remained constrained – conceptually limited to the siting of high-level polluters near communities of colour and geographically limited to the US – limiting its relevance.
EJ’s development
Despite these constraints, signs of a future expansion are visible from its earliest forms. For instance, ‘The Principles of EJ’[8] states they are gathered to “begin to build a national and international movement”.[9] The issue of a discriminatory approach to environmental harm seems to stem from colonialism. Thus, this movement would rapidly expand beyond the US towards the former European empires.
Around the year 2000, the term ’environmental racism’ was adopted in the United Kingdom to refer to this idea of discrimination. The issue does not seem to have gained as much traction as it did in the US. Grassroots activism was not as strong in the UK, and people seemed unaware of the depth of the issue. Agyeman describes this as the ‘EJ Paradox’.[10] This point also highlights how differently EJ developed in Europe – a much more legal/policy concept – compared to the US.
Nevertheless, recognition of the problem eventually gained traction, as can be seen in the list provided by Agyeman.[11] A vast amount of reports and studies were conducted by various actors, all leading to the same conclusion that there was a profound issue of discrimination in the distribution of environmental harm in the UK. However, these studies did not necessarily investigate the racial factor. For instance, a 2001 Friends of the Earth report revealed that factory pollution disproportionately affected poorer communities[12]. The UK thus started with a broader social approach to EJ, considering ‘justice’ to be for all social issues, not specifically racial. This position has evolved, and the issue is recognised as a global source of concern, raising its relevance.
A global issue
Preserving colonial traditions has led to EJ being relevant across the planet to respond to the imperial, economic idea of extraction and exploitation. This point is illustrated by the finding that “Climate-related disaster losses, as % of GDP, are 4.3 times greater in low-income countries than in the high-income countries”.[13] Since 2010, the correlation between demographics and the location of large polluters has been widely recognised.[14] Recognition of the environmental ‘injustice’ makes EJ more relevant.
Furthermore, EJ’s concerns have expanded beyond pollution and the distribution of environmental harm. For instance, it is now concerned with access to green and blue spaces, as can be seen in the Groundwork UK report showing a clear link with racial disparities – exacerbated during the pandemic.[15] A developing social issue linked to access to green spaces is the idea of eco-gentrification, people being priced out of their homes because of the closeness to green spaces, deepening the ‘injustice’.
Furthermore, EJ plays a more critical role today because the issues it is dealing with have also become vital. As Harris argues, the abundance of fossil fuels has led to the exploitation of specific communities, notably indigenous and lesser developed countries. The exploitation of these is creating climate refugees[16]. EJ is no longer only concerned with limiting pollution but is concerned with the right of these people to have an environment. It is a deeper cause, making EJ more relevant today than in the 1980s.
To conclude, EJ is more relevant today because the issue has been recognised as global, and the movement is concerned with a wider breadth of issues. Furthermore, these issues are more profound.
Article written by Harrison Cox, President of Environnemental Law and Life Science Society (ELLS)
[1] Massachusetts – EJ Policy 2002, 2
[2] Agyeman, Just Sustainability, 2004, 156
[3] Harris, LPE approach to EJ, 2021, 457
[4] Quijano, Coloniality and Modernity/Rationality, 2007, 171
[5] Bullard, Overcoming Racism in Environmental Decision Making,1994
[6] Ibid, 11
[7] Perez, Evolution of the EJM, 2015, 1
[8] Principles of EJ, 1991
[9] My emphasis
[10] Agyeman (2), 157
[11] Ibid, 157-159
[12] FoE 2001
[13] The Messy Challenge of EJ, 2019, 4
[14] Banzhaf, Economics of Race, Place and Pollution, 2019, 186
[15] Groundwork 2021
[16] Harris (3), 466
Sénat et Décentralisation : enjeux des réformes territoriales en France

Sur ce deuxième quinquennat d’Emmanuel Macron, le Sénat apparait comme une institution particulièrement solide et constructive, face à la majorité relative de l’Assemblée Nationale et ses débats extrêmement polarisés. L’absence de majorité au Palais Bourbon permet ainsi à celui du Luxembourg d’apparaitre comme une garantie la stabilité institutionnelle. Le retour en force de cette institution pourrait être l’occasion de remettre au centre du débat public son rôle fondamental, celui de représenter les territoires.
En ce sens, le Sénat plaide pour une réforme structurelle de la gouvernance territoriale, une libre-administration des collectivités territoriales, qui, inscrite dans la Constitution, peine à être réellement respectée, même si des avancées notables ont eu lieu, la plus récente étant avec la loi 3 DS de 2022.
Les différents actes de la décentralisation peuvent être vus comme une reconnaissance de la doctrine tocquevillienne. Le Premier Acte est initié avec les lois Defferre de 1982-1983, qui ont marqué un tournant historique en transférant d’importantes compétences administratives, économiques et sociales aux collectivités territoriales (régions, départements, communes). Le Deuxième Acte se concrétise avec les lois de 2003-2004, et notamment la révision constitutionnelle de 2003, qui consacre la décentralisation dans la Constitution, et reconnaît le principe de libre administration des collectivités. Le Troisième Acte né dans les années 2010 (notamment la loi NOTRe de 2015), a poursuivi cette démarche en clarifiant les compétences des différentes collectivités et en renforçant le rôle des régions.
La nécessité de réformes courageuses en matière de décentralisation se pose d’autant plus que les collectivités territoriales sont confrontées à une vague de démissions de leurs élus. Qu’elles soient le reflet d’une tâche trop chronophage ou d’un sentiment d’insécurité face aux agressions, menaces ou intimidations, ces démissions d’élus locaux témoignent d’un manque d’un manque de soutien, d’accompagnement, de formation.
Des élus locaux nécessitant un accompagnement renforcé :
Depuis la loi du 27 février 2002, relative à la démocratie de proximité, le droit à la formation des élus est codifié dans le Code général des collectivités territoriales CGCT (Art. L2123-12 du CGCT pour les communes, Art. L3123-10 du CGCT pour les conseils généraux et Art. L4135-10 du CGCT pour les conseils régionaux). Ainsi, pour assurer le bon fonctionnement de collectivités territoriales, le renforcement de l’accompagnement des élus locaux s’avère fondamental. Souvent issus de la société civile, ils ont besoin d’une formation tout au long de leur mandat. Avec des responsabilités élargies du fait de la décentralisation, les élus locaux sont aujourd’hui des décideurs sur leur territoire, des acteurs de changement, dotés d’un pouvoir décisionnel renforcé. Un renforcement de leur formation, accompagnée d’une augmentation de leurs indemnités pourrait contribuer à limiter les désengagements voire les démissions. En ce sens, l’autonomie des collectivités territoriales peut être assurée sans pour autant faire diminuer la présence de l’Etat dans ses territoires. En outre, la question de la professionnalisation des élus locaux se pose dans le débat public contemporain. Du Maire de village au conseiller municipal d’une métropole, beaucoup d’élus locaux sont contraints de travailler à temps partiel pour pouvoir concilier leur emploi avec leur mandat, ce qui a des conséquences directes sur leurs revenus et de manière indirecte, à plus long-terme, sur leur retraite. Pour rappel, la législation actuelle n’impose pas que le conseiller municipal soit rémunéré.
Par ailleurs, la formation actuelle est assurée par une diversité d’organismes agréés par décision ministérielle : IEP, universités, associations de maire. Cependant, cette diversité d’organismes pose question sur un manque d’homogénéité des conditions de formation des élus, entrainant alors des dérives. Cette idée est d’autant plus appuyée par le fait que certains organismes ont plus qu’une proximité avec les partis politiques. A titre d’exemple, l’Institut de formation des élus locaux (IFOREL) est directement affilié au Rassemblement National. Libération avait notamment révélé que dans le cadre de l’IFOREL, des élus RN avaient bénéficié de séminaires dans des hôtels luxueux, à la Baule notamment. Ce lien de proximité est problématique à au moins deux égards. D’abord, un organisme affilié à un parti aura peut-être tendance à dispenser une formation pouvant manquer d’impartialité, en adéquation avec la ligne idéologique du parti. Mais surtout, l’exemple de l’affaire révélée par Libération pose question au regard de l’utilisation de l’argent public, qui normalement destiné à une formation, est en grande partie allouée à un séjour aux allures de vacances. Ainsi, dans l’objectif de proposer aux élus un accompagnement de meilleure qualité, tout en poursuivant une logique d’intérêt général, un renforcement du contrôle de l’Etat sur ces organismes, bien qu’agréés, s’impose.
Revoir le mille-feuille administratif au profit de l’intercommunalité ?
Le paysage administratif français, riche de sa complexité et de ses nuances, est souvent qualifié de « mille-feuille ». Ce terme, évocateur, fait référence à la superposition des différentes couches administratives – de la commune à la région en passant par le département et l’intercommunalité. Toutefois, la pertinence et l’efficacité de cette stratification sont de plus en plus mises en doute. Le besoin de simplification, d’agilité et de proximité s’impose. À ce titre, le renforcement des compétences des intercommunalités au détriment du département apparaît selon le rapport Attali comme une solution adaptée. Le rapport Attali de 2008, dans sa décision 259, avait même préconisé la suppression du département dans un délai de dix ans, au profit des intercommunalités. Divers arguments plaidant pour le renforcement des intercommunalités peuvent être mis en avant.
Tout d’abord, l’intercommunalité favorise la rationalisation des coûts. L’augmentation des compétences des intercommunalités favorise une réelle mutualisation des moyens. Cette mutualisation pourrait conduire à une réduction des coûts grâce à une meilleure allocation des ressources, favorisant ainsi l’efficacité administrative et une meilleure gestion des deniers publics. En outre, l’intercommunalité, permet de créer un véritable lien de proximité. Avec une échelle plus réduite que le département, l’intercommunalité est en conséquence bien plus proche des préoccupations locales. Par conséquent, l’intercommunalité permet de répondre de manière plus précise et adaptée aux besoins de la population. Sa taille et sa flexibilité peuvent faire de l’intercommunalité un véritable laboratoire d’innovation afin d’expérimenter, de tester et déployer des solutions novatrices à une échelle moindre, avant qu’elles ne soient éventuellement adoptées à une échelle plus large.
Cependant, l’idée de la suppression du département (impliquant un transfert de compétences à l’intercommunalité) a été jugée trop complexe à mettre en œuvre. D’abord sur le fond, une telle suppression aurait impliqué un chamboulement de la machine administrative française. Puis, sur la forme, une telle suppression aurait nécessité une révision constitutionnelle, le département étant prévu à l’article 72 de la Constitution. Cependant, le paradigme disruptif apporté par le rapport Attali a été reconnu. En effet, à l’issue de sa publication, le département a vu ses prérogatives évoluer. S’il disposait jadis de la clause générale de compétence, celle-ci a été supprimée par la loi portant sur la Nouvelle Organisation Territoriale de la République du 7 août 2015, dite loi « NOTRE ». Désormais, seules les communes disposent de cette clause. En parallèle, la loi NOTRE a également permis le transfert de certaines compétences cette fois au profit de la région, notamment en matière de transports routiers, scolaires et ferroviaires.
La loi 3DS, fruit d’un compromis entre le Sénat et le gouvernement :
Essentiellement écrite par le Sénat, la loi 3 DS tente de répondre aux grands défis territoriaux précédemment évoqués (accompagnement des élus locaux, complexité de l’organisation administrative) mais plus généralement aux crises que le pays a traversées (gilets jaunes, Covid-19). Cette loi a fait l’objet d’intenses négociations entre le gouvernement et le Sénat. Lors de l’examen en commission mixte paritaire, 383 amendements ont été adoptés et le texte est passé de 83 à 158 articles. La loi renforce alors le pouvoir réglementaire des collectivités et ont donc plus de latitude pour fixer les règles qui relèvent de leur domaine de compétence. En ce sens, la loi 3 DS est une réponse au projet de loi constitutionnelle du 29 août 2019 visant à consacrer constitutionnellement le principe de différenciation des collectivités territoriales et visant ainsi à prolonger le droit d’expérimentation prévu à l’article 72 de la Constitution. La loi prévoit par ailleurs une recentralisation à titre expérimental du RSA dans les départements volontaires ainsi qu’un allègement des obligations déclaratives des élus locaux auprès de la Haute Autorité pour la transparence de la vie publique (HATVP).
Conclusion : Quelles pistes de réformes constitutionnelles permettant au Sénat de jouer pleinement son rôle de « Chambre des Territoires » :
Si la loi Notre ou 3DS ont révélé des avancées en matière de décentralisation, celles-ci restent limitées sur le fond comme sur la forme. Afin de sortir du flou juridique de la « libre-administration », le Sénat plaide alors depuis de nombreuses années pour obtenir un pouvoir de veto et pour la reconnaissance constitutionnelle d’une véritable autonomie fiscale aux collectivités territoriales.
Sur le Pouvoir de Veto du Sénat sur les Lois Affectant de Manière Significative les Collectivités Territoriales :
La modification des articles 44 et 45 de la Constitution est envisagée pour renforcer le rôle du Sénat en tant que représentant des collectivités territoriales. Actuellement, bien que le Sénat puisse proposer et amender des lois, il n’a pas de pouvoir de veto absolu sur la législation. En cas de désaccord entre les deux chambres du Parlement, c’est l’Assemblée nationale qui a le dernier mot. L’idée serait alors d’accorder au Sénat un droit de veto ou un pouvoir consultatif accru sur les lois qui affectent directement les collectivités territoriales. Autrement dit, si une loi était proposée ayant un impact significatif sur les collectivités, le Sénat aurait le pouvoir de la bloquer ou d’exiger que ses recommandations soient prises en compte. Dans cette configuration, le Conseil constitutionnel jouerait un rôle essentiel en déterminant la notion d' »affection significative », notamment en émettant des avis.
Sur l’autonomie Fiscale des Collectivités Territoriales :
En réponse à la suppression de certains prélèvements dont les ressources revenaient aux collectivités, une modification de l’article 72-2 de la Constitution pourrait permettre aux collectivités de prélever l’impôt directement. Les collectivités pourraient alors bénéficier d’un véritable pouvoir de création d’impôts locaux et auraient plus de liberté pour fixer les taux de prélèvement dont les ressources leur reviennent, comme c’est le cas avec la taxe foncière. Ces mesures, dans leur ensemble, serviraient à renforcer l’autonomie financière et la gestion des ressources des collectivités territoriales.
https://www.publicsenat.fr/actualites/institutions/senatoriales-2023-quel-est-le-role-du-senat
https://www.publicsenat.fr/dossier/elections-senatoriales/page/4
Tocqueville et la décentralisation – Persée (persee.fr)
Réforme constitutionnelle 2019 pour un renouveau de la vie démocratique | vie-publique.fr
Loi 3DS décentralisation déconcentration collectivités locales | vie-publique.fr
La formation des élus, l’atout bénéf du Rassemblement national – Libération (liberation.fr)
Urbanisme – Etude comparative de la verticalité urbaine à Paris et New York
Si jusqu’à la fin du 19e siècle, les paysages urbains se composaient essentiellement de maisons ou d’immeubles d’une poignée d’étages, ceux-ci deviennent de nos jours de plus en plus marqués par la présence de bâtiments de très grande hauteur, que l’on nomme plus communément « gratte-ciels ». Les experts définissent un gratte-ciel comme « une tour de grande taille », sans pour autant réussir à s’accorder sur ses caractéristiques plus précisément. La société allemande de recensement des gratte-ciels Emporis émet par exemple l’avis que ceux-ci doivent mesurer au moins 100 mètres de haut et comporter plusieurs étages pour recevoir cette dénomination. D’autres sources avancent des critères plus rigoureux : par exemple, 150 mètres de hauteur pour 40 à 50 étages minimum. Il s’agit donc d’une définition assez subjective et abstraite, dont le sens peut évoluer selon l’époque et le lieu.
La présence – ou non – de tels édifices ne se fait pas n’importe où sur le territoire, comme nous le verrons dans cet article. Elle répond notamment à des attentes économiques, mais également historiques et culturelles. Loin de faire consensus, les gratte-ciels – et l’inexorable élévation des bâtisses modernes de manière générale – scindent l’opinion publique en deux camps. Les gratte ciels jouissent en effet d’une certaine popularité aux Etats-Unis ; un succès contrasté par le constat que la plupart des villes européennes continuent à les bouder. Avec pas moins de 290 gratte-ciels sur son territoire, New-York symbolise sans doute le mieux la confiance américaine dans le progrès technique et dans l’innovation en matière d’urbanisme. A l’opposé, Paris se distingue pour son urbanisme plus traditionnel, ancré dans un contexte historique bien spécifique et reconnu pour ses nombreux monuments encerclés d’immeubles Haussmanniens du 19e siècle. Les quelques grandes tours apparues sur le sol de la capitale ou à proximité le siècle passé ont, à ce titre, fait l’objet d’un traitement et d’un aménagement particuliers de la part des politiques publiques. Je tenterai donc de répondre dans cette étude comparative à la question suivante : comment expliquer la différence de représentation des gratte-ciels entre Paris et New-York ?
La création de Paris remonte aux alentours de 259 avant J.-C., lorsque la tribu des Parisii, un peuple de pêcheurs gaulois, s’installe sur la rive droite de la Seine et commence à y construire des habitations aux environs de l’actuelle île de la Cité. A l’époque, et jusqu’au Moyen-Age, la rive gauche était laissée vierge de toute construction en raison du risque de crue de la Seine, qui aurait pu engendrer des dégâts. Puis, en 52 avant notre ère, Jules César met la main sur la ville à l’occasion de sa campagne militaire en Gaulle et y fonde Lutèce. Cette nouvelle ville suit les grands standards romains de l’époque en matière d’urbanisme : elle est notamment construite autour d’un cardo maximus, désignant l’axe nord-sud majeur qui structure la cité, en l’occurrence la rue Saint-Jacques, et la plaçant au cœur de la vie économique et sociale de la cité. Le forum, placé au centre de la ville, s’étendait de la rue Saint-Jacques au boulevard Saint-Michel, et de la rue Cujas à la rue Malebranche.
Les siècles suivant la chute de l’empire romain, Paris connaît diverses invasions et incendies modifiant plus ou moins durablement sa structure. Néanmoins, la ville continue de se développer ; comme de plus en plus de monde s’y installe, Paris s’expand progressivement, notamment sur la rive droite. Ville résolument chrétienne, des églises et autres édifices religieux y voient le jour (pour la plupart encore visibles aujourd’hui) mais aussi des monuments liés au pouvoir, à la culture ou à la mémoire de Paris et de la France. La construction des habitations ne suit pas de grands plans urbanistiques, mais se fait davantage par improvisation, là où il reste de la place, donnant souvent naissance à des rues étroites et tortueuses. Tous les problèmes engendrés par cette organisation de l’espace et accentués par le temps sont corrigés par le baron Haussmann sous l’impulsion de Napoléon III dans les années 1850. Ses travaux de modernisation de Paris consistent à mettre en place un système d’égouts, faire disparaître de nombreux quartiers insalubres et construire de grandes avenues pour fluidifier la circulation. La capitale intra-muros a globalement assez peu changé depuis, malgré l’intensification des progrès techniques et architecturaux survenus au XXe siècle.
Maintenant, traversons l’Atlantique pour nous intéresser au cas nord-américain. En 1625, alors que le nouveau continent est découvert depuis déjà plus d’un siècle, des émigrés hollandais fondent New Amsterdam sur les terres des Algonquins, des populations autochtones, sur la côte Est des Etats-Unis. Quarante ans plus tard, les Anglais conquièrent la ville et la renomment New-York, en hommage au duc d’York. New-York connaît alors une croissance démographique soutenue jusqu’en 1807, date à laquelle les 123 000 habitants la composant font d’elle la plus importante ville des Etats-Unis, pays devenu indépendant vis-à-vis des Anglais quelques années plus tôt. Puis, aux XIXe et surtout XXe siècles, les Etats-Unis deviennent une destination rêvée pour de nombreux Européens et New-York accueille toujours plus d’immigrés, passant de 500 000 habitants en 1850 à 3,5 millions en 1900.
New-York se développe en réponse à cet afflux de population et les premiers gratte-ciels de l’histoire voient le jour. Entre 1900 et 1920, pas moins de 500 tours sont construites rien que sur l’île de Manhattan, symboles de la croissance économique fulgurante et de la révolution intellectuelle américaines des années folles. Parmi les plus emblématiques, le Flat Iron Building est inauguré en 1902, puis le Chrysler Building en 1930 et l’Empire State Building en 1931 qui, du haut de ses 443 mètres, s’impose comme le plus grand monument au monde de l’époque. La construction de hautes tours a notamment été rendue possible par la mise en place d’un squelette de poutrelles en fer, en lieu et place de la maçonnerie traditionnelle davantage adaptée aux bâtisses de moindre taille. D’autres innovations techniques ont également permis de construire en hauteur à moindre coût, ce qui s’est avéré économiquement profitable pour les constructeurs immobiliers. L’invention de l’ascenseur hydraulique en 1864 a aussi facilité l’attractivité des immeubles avec beaucoup d’étages.
La construction de gratte-ciels s’intensifie à New-York dans les années 60 et 70, poussée notamment par la concurrence entretenue avec Chicago. L’édification de nouveaux gratte-ciels dans le downtown avec par exemple le World Financial Center et ses deux tours jumelles dans la pointe Sud de Manhattan, achève de confirmer la prépondérance new-yorkaise sur le continent américain sur les plans économique et culturel tout au long du XXe siècle. Encore aujourd’hui, de nombreux chantiers de gratte-ciels se poursuivent à New-York, à l’instar du One World Trade Center, actuelle plus haute tour de New-York (541 mètres) ou des nouvelles « tours allumettes », tel le 432 Park Avenue (tour résidentielle).
D’un point de vue général, les villes de Paris et New-York partagent à l’heure actuelle de nombreuses similitudes. Ces deux métropoles globales bénéficient notamment d’une très forte intégration dans les réseaux de la mondialisation, les rendant immensément puissantes et attractives sur la scène internationale, à en croire les résultats du global power city index de la fondation Mori au Japon publiés en 2013. Ainsi, New-York et Paris seraient respectivement les 2e et 4e villes les mieux connectées au monde, grâce à leurs réseaux de transports et de communications (Paris souhaite notamment renforcer sa force dans ce domaine en aménageant le Grand Paris). Également, New-York se hisse à la première place en termes d’image, d’attractivité, de puissance et d’opportunités, tandis que Paris obtient également de très bons classements dans ces domaines (entre la 3e et la 5e place). La métropolisation de ces villes, à savoir la concentration du pouvoir, peut notamment s’expliquer par leur accès direct à un réseau maritime ou fluvial (l’océan Atlantique pour New-York et la Seine pour Paris), mais aussi par le processus historique de création et de développement de ces villes : Paris, la capitale, a hébergé le pouvoir politique du pays pendant des siècles, tandis que New-York constituait la première terre d’accueil des migrants européens après leur passage par Ellis Island.
Néanmoins, de nombreuses divergences apparaissent également entre ces deux « villes-monde », notamment d’un point de vue architectural et urbanistique. Là où Paris se compose majoritairement d’immeubles haussmanniens – conséquence d’une volonté des dirigeants de moderniser la capitale tout en respectant son patrimoine historique – le paysage urbain de New-York est, quant à lui, davantage construit en vertical, en atteste la Skyline, symbole du modernisme et du rêve américain. New-York ayant vu le jour bien plus récemment que Paris, la présence de gratte-ciels lui a permis en un sens de se créer un style urbanistique original, sans pour autant dénaturer une quelconque architecture qui aurait déjà été établie.
Pour autant, la construction de gratte-ciels ne peut pas se résumer à une simple recherche esthétique pour renforcer le soft power new-yorkais. L’engouement pour les gratte-ciels à New-York et aux Etats-Unis dès le début du XXe siècle reflète l’évolution de la société américaine de l’époque. En effet, la mutation d’une grande partie de la classe ouvrière en cols blancs et la place toujours plus importante des entreprises de service dans l’économie new-yorkaise conduisent à la prolifération de gratte-ciels, servant de centres décisionnels des grandes entreprises. Ces tours permettent ainsi de concentrer de nombreux bureaux en très peu d’espace, afin de densifier les lieux économiques stratégiques. La Skyline new-yorkaise, désignant cette nouvelle chaîne de tour au cœur de la ville, reflète alors la compétitivité des entreprises. Le géographe Le Goix définit cet espace urbain comme une « cité du contrôle », composé de CBDs, de bureaux et d’espaces contrôlés et sécurisés.
Abriter des gratte-ciels sur son territoire constitue en effet un enjeu stratégique majeur pour de nombreuses villes contemporaines dans le monde, notamment aux Etats-Unis, mais aussi en Chine, à Taïwan ou aux Emirats Arabes Unis. De tout temps, la course à la hauteur obsède les hommes, non seulement dans un souci de prestige, mais aussi afin de se rapprocher des cieux et donc de Dieu, comme le montre la construction de cathédrales. De nos jours, la conquête du ciel continue et se rapproche de son dessein avec l’édification de tours toujours plus hautes. D’un point de vue pratique, les gratte-ciels répondent au problème du manque d’espace urbain et à l’inflation foncière engendrée dans les villes à forte densité. Cet argument ne peut néanmoins pas nous satisfaire lorsque l’on a conscience du fait que New-York est moins dense que Paris, et ce malgré ses nombreuses tours. New-York est en effet beaucoup plus étalée, notamment parce qu’occuper le centre ne constitue pas une priorité pour les populations, qui ont tendance à s’installer en banlieue et à prendre leur voiture tous les matins pour se rendre au travail dans le centre (migrations pendulaires).
Les gratte-ciels présentent en effet également un enjeu de pouvoir majeur. Leur architecture doit notamment servir de démonstration de richesse et de capacité d’investissement, mais aussi de maîtrise technologique et de dynamisme économique et industriel de la part de leurs constructeurs. L’objectif pour l’entreprise est d’envoyer une image positive d’elle-même, de la ville ou du pays, afin d’attirer les visiteurs et les investisseurs étrangers. Ainsi, à New-York, la Skyline reflète la réussite économique de la ville, boostant l’attractivité de cette dernière et contribuant à la hisser au top des classements internationaux. Cette chaîne de tours mondialement connue, véritable outil de construction identitaire, constitue à ce jour l’une des caractéristiques majeures de New-York attirant chaque année des millions de touristes. Les gratte-ciels peuvent aussi permettre aux entreprises en leur possession de se distinguer de leurs concurrents et de se construire une image de marque. En outre, de nombreuses œuvres cinématographiques, comme King-Kong paru en 1933, ont indirectement mis à l’honneur certains gratte-ciels (ici, l’Empire State Building) et contribué à leur forger une solide réputation.
Malgré les avantages énumérés plus haut apportés par les gratte-ciels, de nombreuses capitales et grandes villes européennes refusent d’en construire sur leur sol. C’est le cas notamment de Paris qui, à cause de sa très forte densité de population, ne dispose plus de l’espace suffisant pour accueillir de gigantesques tours. La seule solution consisterait à détruire certains immeubles ou monuments pour libérer de la place, une action qui rencontrerait naturellement un fort mouvement de protestation des habitants concernés et des défenseurs de l’architecture parisienne. Au contraire de New-York, Paris s’est construite à une époque à laquelle les avancées techniques ne permettaient pas de construire de grandes tours, au risque qu’elles s’effondrent. Également, le besoin d’optimisation d’espace se faisait moins ressentir à l’Antiquité et au Moyen-Age dans la capitale : elle accueillait moins d’habitants et pouvait toujours s’agrandir en cas de besoin. Aujourd’hui à New-York, les locaux et appartements dans les gratte-ciels ont l’avantage de coûter moins cher en raison de leur offre importante dû au gain d’espace. A noter aussi que certains sols parisiens trop friables ne pourraient pas supporter les fondations de colosses de verre ou de béton.
Paris ne souhaite pas non plus de « Bruxellisation » de son territoire, c’est-à-dire de transformation brutale de son patrimoine urbain par la dissémination de grandes tours un peu partout, afin de préserver son paysage et son patrimoine culturel et historique. Ce terme fait référence à l’expérience vécue à Bruxelles où, dans les années 60, le manque de restrictions concernant l’uniformisation de l’architecture a conduit à l’édification de bâtiments modernes, voire de tours, à faible valeur esthétique au milieu d’habitations plus traditionnelles. A une époque où le tourisme se développe à grande échelle grâce à la moyennisation de la société française depuis plusieurs décennies et de la hausse des standards de vie des habitants dans de nombreux pays du monde (par exemple la Chine), il convient pour Paris de rester culturellement attractive. Rien qu’en 2019, Paris et la région Ile-de-France ont accueilli 50,6 millions de visiteurs, principalement venus pour visiter des musées et des monuments (69%), se promener en ville (67%) et faire du shopping (39%), générant 21,9 milliards d’euros de recettes. Paris est la 6e ville la plus touristique du monde grâce à son importante offre culturelle, mais aussi grâce à l’atmosphère qu’elle souhaite véhiculer : celle d’une ville romantique chargée d’histoire. Construire des gratte-ciels en plein centre-ville dénaturerait les lieux, en plus de transmettre une image de modernisme conformiste contraire aux attentes des touristes.
Néanmoins, il serait faux d’affirmer que la capitale a refusé toute construction de gratte-ciels : le quartier de la Défense, en périphérie de Paris, en est le contre-exemple parfait. Chaque matin, l’équivalent de la ville de Reims débarque à la Défense, actuellement le plus grand centre d’affaires d’Europe en termes de superficie, pour y effectuer sa journée de travail. La Défense héberge pas moins de 500 entreprises, dont les sièges sociaux de très grandes comme Total, et 61 tours de plus de 100 mètres de hauteur, ce qui fait de ce centre d’affaires le 4e le plus compétitif du monde derrière ceux de Londres, New-York et Tokyo. Au fur et à mesure du développement du quartier dans la seconde moitié du XXe siècle, les plafonds des hauteurs des bâtiments sont réhaussés par l’EPAD (établissement public visant à aménager la Défense), suscitant la colère d’une partie de l’opinion publique qui juge les tours trop hautes et trop visibles depuis Paris intra-muros. De nombreux projets ont notamment été avortés pour des raisons financières mais également politiques, l’opinion française se montrant souvent défavorable à l’érection d’immeubles de grande hauteur. Finalement, le quartier de la Défense reflète la puissance économique de Paris – développée plus haut – et de la France en général, sans pour autant dénaturer le patrimoine historique de la capitale en s’implantant en plein cœur de la ville.
En fin de compte, les villes de New-York et Paris ont suivi des trajectoires très différentes. Si la première fait des gratte-ciels et de la modernité en général le fer de lance de son développement économique et de son pouvoir d’attraction, la seconde mise davantage sur son héritage historique et son architecture authentique pour séduire autant les touristes que les investisseurs. Un compromis semble cependant avoir été trouvé par la capitale ces dernières décennies entre préservation de son patrimoine millénaire et nécessité de compétitivité des entreprises nationales contemporaines, avec l’élaboration du quartier d’affaires de la Défense. Dans un contexte de réchauffement de la planète, construire en hauteur peut en outre éviter l’étalement urbain et permettre une moindre utilisation des transports (proximité des activités) et donc émettre moins de CO2.
Mener cette recherche m’a permis de mieux comprendre les enjeux contemporains liés à la construction de gratte-ciels. Loin de répondre seulement à une logique de réduction des coûts dans un contexte de forte densité urbaine, les gratte-ciels servent aussi et surtout à impressionner celui qui pourrait potentiellement constituer le client de l’entreprise ou de la ville/du pays. C’est pour cette raison que les architectes redoublent d’imagination pour offrir à notre vue des tours toujours plus hautes, mais aussi plus originales. Il n’est plus rare d’observer de nos jours des gratte-ciels torsadés, construits en bois, en forme de U, d’ADN ou de pointe de stylo plume… La Dynamic Tower de Dubaï, une fois achevée, pourra même tourner sur elle-même ! Cette démarche m’a également appris l’importance du contexte historique dans les choix des politiques publiques en matière d’urbanisme. New-York doit notamment sa forte concentration de gratte-ciels sur son sol en raison de sa création tardive : la construction de tels édifices, loin d’altérer l’essence de la ville, est venue accompagner son évolution économique et démographique vers la voie de la modernité.

Bibliographie :
- Firley Eric, Honnorat Philippe, et Taudière Isabelle. La tour et la ville : manuel de la grande hauteur. Marseille : Parenthèses. 2011.
- Flowers, Benjamin Sitton. Skyscraper the politics and power of building New York City in the twentieth century. Philadelphia : University of Pennsylvania Press. 2009.
- Bourdeau-Lepage, Lise. « Introduction. Grand Paris : projet pour une métropole globale », Revue d’économie régionale et urbaine (ADICUEER (Association)). 2013, août no 3. p. 403‑436.
- Turquier, Barbara. « L’édification du gratte-ciel, motif du cinéma d’avant-garde américain », Transatlantica. 2011, vol.2.
- Didelon, C. « Une course vers le ciel. Mondialisation et diffusion spatio-temporelle des gratte-ciel », Mappemonde (2000-2003). 2010, vol.3 no 99. p. 1‑17.
- Ahlfeldt, Gabriel M. et Jason Barr. « The economics of skyscrapers: A synthesis », Journal of urban economics. 2022, vol.129. p. 103-419.
- Barr, Jason. « Skyscrapers And Skylines: New York And Chicago, 1885-2007 », Journal of regional science. 2013, vol.53 no 3. p. 369‑391.
1987 : Quand la déconnexion avec les réalités économiques atteint son paroxysme
Lundi 19 octobre 1987 : l’indice Dow Jones perd 22,6 % de sa valeur, soit la pire séance jamais enregistrée pour Wall Street. Surnommé « the black Monday », ce krach n’a paradoxalement pas eu de répercussions immédiatement néfastes sur l’économie réelle, contrairement au krach de 1929. Cette crise a été causée par des phénomènes macroéconomiques, tels que les variations de taux de change avec le dollar mais également par des nouvelles innovations qui sont mises en application sur les marchés financiers tels que les algorithmes de trading. Dans ce reportage, nous allons nous pencher précisément sur les facteurs de cette crise, mais également analyser la réponse de la FED.
Une conjoncture précédant la crise marquée par des variations importantes du dollar
Une politique désinflationniste initiée par Paul Volcker :
Il convient de rappeler le contexte de cette crise. Dans les années 1970, l’économie américaine est marquée par la stagflation, c’est-à-dire une forte inflation combinée à une faible croissance. La fin de la convertibilité or-dollar, décidée par Richard Nixon le 15 août 1971, a entrainé la mise en place d’un système de changes flottants, faisant évoluer la valeur des monnaies selon l’offre et la demande. Ce système s’est révélé pervers pour les Etats-Unis puisque le dollar a été confronté à plusieurs dévaluations, générant de l’inflation. Cette inflation a également été causée par les chocs pétroliers de 1973 et 1979, faisant passer de 1,3 à plus de 30 dollars le prix du baril entre le début et la fin des années 1970, ce qui a lourdement impacté la production des entreprises du secteur secondaire. Si l’on donne des chiffres précis, le taux d’inflation en 1974 était aux alentours de 10 % et le taux de croissance était de -2 %, soit à un niveau négatif. En août 1979, Paul Volcker est nommé par Jimmy Carter président de la FED. Il mène alors une politique de lutte contre l’inflation, afin de redonner de la valeur au dollar. Pour cela, il fait passer les taux au jour le jour de 11 % à plus de 20 %, c’est-à-dire que le prix de l’argent prêté par la Banque centrale américaine aux établissements de second rang pendant 24 heures étaient de plus de 20 %, ce qui limitait forcément la création monétaire en dollars, entrainait sa rareté et par conséquent augmentait sa valeur. La création monétaire prévue pour le rachat de devises étrangères devenait par conséquent plus limitée.
Une désinflation excessive :
Sur un plan purement monétaire, cette politique, s’est révélée efficace : en 1980, le taux d’inflation était d’environ 14 %, il n’était plus que de 3 % en 1983. Cette appréciation fulgurante du dollar au détriment des autres monnaies qui se voyaient alors dévaluées a alors débouché sur un accord monétaire entre les principaux pays du G7 (Etats-Unis, Royaume-Uni, France, Japon et RFA) le 22 septembre 1985, les Accords du Plaza. Plusieurs milliards de dollars sont injectés sur le marché monétaire, ce qui fait baisser mécaniquement sa valeur. Ainsi, à la fin de l’année 1986, le dollar avait effacé tous ses gains et avait retrouvé son niveau de 1979. Les accords du Plaza, censés limiter l’appréciation du dollar, ont eu des effets excessifs, dans le sens qu’ils ont créé un cercle vicieux inflationniste pour le dollar. Pour contrer cette nouvelle dépréciation du dollar, les pays du G5, accompagnés du Canada optent pour la stratégie inverse de celle conclue au Plaza, en signant les Accords du Louvre le 21 et 22 février 1987, correspondant à une politique de renforcement de la valeur du dollar. Cependant, ces accords ne parviennent pas à enrayer la dépréciation de la monnaie américaine. L’échec de cet accord, a alors des conséquences sur les rendements du marché obligataire américain. En effet, la hausse de l’inflation, entraine une diminution des taux d’intérêts réels, qui rappelons-le se calcule approximativement par le taux d’intérêt nominal soustrait du taux d’inflation. Par conséquent, durant les mois précédent le krach, les taux d’intérêts nominaux ont augmenté considérablement, le bond du trésor américain sur 10 ans atteint 9,5 %. La dépréciation du dollar a des effets bénéfiques sur la croissance et permet de dynamiser les exportations. En effet, si la valeur du dollar diminue par rapport au franc par exemple, il faudra moins de francs pour obtenir un bien en dollars, ce qui les produits américains plus compétitifs. Cependant, cette hausse de la compétitivité des produits américains ne permet pas de compenser les pertes causées par la dévaluation du dollar, ce qui se traduit par une hausse du déficit commercial. L’annonce des chiffres du déficit commercial américain le 16 octobre est d’ailleurs considérée comme l’un des principaux éléments déclencheurs du krach.
Une crise endogène
Une crise favorisée par la dérégulation :
Par la suite, il est nécessaire de comprendre le contexte de l’époque. Depuis l’arrivée au pouvoir de Ronald Reagan en 1981, les Etats-Unis connaissent une période de libéralisation, dans le sens d’un recul voire d’une absence d’intervention de l’état sur les marchés financiers. Cette politique favorise alors le développement de produits financiers ou de nouvelles opérations. Par la suite, des opérations font leur apparition grâce à l’informatisation de la finance, marquée par les débuts des programmes de trading. Des algorithmes avaient été créés et programmaient des ordres de vente et d’achat automatique. Les programmes fonctionnaient alors avec des stop loss, c’est-à-dire des ordres de vente automatique afin de protéger le capital. Cependant, à cette époque, étant donné que les programmes étaient encore peu développés et similaires, leur fonctionnement avait alors tendance à intensifier les fluctuations des cours de bourse, notamment baissières. L’autre apparition importante était celle de la portfolio insurance, dont l’objectif était de protéger le capital des investisseurs. L’idée est d’organiser une fusion entre un portefeuille d’actions et un contrat de vente, une option put. En cas de croissance du marché les gains générés étaient moins importants que la hausse des cours, du fait de la perte de la prime dans le cadre de l’option. Pour en connaître plus sur le système des options, je vous invite à regarder la vidéo consacrée à ce sujet. L’avantage était que si les gains en cas de hausse du marché étaient moins importants, les pertes en cas de baisse étaient amoindries par la prime de l’option. Il s’agissait en fait d’un arbitrage visant à répartir les risques.
Un stop-loss ayant favorisé une crise uniquement financière :
Le stop-loss était marqué par des inconvénients pour les investisseurs. Le premier était qu’à cette époque, le marché de ce type de produits était oligopolistique, ce qui mettait les établissements bancaires dans une position de Price Maker et non de Price Taker comme sur un marché concurrentiel. En effet, sur un marché concurrentiel, caractérisé par une atomicité de l’offre et de la demande, les acteurs, nombreux et étant des atomes, ne pouvaient pas avoir d’influence sur le marché et par conséquent, infléchir les prix à la hausse ou à la baisse. Par conséquent, à cette époque, les établissements bancaires fixaient en quelque sorte à leur guise les conditions du marché, comme le montant de la prime ou les conditions d’échéance. Ainsi, en cas de baisse massive des cours, l’investisseur par ces conditions de marché peu avantageuses, n’a pas son capital réellement protégé et c’est ce qui s’est produit durant le krach d’octobre 1987. Les réponses institutionnelles ont été immédiates. La FED, la banque centrale américaine, joue son rôle de prêteur en dernier ressort et inonde le marché de liquidités. Mais la particularité de ce krach est que les conséquences immédiates sur l’économie réelle sont quasiment nulles. En effet, le taux de croissance en 1987 était de 3,5 % et a même connu une accélération l’année suivante en grimpant en 1988 à 4,2 %. Après le krach, les autorités ont décidé de réguler le fonctionnement des programmes de trading, avec l’instauration de coupe-circuit, en cas de baisse brutale des cours. Cependant, à plus long-terme, à l’aube des années 1990, face à l’inflation engendrée par la politique de la FED, cette dernière a alors été contrainte de relever ses taux, ce qui a ralenti la croissance de l’économie américaine. De 3,5 % en 1989, elle s’élevait à 4,2 % l’année précédente.
Cet épisode de 1987 révèle les effets néfastes qu’engendre la dérégulation et l’absence d’intervention de l’état sur les marchés. Cette libéralisation, qui a débuté sous Nixon avec la fin des taux de change fixe, a engendré un bouleversement du marché monétaire mondial et le dollar a connu successivement des phases de dévaluation et de renforcement, qui a impacté également les autres monnaies ainsi que le pouvoir d’achat des ménages. Puis, avec l’arrivée au pouvoir de Reagan, les Etats-Unis connaissent durant les années 1980, une période de dérégulation financière et d’euphorie sur les marchés. Les autorités publiques, refusant de reconnaitre le risque de formation d’une bulle spéculative, laisse cette dernière éclater. Paradoxalement, le marché était tellement déconnecté avec les réalités économiques, que l’impact sur l’économie réelle sera minime, mais cette chance ne sourit pas toujours, comme l’ont révélé les épisodes de 1873 et de 1929 ou plus récemment de 2007 et de 2011.
https://www.edubourse.com/guide-bourse/krach-1987.php
https://www.lesechos.fr/2017/10/krach-du-19-octobre-1987-le-jour-ou-wall-street-sest-effondre-184501
http://www.fb-bourse.com/krach-boursier-1987/
https://fr.statista.com/statistiques/564926/prix-annuel-du-petrole-de-l-opep-1960/
https://fr.wikipedia.org/wiki/Krach_d%27octobre_1987
https://fr.tradingeconomics.com/united-states/gdp-growth-annual
https://fr.tradingeconomics.com/united-states/inflation-cpi
https://fr.wikipedia.org/wiki/Récession_du_début_des_années_1990
Aux origines du krach de 1873
9 mai 1873 : l’euphorie sur les marchés boursiers touche à sa fin. La bulle immobilière qui s’était formée depuis les années 1860 éclate. La bourse de Vienne, berceau de la crise perd ce jour-là 30 % de sa valeur. Ce krach plonge alors le monde occidental dans une phase récessive. Les historiens s’accordent à dire que cette période débute en mai 1873 et se termine en 1896, et considèrent cet intervalle de temps comme la première « Grande Dépression ». Durant cette période, la France connaitra également un autre krach en 1882, considéré même comme plus violent que celui de 1873. Le krach de Vienne ou plus largement l’insouciance et la frivolité de cette période ont d’ailleurs été source d’inspiration et de dénonciation chez les intellectuels, à l’image de Johann Strauss avec son opérette en trois actes « La Chauve-Souris » paru en 1874, ou encore Emile Zola avec son roman « La Curée » en 1871. A travers cet article, nous allons nous pencher sur l’origine et la propagation de ces crises de la fin XIXème siècle, mais également nous intéresser aux conséquences sur l’économie réelle.
Une crise provoquée par différents mécanismes
Un krach favorisé par une politique industrielle libérale :
La Révolution industrielle, qui commence à l’aube du XIXème siècle a engendré une expansion économique et une urbanisation qui s’accélèrent au cours du milieu du XIXème siècle. Cette urbanisation est d’abord dopée par des innovations telles que le procédé Bessemer, conçu en 1855 par l’industriel britannique Henry Bessemer. Cette technique a permis une réduction importante du coût de fabrication de l’acier, tout en garantissant une résistance bien meilleure que celle du fer. Ce procédé a alors permis la multiplication des réseaux de chemins de fer mais également le développement urbain puisque l’acier était employé pour les façades des immeubles qui sortent de terre. Ces aménagements du territoire favorisent le dynamisme des échanges et l’émergence de nouveaux centres mondiaux dans une économie marquée par les balbutiements de la financiarisation. A Paris, cette urbanisation galopante a débuté sous le Second Empire avec les réformes du préfet de la Seine, le Baron Georges Eugène Haussmann. Il fait construire des immeubles modernes, dans un style que l’on qualifiera par la suite d’hausmmanien. Ces immeubles d’un nouveau genre, bénéficient d’un phénomène de mode et sont utilisés pour réaliser des plus-values spéculatives. Le secteur de l’immobilier attire alors des investissements, financés en grande partie par des banques et des fonds d’investissement, comme les frères Pereire qui sont par exemple à l’origine de l’aménagement du quartier Monceau dans le dix-septième arrondissement de Paris. En Allemagne, cette période d’expansion urbaine qui s’accompagne d’une croissance économique forte de plus de 5 % par an est qualifiée de « Gründerzeit ». L’emballement des investisseurs est également intensifié par les dividendes à deux chiffres que proposent les banques, notamment la Deutsche Bank en Allemagne. La banque joue alors un rôle double dans cette crise. D’une part en finançant à outrance les projets immobiliers dans les grandes capitales européennes de l’époque, elle participe à l’alimentation de la bulle spéculative immobilière et d’autre part, avec des dividendes très attractifs, incitant les investisseurs à acheter des actions de ces banques uniquement pour son rendement et non en fonction d’une véritable solidité financière, ce qui alimente également une bulle dans le secteur bancaire. En Allemagne et en Autriche, cette euphorie est plus intense qu’en France. En effet, en 1873, la France ne s’est pas encore vraiment remise de la défaite de 1870 face à la Prusse. Le 4 décembre 1871, le parlement allemand, le Reichstag, vote la loi monétaire obligeant la France à verser 5000 milliards de francs, soit l’équivalent de cinq milliards de francs. Cette injection de liquidités vers l’Allemagne va se révéler profitable dans l’immédiat et va permettre de financer de vastes projets d’urbanisation et de construction de réseaux ferroviaires. Mais ces investissements à outrance, vont entrainer l’alimentation de bulle spéculative dans ces secteurs, l’utilisation de ces réparations financières va se retourner contre son bénéficiaire. La loi monétaire a donc eu un rôle non-négligeable dans l’alimentation de la bulle. La prospérité à court-terme et la bulle spéculative qui caractérisent l’économie allemande a également des répercussions similaires dans d’autres pays. En effet, cette période est marquée par l’essor des théories libérales d’économistes comme Adam Smith ou David Riccardo, estimant que le libre-échange est un jeu « gagnant-gagnant ». Les économies deviennent de plus en plus ouvertes et de ce fait de plus en plus interdépendantes. Ainsi, l’Autriche et l’Europe d’une manière générale profitent en quelque sorte de la prospérité de l’Allemagne et de l’optimisme de ses investisseurs. L’alimentation de la bulle immobilière prend une ampleur telle que durant l’année qui avait précédé le krach, les prix de l’immobilier dans les capitales européennes avaient plus que doublé. Par ailleurs, la spéculation intervient également dans le secteur ferroviaire, qui profite également d’innovations telles que le procédé Bessemer. Aux Etats-Unis, le krach de mai 1873 entraîne la quasi-faillite de la Northern Pacific Railway. La situation financière de l’entreprise s’était d’ailleurs aggravée avec la faillite de son créancier, la banque Jay Cook le 18 septembre 1873. Pour survivre à la crise, la Northern Pacific avait été contrainte d’opter pour un plan d’austérité, dans une Amérique en pleine récession. Dans cette situation particulière, la compagnie était confrontée à d’importants retards de pose de rails. Ces poses de rails, qui passaient dans des territoires indiens avaient entrainé de violents combats entre l’armée américaine qui escortait la compagnie et les amérindiens, ces derniers voyant ici une atteinte à la souveraineté de leur territoire.
Des signaux annonciateurs :
D’une manière générale, il avait été déjà constaté un essoufflement de la frénésie des investisseurs dans le secteur ferroviaire, au début des années 1870, la croissance de la production commençait déjà un ralentissement. Cette crise est donc liée à un trop-plein d’investissement engendrant une surproduction. Ce surplus d’offre est également visible dans le secteur primaire. A cette époque, certains pays développent à grand pas leur agriculture et bénéficie d’un avantage comparatif du fait de leur main-d’œuvre peu coûteuse. C’est le cas de l’Argentine, du Canada, de l’Argentine ou de la Russie. Ce surplus d’offre a alors entrainé une baisse des prix des matières agricole sur le marché, ce qui a impacté une part non-négligeable de la production en Europe de l’Ouest. A cette époque, le secteur primaire représentait encore une part importante de la richesse créée dans les pays les plus développés. A titre d’exemple, 50 % de la population française vivait de l’agriculture en 1870. L’ensemble de ces faits a permis l’alimentation et l’éclatement de la bulle boursière et immobilière. Si la crise boursière a lieu en mai 1873 en Europe, elle éclate seulement en septembre de la même année aux Etats-Unis. Le krach entraine la fermeture de Wall Street du 20 au 30 septembre 1873. Les conséquences socio-économiques sont considérables dans l’économie réelle. Le krach de 1873 entraine une paupérisation de toutes les classes sociales, en particulier le monde ouvrier, confronté à une augmentation importante du taux de chômage. Cette apparition du chômage de masse peut s’expliquer par les plans d’austérité voire les faillites d’entreprises du secteur industriel, entrainant dans les deux cas des licenciements massifs voire des baisses de salaire. A cette époque, les états n’intervenaient pas sur le marché du travail, ce marché était par conséquent purement concurrentiel. Or, sur un marché concurrentiel l’offre est faite par les travailleurs et la demande par les entreprises. Et si la demande se contracte, on assiste à une offre supérieure à la demande, ce qui provoque un volume d’offre non-satisfaite, donc du chômage et une pression baissière des prix du marché, soit une baisse des salaires.
Une situation particulièrement tendue en France
Une récession prolongée en France :
Mais la récession en France s’est prolongée par le krach de janvier 1882. Considéré comme le krach le plus violent du XIXème siècle en France, l’élément déclencheur de cette crise est la faillite de l’Union Générale, une banque en pleine expansion à cette époque. Cette crise est corrélée avec une asymétrie de l’information puisque les investisseurs ne disposaient d’informations fiables au sujet d’opérations financières ou de données relatives à la santé financière de l’Union Générale. Initialement, l’Union Générale avait vu le jour en 1875 mais c’est à partir de l’arrivée en 1878 d’Eugène Bontoux, ancien banquier chez Rothschild, que la banque connaît un développement remarquable. Eugène Bontoux organise des opérations d’augmentation du capital de la banque, le faisant passer de 25 millions à son arrivée en 1878 à 100 millions de francs en 1881. La banque finance alors des projets d’infrastructure ferroviaire ou minière en France mais également en Autriche, dans les Balkans ou au Moyen-Orient, que la presse se charge de relayer. Cette bonne publicité, faites par des journaux financiers tels que « La Finance » ou « Le Clairon » suscite alors un certain engouement autour de l’Union Générale. Le prix de l’action est multiplié par six entre 1878 et la veille du krach, passant de 500 à 3000 francs. Cependant, la gestion de l’Union Générale était caractérisée par certaines irrégularités. Le bilan de certaines années pouvait être falsifié, les publications de résultats annuels pouvaient être des estimations optimistes et pouvaient être par conséquent déconnectés de la réalité. Les opérations d’émissions de nouvelles actions passaient par des pratiques visant à gonfler artificiellement le cours. En effet, certains anciens actionnaires pouvaient bénéficier d’achat d’actions à tarif préférentiel, à un prix trois ou quatre fois inférieur à celui du cours. D’une manière concrète, un bon nombre d’actions qui valaient par exemple 2000 francs n’ont été acheté que pour seulement 500 francs. Le problème est que le marché n’étant pas au courant de cette pratique, celui-ci a alors intériorisé l’idée que toutes les actions ont été achetées au prix fort, et que la banque est donc jugée par les investisseurs comme solide. En janvier 1882, le marché se rend compte de cette surévaluation. Entre le début et la fin du mois, le cours passe de 3000 à 500 francs et la banque, en défaut de paiement, est contrainte de faire faillite. Cette faillite entraine une crise systémique dans le secteur bancaire, d’abord parce que l’Union Général était un acteur important et d’autre part car le secteur bancaire va subir les conséquences de la méfiance des investisseurs. En effet, à cette époque la plupart banques ne faisaient pas de stricte séparation entre ses services de dépôt et d’investissement. Cette porosité a entrainé dans l’essor des financements non monétaires. En effet, étant donné que les banques ont un pouvoir limité de création monétaire ex-nihilo, c’est-à-dire à partir de rien, les banques ont alors financé un bon nombre d’investissements par financement non-monétaire, c’est-à-dire en prenant sur l’épargne de particuliers. A l’issue du krach, les particuliers se rendant comptant de la fébrilité du système bancaire avaient alors demander à ce que leur épargne soit retirée des banques. Ce mouvement de panique des investisseurs a entrainé la faillite de nombreuses établissements bancaires.
Des conséquences socio-politiques notables en France :
Dans cette situation, les banques n’ont pas pu rembourser l’intégralité des dépôts des particuliers et ont été contraintes d’arrêter net leurs investissements ferroviaires, miniers ou urbains. Cela a donc entrainé une baisse de la valeur de l’épargne de la population qui a alors dû moins consommer, et en parallèle les entreprises financées par les banques ont vu leur approvisionnement de liquidités s’arrêter net. Les entreprises ont dû licencier massivement, ce qui a créé du chômage, encore moins de consommation, il s’agit d’un cercle vicieux. Ce contexte économique tendu a alors été facteur d’instabilité politique en France. Le nouveau régime de la IIIème République doit faire face aux mouvements socialistes, constitués essentiellement d’anciens communards mais également d’anarchistes. L’une des têtes de cette contestation grandissante dans les années 1870 et 1880 est Louis Michel. Ancienne figure de la Commune, elle est condamnée par la suite à l’exil en Nouvelle-Calédonie. De retour en France métropolitaine en 1880, elle devient le porte-parole du mouvement anarchiste de l’époque. Les actions qu’elle mène dans les années 1880 sont inspirées des méthodes violentes et révolutionnaires de la Commune. Le 9 mars 1883, elle organise une manifestation pour les « sans-travail » avec Emile Pouget, créateur du journal anarchiste le Père Peinard. Cependant, cette manifestation tourne en émeute et se solde par des pillages de boulangerie et une intervention des forces de l’ordre, afin de mettre fin aux troubles. En parallèle, certains anarchistes se tournent vers des actions encore plus violentes, comme en témoigne la série d’attentats anarchistes du début des années 1890. Au printemps 1892, François Konigstein, surnommé « Ravachol » organise une série d’attentats à la bombe. Le 9 décembre 1893, Auguste Vaillant lance dans la chambre des députés une bombe chargée de clous. L’anarchisme s’en prend même aux plus hautes figures de l’état. Le 24 juin 1894, le président de la République Saadi Carnot est poignardé par l’anarchiste italien Sante Geronimo Caserio. Ce dernier meurt de ses blessures quelques jours plus tard. Ce climat délétère est fortement corrélé avec la situation économique de la période en France, marquée par la paupérisation des classes populaires. Le milieu ouvrier ne croit plus à la capacité de la République à améliorer leur sort. La IIIème République s’était surtout appuyée sur les milieux intellectuels et libéraux, mais pas sur la classe ouvrière. Sur le plan politique, la récession favorise la montée de Jules Guesdes, initialement anarchiste mais qui devient par la suite collectiviste. Il prend alors la tête du Parti ouvrier en 1879 qui devient le Parti ouvrier de France en 1882 et montre son opposition farouche à l’économie de marché et au capitalisme financier.
https://www.cairn.info/revue-economique-2010-3-page-421.htm#
https://fr.wikipedia.org/wiki/Union_générale
https://fr.wikipedia.org/wiki/Krach_boursier_de_1882#cite_note-5
https://www.edubourse.com/guide-bourse/krach-vienne-1873.php
http://www.fb-bourse.com/le-krach-boursier-de-1873/
Cyberattaques : vers une numérisation des conflits actuels ?
Le nombre de cyberattaques criminelles a explosé dans le monde ces dernières décennies. Rien qu’en France, d’après l’ANSSI (Agence nationale de la sécurité des systèmes d’information), elles ont été multipliées par quatre en 2020 par rapport à 2019. Celles-ci se traduisent par des conséquences souvent dramatiques pour les victimes, comme la paralysie des systèmes, le vol ou la perte de données sensibles ou l’exposition au chantage. Pour les spécialistes, s’il est compliqué de définir précisément en quoi consiste une cyberguerre, ils s’accordent à dire que ces nouvelles méthodes conflictuelles remontent à la création d’Internet, au début des années 1990. A cette époque, Internet est vite repris par les gouvernements et donc par des militaires, soucieux de faire évoluer leur arsenal de guerre au gré des innovations technologiques. Aujourd’hui, il n’existe aucun classement mondial des meilleurs pays en matière d’hacking, notamment parce que de nombreuses activités malveillantes s’effectuent dans l’ombre ; néanmoins, pour ne citer que quelques noms, la Russie se distingue par sa culture du hacking et par la protection gouvernementale dont bénéficient ses hackeurs, de même que la Chine, Israël, les Etats-Unis et la Corée du Nord. Dans cet essai, j’expliquerai en quoi consistent les cyberattaques et je montrerai de quels avantages économiques, diplomatiques et juridiques elles bénéficient – comparativement aux moyens plus traditionnels utilisés par les belligérants d’antan – justifiant le nombre grandissant de leurs lancements ces dernières années. Je déterminerai également quels objectifs stratégiques recherchent les groupes cybercriminels, qu’ils soient privés ou étatiques, notamment par l’intermédiaire de l’analyse de cyberattaques récentes lancées depuis des pays comme la Chine ou la Russie.
Fonctionnement et portée des cyberattaques
La cyberattaque peut se définir comme tout type d’action offensive à l’encontre d’une infrastructure informatique, s’appuyant sur diverses méthodes pour voler, modifier ou détruire des données ou des systèmes informatiques. Les profils des acteurs de la cybercriminalité sont assez variés : selon le Verizon’s Data Breach Investigations Report, la majorité des attaques sont initiées principalement par des inconnus ou des groupes criminels organisés, mais aussi par des initiés, des partenaires d’entreprises et des groupes affiliés.
De nombreuses méthodes d’hacking existent à ce jour. Parmi les principales : l’attaque par déni de service, qui permet de mettre un système informatique hors service en le submergeant d’informations extérieures ; le « phishing » consistant à envoyer des mails qui semblent venir de sources fiables pour subtiliser les données personnelles des utilisateurs ; le vol de mots de passe ; les attaques par écoute illicite, qui s’apparentent à de l’espionnage ; enfin, l’attaque par des logiciels malveillants (ou « malware »), qui s’effectue lorsqu’un logiciel malveillant est installé dans un système informatique sans accord au préalable et qu’il infecte des applications, dont certains comme le ransomware qui bloquent l’accès aux données de la victime et menacent de les supprimer ou de les publier à moins qu’une rançon ne leur soit versée.
Selon Baptiste Robert, expert français en cyberdéfense, les entreprises comme les acteurs étatiques doivent se protéger contre 4 grandes menaces d’hacking : la dégradation de leur image de marque, l’espionnage (subtilisation de données confidentielles), la cybercriminalité (demande de rançon) et enfin, le plus dangereux : le sabotage. Si couronné de succès, le sabotage peut entraîner le disfonctionnement de l’entièreté du système informatique de l’organisme ciblé, ce qui se révèle d’autant plus grave à une époque où de plus en plus de secteurs sont gérés par l’informatique.
N’importe quelle entreprise peut constituer une cible pour les cybercriminels ; néanmoins, certains secteurs de l’économie sont plus à risque que d’autres, notamment les entreprises étroitement impliquées dans le quotidien des individus, en possession de données sensibles et d’informations personnelles. Par exemple, des hôpitaux sont régulièrement victimes de cyberattaques, les hackeurs ayant bien conscience de la dépendance du système hospitalier vis-à-vis de l’informatique et de leur base de données. Plus généralement, les secteurs les plus à risque sont les banques et institutions financières (numéros de comptes et de cartes bancaires, données des clients), les institutions de santé (numéros de sécurité sociale des clients, données de recherche médicale), les sociétés (contrats, propriété intellectuelle, concepts de produits) et l’enseignement supérieur (recherches académiques, données financières).
Contrairement aux groupes criminels, qui demandent généralement de l’argent, certains acteurs malveillants lancent des cyberattaques avec pour seul objectif de tout détruire : ce sont des « wipers ». Il est particulièrement difficile de négocier avec ces hackeurs, étant donné que l’argent ne les intéresse pas. De nombreux wipers ont sévit à l’occasion de la guerre en Ukraine, afin de fragiliser le système informatique russe. Leur mot d’ordre : « La cyberguerre durera jusque le dernier char russe quitte l’Ukraine ». D’après Laurent Celerier, vice-président exécutif dans le département Technology & Marketing chez Orange Cyberdefense, les infrastructures ukrainiennes auraient été en réalité, de leur côté, hackées depuis des années. L’avènement de la guerre aurait donc généré l’activation des virus informatiques disséminés dans ces organismes, après avoir passé des années à « dormir ».
Les cyberattaques interétatiques, quant à elles, visent souvent à nuire à un pays dans le cadre de tensions diplomatiques. Par exemple, en 2021, la Chine est accusée d’avoir attaqué plus de 60 000 systèmes informatiques en Europe, et notamment celui du parlement norvégien, rapporte le ministère norvégien des Affaires étrangères, ce qui a valu la convocation à Oslo d’un responsable diplomatique chinois le 19 juillet. Cette attaque pourrait donner suite à la brouille diplomatique survenue entre la Chine et la Norvège lorsqu’en 2010, un comité indépendant du pouvoir norvégien avait attribué le Prix Nobel de la paix au dissident emprisonné chinois Liu Xiaobo. Depuis, la Chine adopterait une politique agressive et revancharde à l’encontre du pays scandinave.
Cyber malveillance : atouts & utilisations
Tous les Etats développés du monde possèdent à ce jour une branche du secteur militaire consacrée à la recherche en matière de cyberattaque et de cyberdéfense, le but étant de pouvoir protéger le pays en cas d’attaque tout en pouvant menacer la sécurité des autres en toute impunité. Le lancement de cyberattaques n’est en effet pas bien cher, contrairement au déploiement d’une force militaire armée sur le terrain. Les potentiels dégâts subis à la suite du lancement d’une cyberattaque sont également bien moindres : exit les investissements en matériel militaire et en capital humain, il convient aujourd’hui simplement de se doter d’un personnel formé et d’ordinateurs suffisamment puissants.
Les bénéfices tirés par la cybercriminalité ne font qu’augmenter ces dernières années, comme le rapporte une récente étude d’IBM Security. Dans son rapport annuel de 2021 intitulé « Cost of a Data Breach », l’entreprise établit qu’en 2021, une violation de données coûte en moyenne 4,24 millions de dollars, soit 10% de plus qu’en 2020. IBM justifie cette hausse par le contexte sanitaire imposé par la crise liée au Covid-19, qui a contraint les entreprises à revoir leur mode de fonctionnement. Les entreprises ont dû accélérer leur transition numérique au détriment de la sécurité de leurs données, créant des failles que les hackeurs ont pu exploiter. Le World Economic Forum’s 2020 Global Risk Report confirme la tendance en hausse du nombre de cyberattaques en estimant qu’en 2020, ce type d’attaques constituait la 5e principale menace des acteurs publics et privés, et ajoute que d’ici 2025, leur nombre devrait doubler. Toujours d’ici 2025, la cybercriminalité devrait coûter environ 10,5 milliards de dollars par an pour ses victimes, contre 3 milliards en 2015. En réaction à cette intensification du nombre de cyberattaques, le budget des entreprises privées et des gouvernements augmente avec le temps, atteignant le milliard de dollars entre 2017 et 2021 dans le monde.
La cybercriminalité est donc de plus en plus employée grâce aux différents avantages qu’elle confère à son utilisateur. L’identification des initiateurs de cyberattaques se révèle être une tâche difficile pour les victimes, au cas où personne ne la revendique. Si certains experts peuvent tenter de déterminer la provenance des attaques en comparant du code, cette méthode ne s’avère jamais fiable à 100%, notamment parce que les vrais auteurs des attaques ont tendance à laisser des leurres dans ces codes pour faire croire qu’un autre pays en est à l’origine. Il est arrivé parfois que des Etats révèlent publiquement avoir été victimes de cyberattaques et émettent des accusations à l’encontre d’autres Etats afin de les mettre sous pression. Face à cela, les Etats accusés n’ont généralement qu’à se dédouaner pour éviter d’être sanctionnés pour leurs agissements, faute de preuves évidentes.
C’est notamment ce qui s’est produit en 2021, lorsque le 19 juillet, les États-Unis, les Européens et leurs alliés ont accusé la Chine d’être responsable d’un piratage des serveurs de Microsoft en début d’année, comme l’énonce Pierre Coudurier dans un article publié dans Marianne le 22 juillet dernier. Pour Antoine Bondaz, chercheur à la Fondation pour la recherche stratégique (FRS), « Cela fait certes longtemps qu’il y a des suspicions à l’égard de la Chine, mais la réelle nouveauté consiste à la mentionner de manière publique et conjointe ». Face aux accusations d’actions « cybermalveillantes » par à la fois l’Union Européenne, le Royaume-Uni, l’Australie, le Canada et la Nouvelle-Zélande, Pékin a nié toute responsabilité. Notamment, selon le Ministère américain de la Justice, des hackers, basés sur l’île méridionale de Hainan « ont cherché à masquer le rôle du gouvernement chinois en créant une société écran, Hainan Xiandun Technology Development Co », depuis dissoute.
Valérie Niquet, responsable du pôle Asie à la FRS, craint quant à elle la montée en puissance de la Chine dans de nombreux domaines – notamment celui de l’informatique – et ajoute qu’« il ne faut pas exclure qu’à l’avenir, Pékin essaie d’imputer les attaques qui viennent de son sol à d’autres États ». Pour Antoine Bondaz, les Chinois pratiquent d’ores et déjà cette stratégie de fausses accusations, notamment lorsque leur gouvernement accuse les Etats-Unis d’être « les champions du monde des cyberattaques malveillantes », une déclaration qui, tout en diabolisant son rival économique, permettrait à Pékin de détourner l’attention sur autrui. Également, ces fausses accusations à l’encontre des Etats-Unis s’intègreraient dans la volonté chinoise de fragiliser autant que possible les relations diplomatiques entre Européens et Américains, ce à quoi Biden a répondu par communiqué que « cette stratégie ne marcherait pas ».
Également, la cyberguerre jouit de l’avantage indéniable d’échapper à toutes les règlementations encadrant les conflits plus « traditionnels ». Le Droit International Humanitaire (DIH), aussi appelé « droit de la guerre » restreint les moyens et les méthodes de guerre et notamment les armes utilisées afin de limiter les conséquences désastreuses des conflits armés sur les populations civiles. Ainsi, il est interdit par le droit international d’utiliser des bombes à sous-munitions, des mines anti-personnelles, des armes chimiques et nucléaires et des robots tueurs (désolé Robocop). Les hackeurs, en revanche, bénéficient de tous les outils qu’ils veulent pour déstabiliser le système informatique de leur adversaire, et ce, sans risquer d’écoper de la moindre sanction, la Charte des Nations Unies ne semblant pas être, de prime abord, capable de répondre aux enjeux juridiques posés par l’émergence de la cybercriminalité. En l’absence de code précis sur l’espace numérique au niveau international, les cyberattaques peuvent être interprétées – ou non – comme des actes de guerre. Jamais aucune instance internationale n’a été saisie non plus à ce sujet. Néanmoins, il ne serait pas surprenant de voir émerger dans les prochaines années les premières lois sur le numérique, lorsque l’on voit la recrudescence de cyberattaques dans le monde et que l’on sait que la loi a souvent tendance à se dessiner en réaction à ce qui se fait, comme cela s’est produit dans le cadre de l’ubérisation d’une partie de l’économie, créant des emplois précaires qu’il fallait protéger juridiquement.
Les enjeux actuels de la cyberguerre
Depuis maintenant des années, le gouvernement semi-autoritaire chinois est accusé de promouvoir des campagnes d’hacking contre différents acteurs perçus comme opposés politiquement au régime. Le Citizen Lab de l’Université de Toronto, au Canada, qui enquête sur les activités de surveillance chinois, a en effet constaté l’activité dès 2008 de hackeurs chinois, qu’ils surnomment « Poison carp », responsables de vols de données, comme le déclare un membre anonyme : « À l’époque, Pékin avait mis en place une campagne massive de surveillance contre le dalaï-lama et les Tibétains en exil. Des ONG ont aussi été victimes de campagnes de récupérations de données ». Puis, en 2019, la minorité musulmane des Ouighours, placée en détention massive depuis 2014, fut la cible de nouvelles cyberattaques chinoises, comme le rapporte Zero Day, une équipe d’experts en sécurité informatique employée par Google. Le but suspecté du gouvernement : embaucher des hackeurs pour surveiller cette communauté ainsi que tous les membres qui y sont liés de près ou de loin. Le gouvernement de Xi Jinping reproche en effet aux Ouighours de délibérément rejeter les pratiques assimilationnistes chinoises ainsi que la gestion laïque et autoritaire de l’administration communiste, que ça soit par des insurrections islamistes ou par du militantisme pacifique, par le biais d’un réseau de défense des droits de l’homme.
Plus récemment, les Ukrainiens ont lancé de nombreuses cyberattaques pour répondre à l’invasion de la Russie, comme le décrit Martin Untersinger dans un article publié dans Le Monde. En effet, depuis le 24 février dernier, date à laquelle Poutine a initié son offensive militaire en Ukraine, des milliers de civils ukrainiens ont rejoint divers groupes en lignes et se sont organisés afin de pouvoir lancer des cyberattaques contre les infrastructures numériques russes. D’après Bob Diachenko, consultant ukrainien en cybersécurité, « Tous les gens que je connais sont engagés, à différents niveaux. Personne ne reste à l’écart. C’est tellement simple maintenant, que n’importe qui peut utiliser un programme informatique pour attaquer des sites russes. » Toutes ces attaques, que l’on appelle « par déni de service », sont organisées par le ministère de la transition numérique ukrainien, qui a appelé ses citoyens à rejoindre l’IT Army of Ukraine. A ce jour, 310 000 internautes ont rejoint le groupe Telegram créé pour l’occasion servant à communiquer une liste de sites à attaquer. Les cyberattaques, dites « basiques », consistent en la connexion de nombreux utilisateurs simultanément sur des sites russes pour les rendre hors service. De nombreuses banques, entreprises, services de livraison et médias russes ont ainsi été victimes de ces attaques, impactant notablement la pérennité de leur économie, au même titre que les sanctions financières imposées par l’Union Européenne depuis le début de l’invasion. Certains groupes se réclamant de la mouvance Anonymous auraient même réussi à pirater une chaîne de télévision russe pour diffuser un message de paix.
En parallèle, des entreprises comme la Cyber Unit Technology se sont engagées dans le conflit en rémunérant les hackeurs pour chaque faille qu’ils détecteraient dans les infrastructures numériques russes, afin de pouvoir les exploiter lors de cyberattaques. Les développeurs de la région de Lviv ont, quant à eux, développé un jeu en ligne qui lance des attaques contre les sites russes à chaque fois qu’un utilisateur se connecte dessus. La guerre en Ukraine montre ainsi une nouvelle force des cyberattaques : le fait qu’elles puissent être lancées par n’importe qui, quel que soit son niveau de compétences techniques, par l’intermédiaire de seulement quelques clics depuis son ordinateur. Certaines attaques, plus sophistiquées et orchestrées dans l’ombre par le gouvernement ukrainien, ont consisté, comme l’explique Diachenko, à « rentrer dans des comptes courriels, récupérer des données sensibles de sites militaires ou gouvernementaux ». Il semblerait que toutes ces attaques aient notablement impacté le fonctionnement de nombreux sites russes car, comme le rapporte l’observatoire de la connectivité à Internet Netblocks, l’accès aux sites du Kremlin, du Parlement russe ou du ministère de la défense était par moments très difficile. En réaction à ces attaques, le ministère russe a officiellement proposé aux banques, qui font partie des organismes visés par les volontaires ukrainiens, une aide financière.
Néanmoins, il semblerait que ces cyberattaques massives, certes nocives pour les infrastructures numériques russes, ne changent en réalité stratégiquement pas grand-chose au conflit. « Je ne pense pas que ces attaques soient efficaces d’un point de vue stratégique », concède le directeur de la Cyber Threat Intelligence Bob Diachenko, qui préfère voir en elles « une sorte de cri de colère de la société ukrainienne ». En effet, à ce jour, rares sont les conflits armés s’étant résolus autrement que sur le plan militaire. A l’instar des sanctions économiques infligées par l’Occident, comme l’exclusion de certaines banques russes du système SWIFT, l’interdiction de tout financement public ou investissement en Russie et l’interdiction des importations de charbon en provenance de Russie, les raids lancés par les internautes ukrainiens visent avant tout à affaiblir l’organisation de l’économie russe, ceci afin de fragiliser leur armée et de permettre une victoire militaire de l’Ukraine et de ses alliés sur le long terme
__________________________________________________________________
Grâce au développement rapide des nouvelles technologies et des perspectives offertes par les cyberattaques, leur nombre explose dans le monde ces dernières décennies. C’est pourquoi, afin de contrer les menaces invisibles sur le cyberespace, toujours plus d’entreprises renforcent leurs investissements en cyberdéfense et font appel aux services d’« hackeurs éthiques » qui utilisent leurs compétences en hacking pour tester leurs sécurités et les prévenir d’éventuelles failles. Dans un contexte de numérisation grandissante de nos sociétés, certains pays comme la Russie ou la Chine n’hésitent pas à attaquer les infrastructures numériques de leurs rivaux, qu’ils savent indispensables pour le fonctionnement de leur économie et paradoxalement encore mal préparées technologiquement et numériquement. Reste que la guerre ne pourra jamais se tenir exclusivement sur Internet, car tant que les peuples auront les ressources et la motivation pour se battre, les tanks et les armes à feu demeureront toujours plus redoutables que n’importe quel virus informatique pour anéantir physiquement ses adversaires.
Bibliographie :
- Whyte, Christopher., Understanding cyber warfare: politics, policy and strategy. London New York (N.Y.): Routledge. 2019.
- Akoto, Evelyne, « Les cyberattaques étatiques constituent-elles des actes d’agression en vertu du droit international public ? », in Ottawa law review. 2015, vol.46 no 1.
- Eddé, Rhéa, « Les entreprises à l’épreuve des cyberattaques », in Flux (Centre national de la recherche scientifique (France). Groupement de recherche 903 Réseaux). 2020, vol.121 no 3. p. 90‑101.
- Untersinger, Martin, « Guerre en Ukraine : les cyberattaques contre la Russie, le « cri de colère » d’une armée de volontaires » in Le Monde, March 25, 2022.
- Coudurier, Pierre, « La Chine dans le viseur des Occidentaux pour une cyberattaque, une première » in Marianne, July 22, 2021.
- Sausalito, Calif, “Cybercrime To Cost The World $10.5 Trillion Annually By 2025” in Cybercrime Magazine, November 13, 2020.