


TRDL — L’architecture a beaucoup modernisé ses styles, ses outils et ses images, mais beaucoup moins sa méthode. Son noyau reste encore largement structuré par l’intuition experte, la boîte noire du concepteur et un régime de synthèse opaque, alors même que le monde du bâti est désormais traversé par des wicked problems de plus en plus complexes, interdépendants et instables. Dans ce contexte, l’intuition, l’expérience et la culture disciplinaire restent précieuses, mais elles ne suffisent plus comme centre de gravité de la pratique. La discipline doit donc évoluer d’un modèle de révélation autorale vers un régime plus explicite de validation continue, de feedback, d’arbitrages visibles et d’apprentissage cumulatif. En bref : l’architecture n’a pas surtout besoin de moins d’intuition; elle a besoin d’une méthode plus robuste pour empêcher l’intuition de faire la loi toute seule.
Thèse centrale : L’architecture a davantage changé de langage que de méthode : elle a modernisé ses outils et ses formes plus vite qu’elle n’a modernisé son rapport à la preuve, à la validation et au réel. Dans un monde de wicked problems, le maître sachant ne disparaît pas, mais il cesse d’être une méthode suffisante.
Un projet naîtrait d’une intuition forte, d’un croquis juste, d’une idée claire qui finit par trouver sa forme. L’architecte verrait, avant les autres, ce que le lieu pourrait devenir. Il absorberait un site, un programme, des contraintes, quelques tensions, puis en ferait une synthèse. Parfois brillante. Parfois fine. Parfois même bouleversante.
Cette image n’est pas fausse.
L’intuition existe. Elle joue un rôle réel dans l’émergence d’un projet. Les meilleurs architectes ont toujours su lire un site, pressentir une atmosphère, comprendre une manière d’habiter, saisir une lumière, une séquence, une tension spatiale avant même qu’elles soient complètement formulées. Le problème n’est donc pas que l’architecture fasse appel à l’intuition.
Le problème est ailleurs.
Il tient au fait qu’une discipline qui transforme aussi profondément la manière dont les gens vivent, dorment, travaillent, se concentrent, circulent, vieillissent ou se rencontrent continue encore trop souvent à accorder à l’intuition une place méthodologique qu’elle ne peut plus porter seule.
Pendant longtemps, cela a pu sembler suffire. L’architecte recevait des données d’entrée — un terrain, un budget, un programme, des contraintes réglementaires, des attentes — puis il produisait une réponse. Cette réponse pouvait être forte, cohérente, séduisante, parfois très juste. Mais dans bien des cas, une grande partie du raisonnement qui y conduisait demeurait implicite. On voyait la proposition finale. On voyait beaucoup moins le chemin qui y avait mené.
C’est peut-être là que se trouve aujourd’hui l’un des angles morts les plus persistants de la discipline.
L’architecture a énormément changé en apparence. Elle a changé de styles, d’outils, de logiciels, d’images, de récits, de références esthétiques, de capacités de représentation. Elle a raffiné ses rendus, accéléré ses flux numériques, sophistiqué ses simulations, multiplié ses moyens de communication.
Mais sous cette modernisation visible, son noyau méthodologique a souvent beaucoup moins évolué qu’elle ne le croit.
Dans sa structure profonde, la discipline demeure encore largement organisée autour du studio, de la critique, de la charrette, du concours, du geste d’auteur et d’une figure de l’architecte comme intelligence centrale, plus ou moins opaque, à qui l’on soumet des données d’entrée et de qui l’on attend une synthèse en sortie.
Autrement dit, l’architecture a souvent renouvelé ses langages plus vite qu’elle n’a renouvelé sa méthode. Elle a modernisé ses instruments plus vite qu’elle n’a transformé son rapport à la preuve, à l’usager, à la validation continue, à l’explicitation de ses décisions et à la confrontation systématique au réel.
Une formule un peu dure, mais juste, serait de dire qu’elle a parfois davantage numérisé la charrette qu’elle ne l’a remplacée.
Ce constat ne doit pas être caricaturé. Il serait intellectuellement faible de prétendre que rien n’a changé. Le modernisme a bien constitué une tentative réelle de rupture. Il a introduit des questions décisives : standardisation, reproductibilité, rationalisation, fabrication, production de masse, articulation entre technique et design. Mais cette rupture est restée incomplète. Elle n’a pas durablement renversé le centre de gravité auteur-objet.
Après le modernisme, d’autres mouvements ont à leur tour déplacé les formes, les références et les outils. Pourtant, dans l’ensemble, ils ont davantage transformé la manière de produire l’objet architectural que la structure profonde par laquelle cet objet est conçu, légitimé et célébré.
Le diagnostic le plus juste n’est donc ni que l’architecture serait immobile, ni qu’elle se serait réinventée. Il est plus exigeant : la discipline a connu des innovations réelles, mais celles-ci n’ont pas encore transformé en profondeur son noyau pédagogique et culturel.
Il faut aussi se méfier des raccourcis historiques.
Les Beaux-Arts n’ont probablement pas inventé la logique du maître pensant. Ils l’ont plutôt institutionnalisée, raffinée, légitimée et exportée. Bien avant leur formalisation, la formation des architectes reposait déjà sur l’apprentissage en atelier, le compagnonnage, la tutelle de praticiens expérimentés et la transmission personnalisée du jugement professionnel.
La logique du maître, du jugement transmis par proximité et de la formation par immersion dans une culture d’atelier est donc plus ancienne que le système Beaux-Arts lui-même. Ce que les Beaux-Arts ont fait, c’est transformer cette logique en modèle canonique de reproduction disciplinaire, doté d’un prestige académique et d’une influence durable.
La charrette, justement, n’est pas un folklore anecdotique. Elle est un symptôme. Elle condense une certaine idée de la valeur du concepteur : sa capacité à absorber rapidement un programme, à le transformer en proposition synthétique sous pression, puis à faire reconnaître cette proposition par une autorité critique.
Ce que la charrette révèle, ce n’est pas seulement une culture de l’intensité. C’est un régime cognitif fondé sur l’intuition accélérée, la performance, la virtuosité et le jugement magistral.
Ce qui a le plus persisté dans l’histoire de l’architecture n’est donc pas un style. C’est une structure mentale de projet.
Une idée architecturale n’est pas une pure image. Elle constitue d’abord une hypothèse spatiale : une proposition qui cherche à répondre de manière cohérente à un ensemble de conditions — un usage, un contexte, des contraintes et une intention.
Pour devenir solide et partageable, cette intuition doit être structurée et argumentée. Elle doit pouvoir être formulée autour d’une problématique, d’une stratégie spatiale et d’un bénéfice concret pour l’usager. Une idée architecturale réussie n’est donc pas seulement une forme séduisante; c’est une réponse structurée qui relie intelligemment un problème, une organisation spatiale et une valeur d’usage.
La fragilité commence lorsque cette hypothèse n’est pas suffisamment explicitée, suffisamment mise à l’épreuve, suffisamment confrontée au réel.
Dans bien des démarches plus traditionnelles, la compréhension du problème est encore souvent estimée, interprétée ou pressentie plutôt que réellement structurée, clarifiée et validée méthodiquement. Il existe alors un saut important entre la compréhension supposée de la situation et la formulation du concept architectural. Ce saut peut être comblé par le talent, la culture, l’expérience, la sensibilité et l’intuition du concepteur.
Parfois, cela produit des réponses remarquables. Parfois, cela donne une bonne réponse légèrement décalée. Parfois, cela rate davantage la cible.
Dans tous les cas, une part importante de la qualité du résultat dépend de la qualité du jugement individuel.
C’est là que se situe la fragilité du modèle : non pas dans l’existence de l’intuition, mais dans le fait qu’une part décisive du raisonnement reste implicite.
On dit souvent que les démarches classiques valident trop peu les solutions. C’est parfois vrai. Mais leur faiblesse la plus profonde est peut-être ailleurs : elles valident trop peu la compréhension du problème lui-même.
Or si la problématique est mal comprise, même une excellente solution peut être une excellente réponse à la mauvaise question.
Cette idée déplace le débat au bon endroit.
Le sujet n’est plus seulement de savoir si la forme proposée est forte. Il devient aussi : a-t-on bien compris ce qu’il fallait réellement résoudre? Quels besoins comptent le plus? Quels usages sont prioritaires? Quelles contraintes sont réellement structurantes? Quels critères doivent guider les arbitrages? Qu’est-ce qui relève d’un besoin, d’une préférence, d’une habitude, d’une inertie réglementaire, d’un réflexe disciplinaire, d’une opportunité ou d’une simple convention?
Tant que ces questions restent partiellement implicites, le projet dépend encore d’un saut de foi plus que d’un processus réellement transparent.
C’est ici que la critique doit devenir plus frontale.
La limite contemporaine de la méthode traditionnelle ne réside pas simplement dans le fait qu’elle serait un peu vieillissante, un peu opaque ou un peu artisanale. Elle réside plus profondément dans le fait qu’elle a été pensée pour un régime de complexité inférieur à celui dans lequel l’architecture agit désormais.
Cette vieille structure méthodologique a été forgée pour un monde relativement plus lisible, plus stable, plus sectorisé — un monde où l’on pouvait encore croire qu’un projet relevait principalement d’un problème de composition, de programme et de forme.
Mais ce monde n’est plus le nôtre.
Les problèmes du bâti sont aujourd’hui de moins en moins isolables, de moins en moins linéaires et de moins en moins réductibles à un geste d’auteur.
Dès 1973, Horst Rittel et Melvin Webber montraient déjà que les problèmes de planification relèvent de ce qu’ils appelaient des wicked problems : des problèmes mal définis, interdépendants, sans solution finale claire, qui exigent non pas une réponse définitive, mais des arbitrages continus dans des situations instables.
Cette intuition n’a fait que gagner en pertinence.
Un wicked problem n’est pas simplement un problème compliqué. Un problème compliqué peut demander beaucoup de compétence, beaucoup de coordination, beaucoup de calcul, mais il demeure relativement circonscrit. Il peut être découpé, traité, puis résolu.
Un wicked problem, lui, change pendant qu’on essaie de le résoudre. Sa définition elle-même est instable. Chaque arbitrage modifie le problème suivant. Chaque solution déplace des effets ailleurs. Chaque décision interagit avec d’autres systèmes — économiques, réglementaires, techniques, sociaux, écologiques, politiques — qui réagissent à leur tour.
Le logement abordable en est un.
La reconversion des tours à bureaux en est un.
La densification urbaine en est un.
La décarbonation du cadre bâti en est un.
La qualité d’habiter dans un contexte de pression foncière, de fragmentation réglementaire et de contraintes économiques en est un.
La reconversion des bureaux en logements illustre bien cette mutation. Vue de loin, elle paraît logique, presque évidente. Mais dès qu’on tente de la réaliser, le problème devient simultanément géométrique, technique, économique, réglementaire et urbain. Il ne suffit pas de changer des cloisons. Il faut composer avec la profondeur des plateaux, la distribution de la lumière, le noyau central, la redistribution de l’habitabilité, la faisabilité structurelle, les coûts de transformation, la proportionnalité des usages alternatifs et la compatibilité fondamentale entre une géométrie conçue pour mutualiser et un usage qui exige de redistribuer.
Ce n’est pas un problème que la volonté ou l’expérience seules suffisent à absorber. C’est précisément le genre de situation qui change de nature à mesure qu’on essaie de le résoudre.
Dans un tel monde, l’expérience reste précieuse. L’intuition reste utile. La culture disciplinaire reste importante. Mais elles ne suffisent plus comme centre de gravité de la méthode.
Elles deviennent des composantes d’un dispositif plus large.
Elles ne peuvent plus en être la totalité.
Le problème n’est pas que le jugement expert existe. Bien sûr qu’il doit exister. L’architecture a besoin d’expérience, de culture, de sens spatial, de capacité de synthèse.
Mais dans un monde de wicked problems, le maître sachant, armé surtout de son intuition, de son expérience tacite et des méthodes traditionnelles, ne peut plus suffire comme modèle méthodologique dominant.
Pourquoi?
Parce que la qualité du projet ne dépend plus seulement de la capacité à produire une synthèse forte. Elle dépend aussi de la capacité à formuler explicitement les hypothèses de départ, à clarifier les besoins réels et les préférences, à faire entrer plus tôt les contraintes économiques, techniques, réglementaires et contextuelles, à rendre les arbitrages visibles, à confronter plusieurs scénarios, à intégrer du feedback, à documenter les choix et à corriger le tir avant que la solution ne se fige.
Le problème contemporain n’est plus seulement de concevoir.
Il est de naviguer.
Naviguer dans l’incertitude.
Naviguer entre des contraintes qui se reconfigurent mutuellement.
Naviguer entre des objectifs qui entrent en tension.
Naviguer dans un monde où chaque décision locale peut produire des effets systémiques.
Dans ce contexte, le maître sachant ne disparaît pas.
Mais il cesse d’être une méthode suffisante.
C’est pourquoi la critique de la boîte noire devient centrale.
Dans une partie importante de la pratique, le projet demeure structuré par une logique où le savoir du concepteur est transmis par correction, intuition, exemplification et jugement d’expert, plutôt que par explicitation méthodique des critères, validation progressive, confrontation systématique au réel et transparence des arbitrages.
On fait entrer des contraintes, un programme, un contexte, des désirs; il en ressort un concept. Le concept peut être fort, mais les étapes décisives de sa formation demeurent souvent partiellement invisibles, peu traçables et difficilement discutables.
Le contre-modèle n’est pas une architecture sans idée. Il ne s’agit ni de renoncer à l’intuition, ni de remplacer l’architecture par une logique purement technique.
Il s’agit de faire évoluer la conception d’un modèle de boîte noire experte vers une chaîne de feedback plus explicite, où les besoins, les préférences, les contraintes, les règles, les données économiques et techniques participent plus tôt à la formulation, à l’épreuve et à la validation des hypothèses architecturales.
Dans cette perspective, ces données n’arrivent pas après l’idée pour la corriger. Elles participent dès le départ à sa formulation. Elles servent aussi à la tester, à l’ajuster, parfois à l’abandonner, parfois à la renforcer.
Le projet devient alors moins une révélation descendante qu’un processus de validation continue.
Cette transformation n’est pas seulement une amélioration de la communication. C’est une autre manière de produire le jugement architectural lui-même. La transparence ne sert pas seulement à mieux expliquer après coup. Elle sert à mieux concevoir. Ce qui est explicite peut être confronté, ajusté, enrichi et corrigé. Ce qui reste implicite demeure beaucoup plus difficile à améliorer.
Il faut ici éviter une autre confusion.
Dans beaucoup de discours sur la conception participative, on réduit encore le rôle du client à celui d’une personne qui exprime des préférences esthétiques : aimer les espaces ouverts, préférer le bois, rejeter certains styles, souhaiter davantage de lumière.
Ces préférences existent, bien sûr. Mais elles ne suffisent pas à définir ce que le client apporte réellement au projet.
Le client est d’abord maître des besoins, des priorités, des contraintes vécues, des usages réels et des préférences qui orientent le projet. Il est le mieux placé pour exprimer ce qui, dans sa vie quotidienne, dans son organisation familiale, dans son activité ou dans son modèle économique, doit être soutenu par le projet.
L’architecte, lui, demeure maître des réponses : les stratégies spatiales, les solutions techniques, les arbitrages, les moyens mobilisés et, ultimement, la forme qui en résulte.
Cette distinction est fondamentale. Elle permet d’éviter deux erreurs symétriques : croire que l’architecte sait déjà tout du problème, et croire que le client doit lui-même produire la solution.
Le rôle de l’architecte n’est ni d’imposer simplement une vision, ni de traduire mécaniquement des préférences en forme. Il consiste à transformer des besoins, des priorités, des contraintes et des aspirations en réponses spatiales intelligentes.
Cela oblige à penser la conception autrement.
Une idée architecturale peut continuer d’émerger intuitivement, mais elle ne peut plus prétendre à la robustesse sans passer par des phases de clarification, d’exploration, de comparaison et de validation.
Une première phase peut chercher à clarifier les attentes réelles, les besoins et les préférences, parfois à partir de références ou de précédents permettant d’établir un langage commun autour des qualités spatiales recherchées. Une seconde phase peut confronter plusieurs scénarios architecturaux, non pour offrir un simple choix, mais pour tester différentes stratégies face au site, au programme et aux contraintes.
Ce n’est qu’à partir de ces validations successives qu’une idée architecturale claire et structurante peut réellement émerger comme synthèse cohérente. Elle n’apparaît plus alors comme une intuition isolée, mais comme une hypothèse robuste, nourrie à la fois par les préférences clarifiées, les contraintes du projet et l’expertise architecturale.
Le processus de conception ne se nourrit d’ailleurs pas uniquement de données subjectives. Il intègre aussi d’autres catégories d’informations : coûts de construction, contraintes techniques, codes et réglementations, caractéristiques du site, normes applicables, ainsi que certaines données mesurables liées à la performance du bâtiment.
Le projet architectural se construit donc à partir d’un ensemble de sources d’information qui interagissent entre elles. C’est précisément cette interaction qui justifie une méthodologie plus explicite.
Il serait erroné de dire que rien ne bouge.
Depuis plusieurs décennies, des approches plus ouvertes, plus rigoureuses ou plus dialogiques se développent : evidence-based design, participatory design, design-build, live projects, community design, intégration de la durabilité, collaboration interdisciplinaire, post-occupancy evaluation, validation continue.
Ces approches ont une importance réelle, parce qu’elles cherchent précisément à sortir la discipline de l’autoréférentialité du geste d’auteur. Elles déplacent le projet vers des régimes plus explicites de validation : étude de cas, retours d’usagers, mesure des effets, co-conception, itération, confrontation aux usages et aux comportements observables.
Mais il faut aussi nommer clairement leur statut réel. Elles semblent aujourd’hui plus visibles dans certaines niches académiques, dans certains secteurs spécialisés et dans des réseaux de recherche que dans la pratique dominante de la profession.
Autrement dit, quelque chose est bel et bien en train de bouger. Mais ce quelque chose demeure encore partiel, récent, fragile et inégalement distribué.
Le diagnostic n’est donc pas l’absence d’alternative.
C’est la faiblesse de leur traduction structurelle à l’échelle du régime dominant.
Ce déplacement méthodologique a une conséquence majeure : il rend possible une pratique plus apprenante.
Les projets ne sont plus seulement des objets livrés; ils peuvent devenir des occasions de mieux comprendre ce qui fonctionne, ce qui échoue, ce qui mérite d’être reproduit, ajusté ou évité.
Autrement dit, le design peut apprendre.
À mesure qu’il apprend, il peut devenir plus intentionnel, plus discipliné, plus améliorable — sans perdre pour autant la part sensible, intuitive et culturelle qui fait la richesse de l’architecture.
Ce point est crucial, parce qu’il montre que le débat ne porte pas seulement sur une meilleure méthode de conception. Il porte sur la possibilité même de faire sortir l’architecture d’un régime où l’expérience s’accumule surtout dans les individus pour l’amener vers un régime où elle peut aussi devenir plus explicite, plus transmissible, plus partageable, plus contestable et plus cumulable.
Une discipline plus apprenante n’est pas une discipline sans intuition.
C’est une discipline où l’intuition cesse d’être la seule dépositaire de la mémoire du projet.
Cette transition méthodologique n’est pas un débat abstrait réservé aux écoles d’architecture ou aux querelles internes de la profession. Elle devient une nécessité matérielle.
Le secteur du bâtiment représentait 21 % des émissions mondiales de gaz à effet de serre en 2019, et 31 % des émissions mondiales de CO₂ si l’on considère le CO₂ seulement. En parallèle, la part de la population mondiale vivant en zone urbaine devrait atteindre 68 % d’ici 2050.
Cela signifie que l’architecture n’agit plus seulement sur des objets isolés, mais sur des systèmes denses, énergivores, vulnérables et stratégiques pour le climat, la santé, l’équité, la mobilité, l’adaptation et la stabilité sociale.
À cela s’ajoute une transformation de la nature même du risque. Les effets d’une décision architecturale ne restent plus tranquillement à l’intérieur de son périmètre immédiat. Ils circulent, s’additionnent, aggravent d’autres vulnérabilités, puis reviennent sous forme de contraintes nouvelles.
Dans un tel contexte, les approches plus transparentes, plus évaluatives, plus participatives et plus apprenantes ne valent pas seulement parce qu’elles sont méthodologiquement élégantes. Elles valent parce qu’elles sont mieux adaptées à la nature réelle des problèmes architecturaux contemporains.
Ce déplacement méthodologique change aussi la manière de parler de qualité architecturale.
Un bon projet n’est pas seulement un projet fort formellement. Ce n’est pas seulement un projet séduisant, iconique, bien raconté ou bien rendu. C’est un projet capable de relier intelligemment une problématique, une stratégie spatiale et une valeur d’usage. C’est un projet capable d’expliquer ce qu’il cherche à résoudre, par quels moyens spatiaux il tente de le faire, et en quoi cela améliore concrètement l’expérience vécue du lieu.
À partir du moment où un projet doit mieux expliciter ses hypothèses, mieux rendre visibles ses arbitrages et mieux se confronter au réel, il ne peut plus se réfugier aussi facilement derrière le prestige du geste, du discours ou de l’image. Il doit démontrer davantage sa pertinence, non seulement sur le plan symbolique, mais aussi sur le plan spatial, humain, économique et contextuel.
Le fond du problème dépasse complètement une pratique, une entreprise ou une école de pensée isolée.
Même si l’on retirait entièrement le nom de ceux qui essaient de s’y attaquer, le problème demeurerait entier.
La vraie question n’est pas de savoir si des alternatives existent.
Elles existent clairement.
La vraie question est de comprendre pourquoi, malgré un siècle de critiques, elles n’ont pas encore remplacé la boîte noire du maître pensant comme norme dominante de la discipline.
C’est là le véritable décalage historique : entre une discipline encore largement structurée par un régime hérité d’un autre âge et un monde devenu trop complexe, trop interdépendant et trop instable pour être gouverné par l’intuition opaque d’un seul regard.
L’architecture ne manque pas de talent.
Elle ne manque pas non plus d’idées, d’outils ou de capacité de représentation.
Ce qui lui manque encore trop souvent, c’est une méthode à la hauteur de la complexité réelle de ce qu’elle prétend résoudre.
Elle a beaucoup changé de langage.
Elle a beaucoup changé d’images.
Elle a beaucoup changé d’outils.
Mais elle n’a pas encore assez changé sa manière de clarifier un problème, de formuler ses hypothèses, de rendre ses arbitrages visibles, de confronter ses intuitions au réel et d’apprendre explicitement de ce qu’elle produit.
Le défi, aujourd’hui, n’est donc pas de tuer l’intuition architecturale.
Le défi est de lui construire un environnement méthodologique plus rigoureux, plus transparent et plus apprenant.
Parce que dans un monde de wicked problems, le maître sachant ne disparaît pas.
Il cesse simplement d’être une méthode suffisante.