Comme à son habitude, le sujet de maths 1 a été difficile pour les élèves qui ont planché sur l’option maths appliquées. Bien plus technique que les autres épreuves, la maths I appliquées HEC/ESSEC demande une maîtrise absolue de l’ensemble du programme des deux ans de prépa et il est extrêmement difficile d’en venir à bout. Épreuve reine au sens où elle représente le summum de la difficulté parmi les sujets sur lesquels les candidats de l’année auront eu à plancher. Retrouve dans cet article l’analyse des maths I appliquées HEC/ESSEC 2025.

Si tu n’as pas vu le sujet, c’est par ici.

Retrouve toutes les informations du concours BCE sur notre rubrique Inside Concours BCE.

Et n’hésite pas à nous rejoindre en live tous les midis et tous les soirs du concours BCE pour un moment de détente et d’échange autour des sujets du jour ! Rejoins-nous le soir en live pour un débrief des épreuves de la première journée du concours BCE 2025.

Tu peux consulter les coefficients détaillés de cette épreuve et voir pour quelles écoles elle compte !

Notre analyse du sujet de Maths 1 appliquées HEC-ESSEC 2025

Partie 1 : Matrice stochastique réversible, exemples et caractérisation de Kolmogorov

La première partie est essentielle : elle met en place toutes les notions-clés (μ-réversibilité, ergodicité, chaînes de Markov). Les premières questions (1 à 3) sont accessibles et doivent absolument être réussies. La difficulté augmente progressivement (questions 5 à 8), demandant une bonne maîtrise des raisonnements sur les chemins et des récurrences.

La 1a) est une question très standard pour s’assurer que la propriété de μ-réversibilité est bien comprise : il fallait interpréter l’égalité \(\mu_i m_{ij} = \mu_j m_{ji}\). Avec \(\mu_i, \mu_j > 0\), si \( m_{ij} \neq 0 \), alors le produit \(\mu_i m_{ij}\) est strictement positif, et donc \(\mu_j m_{ji}\) aussi. Puisque \(\mu_j > 0\), il s’ensuit que \( m_{ji} > 0 \). Une question très directe mais qui pose une base indispensable pour la suite. La 1b) exploite cette symétrie : puisque \( m_{ij} > 0 \) entraîne \( m_{ji} > 0 \) et vice-versa, on peut chercher une distribution \(\mu\) particulièrement simple. Ici, une intuition naturelle est de proposer une distribution uniforme sur les sommets. Cela permet d’exprimer la condition de μ-réversibilité sous une forme équilibrée, sans biais de poids entre les sommets reliés. La 1c) demande de reformuler la condition de μ-réversibilité en langage matriciel, en faisant intervenir une matrice diagonale \(\Delta\) contenant les \(\mu_i\) sur la diagonale. Le but est d’écrire que \(\Delta M\) est symétrique, ce qui permet ensuite d’en déduire directement certaines propriétés spectrales.

La 2) est une question simple et technique. Il fallait sommer l’égalité \(\mu_i m_{ij} = \mu_j m_{ji}\) sur \(i\), et utiliser les propriétés des matrices stochastiques. Cela amène une relation d’équilibre sur les poids \(\mu\), indispensable pour la construction explicite d’une mesure invariante.

La 3) est une question d’illustration concrète : représenter le graphe associé aux transitions \( m_{ij} \) (en mettant des arêtes orientées et pondérées par les probabilités non nulles) aide beaucoup à visualiser la structure de la chaîne de Markov. Puis, dans la seconde partie de la question, il fallait utiliser la μ-réversibilité pour résoudre un système simple et obtenir les poids μ associés à chaque sommet. Ce genre d’exemple est très utile pour se préparer aux questions abstraites suivantes.

La 4a) est l’entrée en jeu de la partie programmation. Il s’agissait de simuler un déplacement aléatoire dans un graphe donné par ses arêtes. Le plus efficace était d’utiliser une liste d’adjacence pour parcourir les voisins accessibles, et de choisir un voisin uniformément au hasard. La 4b) demandait d’expliciter les coefficients \( p_{ij} \)de transition. Puisque le déplacement est uniformément réparti parmi les voisins, le coefficient est simplement  \( p_{ij} = \frac{1}{\text{deg}(i)} \) si \( j \) est voisin de \( i \). La 4c) s’appuyait sur l’intuition précédente : prendre \(\mu_i\) proportionnel au degré du sommet \( i \) donne une mesure d’équilibre naturelle. C’est cohérent avec la structure du graphe régulier induit par les transitions uniformes.

La 5) pouvait déstabiliser. Cette fois, on cherche à comprendre comment les poids se composent lorsqu’on multiplie plusieurs matrices successivement. L’idée est de réfléchir à la conservation ou à la dégradation de la positivité des coefficients \( m_{ij}(q) \) au fil des compositions, en exploitant la structure du graphe des transitions.

La 6), pour \( r = 3 \), demandait d’exploiter les propriétés des permutations sur \( 3 \) éléments. Le problème devient combinatoire : il fallait examiner toutes les permutations possibles et voir comment les produits de termes positifs se combinent dans les cycles, ce qui reste assez accessible.

La 7) est une question nettement plus technique. Cette fois, les poids \(\mu\) interviennent directement dans les produits : cela rend l’analyse plus lourde car il faut suivre précisément l’impact de chaque transition sur les poids associés aux chemins. C’est ici qu’on sent une montée en difficulté dans l’épreuve.

La 8) est une récurrence classique sur \( q \). À l’ordre \( q = 0\), la condition est triviale (on lit directement \( m_{ij}(0) = m_{ij} \)). Puis, pour passer de \( q \) à \( q +1\), il faut penser à ajouter un saut supplémentaire, en utilisant le fait que si deux transitions successives sont positives, leur produit l’est aussi. Cela s’appuie sur une bonne compréhension du passage matriciel \( M^{q+1} = M^q \times M \).

Les questions 9a, 9b, 9c et 9d sont la synthèse de toute la première partie et sont d’un niveau exigeant :

  • 9a) utilise l’ergodicité pour garantir l’existence de chemins reliant \( i \) à \( j \) avec toutes transitions de poids positifs. C’est une application fine de la transitivité implicite.

  • 9b) formalise la symétrie des coefficients obtenus sur ces chemins, en posant les bons objets (les\( \mu_i m_{ij}(q) \)) et en exploitant systématiquement la μ-réversibilité.

  • 9c) assure qu’il existe un sommet \( i \) tel que \( m_{ii} > 0 \), garantissant une forme de retour en un nombre fini d’étapes avec une probabilité strictement positive.

  • 9d) est l’aboutissement : définir explicitement une mesure \( mu \) satisfaisant toutes les propriétés établies. C’est ici que toute la construction prend son sens.

Partie 2 : Matrice de transition réversible ergodique, convergence

La partie est bien construite et progressive, elle couvre les notions clés des chaînes de Markov réversibles : produit de chaînes, mesure invariante, diagonalisation, et convergence. Les premières questions (10–12) sont accessibles et structurantes, mélangeant calculs simples et compréhension de la réversibilité. La 13 marque un tournant plus conceptuel, autour des espaces propres et de la positivité. La fin (14–15) est classique mais solide, avec une belle exploitation de la convergence spectrale. Ensemble cohérent, sans pièges, qui demande surtout de la clarté dans les idées.

La 10a) introduit une chaîne de Markov sur un produit d’espaces. Il fallait comprendre que le mouvement se fait alternativement sur les deux composantes, chacune suivant respectivement \( M \) ou \( N \). C’est une question d’assemblage, assez classique, sans difficulté majeure. La 10b) repose sur une vérification directe de la réversibilité pour une loi produit. Il suffisait de calculer et constater que la relation \(\mu_{i,j} P((i,j), (i’,j’)) = \mu_{i’,j’} P((i’,j’), (i,j))\) était bien satisfaite avec le bon choix de \(\mu\). Très accessible. La 10c) est plus subtile : il fallait extraire la réversibilité des chaînes \(\mathbf{M}\) et \(\mathbf{N}\) à partir de celle du produit. En fixant une des deux coordonnées et en regardant les transitions conditionnelles, on retrouvait une matrice réversible. Demande une bonne lecture de la structure.

La 11a) consistait à décrire les arêtes d’un graphe construit sur les couples\((i,j)\). Il suffisait de remarquer que les sommets étaient liés par des transitions de type\((i,j) \to (j,k)\), ce qui donne une structure bien régulière. Simple, mais à bien formaliser. La 11b) poursuivait logiquement en construisant une matrice de transition associée. L’idée naturelle était de se déplacer uniformément parmi les voisins définis par le graphe. Facile pour qui maîtrise les marches aléatoires. La 11c) introduisait la mesure \(\mu(i,j) = \pi(i) M_{ij}\), très utile pour garantir la réversibilité. Il fallait avoir l’idée que cette construction pondère naturellement les arêtes du graphe en respectant les probabilités d’une chaîne réversible. Très bonne question, un cran plus technique. La 11d) venait vérifier que ce choix était cohérent. En reprenant les définitions, les produits de probabilités s’équilibrent parfaitement. C’est du calcul appliqué, sans vraie subtilité une fois la 11c comprise.

La 12a) demandait de formaliser un opérateur \( T \) sur les arêtes orientées. Il fallait comprendre que \( T \) agit sur les transitions de la chaîne sur les couples, et que \( T^2 \) correspond à deux pas successifs. Il faut rester attentif à la notation, mais pas de piège ici. La 12b) s’appuie sur la symétrie des produits de transitions du type \(\pi(i) M_{ij} M_{jk}\). On retrouvait des termes semblables à ceux manipulés en première partie. C’est une bonne question de repérage structurel.

La 13 enfin, est une question ouverte et conceptuelle. Elle invite à réfléchir à l’impact d’une marche sur les arêtes plutôt que sur les sommets. Plus difficile, car elle demande de se projeter dans des notions de convergence, de mélange, ou même de réduction de variance. Pas technique, mais exigeante sur le fond.

La 14a) reprend le résultat clé de 13c : la valeur propre 1 de \(\mathbf{Q}\) est simple, avec un unique vecteur propre positif \(\mu\). Il suffisait d’en déduire que l’espace propre associé est \(\text{Vect}(\mu)\). Très direct. La 14b) utilise un raisonnement par l’absurde. Si\(-1\)était valeur propre, on pourrait construire un vecteur propre alternant les signes. En distinguant la parité de la taille, on obtient une contradiction avec la structure de \(\mathbf{Q}\). Classique pour éliminer les oscillations dans une chaîne ergodique.

La 15a) pose les notations : base propre \((\mu, Y_2, \dots, Y_r)\), avec des valeurs propres \(1 > \lambda_2 \geq \dots \geq \lambda_r > -1\). Mise en place pour la suite, rien à démontrer mais important pour le raisonnement spectral. La 15b) demande d’exprimer la loi  en fonction de cette base. En projetant la loi initiale (uniforme) sur les vecteurs propres, on obtient une somme pondérée par\( \lambda_k^n \, typique de la convergence spectrale. C’est du calcul, sans vraie surprise. La 15c) fait la limite. Tous les termes en \(\lambda_k^n\) décroissent vers \( 0 \) sauf celui associé à \(\mu\). Il reste donc \(\alpha_1 \mu\), ce qui donne une convergence vers une loi proportionnelle à \(\mu\). Une conclusion attendue. La 15d) utilise le fait que la loi initiale est uniforme : on retrouve \(\alpha_1 = 1\) On conclut donc à la convergence en loi vers \(\mu\). C’est le résultat standard de convergence pour une chaîne ergodique réversible.

Partie 3 : Un algorithme pour la réversibilité

Cette partie 3 est très bien pensée, avec une orientation plus algorithmique qui contraste avec les parties précédentes. Elle introduit une méthode constructive pour vérifier la réversibilité via des opérations élémentaires, tout en restant dans le cadre des matrices stochastiques triangulaires. L’ensemble est progressif : on commence par des manipulations simples (questions 16–17), puis on introduit un graphe de dépendance (18–19) qui sert de base à un algorithme élégant (20–21). Le tout est conceptuellement accessible, sans calculs lourds, mais demande une bonne rigueur dans le raisonnement et dans la manipulation des objets. Partie originale, bien structurée, et très formatrice.

La 16 est une mise en jambe technique : on introduit une opération élémentaire sur les lignes (ou colonnes) d’une matrice de \(\text{STr}\). Il s’agit simplement de coder ce qui a été défini dans l’énoncé. Très simple si on suit bien les indices.

La 17 demande d’identifier la structure de l’algorithme. La 17a) montre que la propriété (\( K \)) se transmet à travers les opérations élémentaires : c’est immédiat si on observe que seule la ligne \( k \)est modifiée. La 17b) vérifie que ces opérations préservent la structure stochastique triangulaire, ce qui découle directement des définitions. La 17c) exploite la réversibilité et l’ergodicité : on retrouve une situation semblable à la partie 2, avec transmission des propriétés via conjugaison. Trois questions très formelles mais utiles pour poser le cadre.

La 18 introduit un graphe non orienté associé à la matrice. On y lit les connexions par les coefficients strictement positifs. La 18a) demande un raisonnement par l’absurde : si \( m_{ik} \neq m_{jk} \) mais qu’on pouvait rendre les lignes\( i \) et \( j \)égales, alors les différences se propageraient dans tout le graphe, ce qui mène à une contradiction. Bonne question, un peu plus fine. La 18b) est une déduction immédiate : si les lignes sont égales, alors les sommets sont isolés. Très naturel une fois la 18a comprise.

La 19 revient à une logique plus constructive. Dans la 19a), on utilise la connexité du graphe\( G_M(I) \) pour propager les égalités de lignes via les opérations élémentaires, en suivant une arborescence d’actions successives. C’est un algorithme de réduction progressive. La 19b) confirme que ce processus ne détruit pas la structure stochastique ni l’appartenance à\(\text{STr}\). Belle construction, à la fois algorithmique et théorique.

La 20 généralise en posant \( M’ \)comme une forme transformée de \( M \)qui vérifie (\( K \)). La 20a) est une application directe de la 19b) : les propriétés sont préservées. La 20b) enchaîne naturellement : on en déduit que \( M’ \) est symétrisable, comme \( M \). Deux questions de transfert de propriétés, sans difficulté.

La 21 met tout ça en pratique. La 21a) traduit en Python l’algorithme vu en 19b. Lecture attentive de l’indice du pivot et des lignes concernées : rien de difficile mais il faut être rigoureux. La 21b) vérifie que le résultat est bien réversible (symétrisable) en testant la propriété (\( K \)). Code très lisible, bonne illustration de la démarche algorithmique appliquée au cadre théorique.

Et voilà ! Bon courage pour la suite des épreuves !

Retrouve toute la liste des annales ECE / Maths appliquées
Retrouve toutes nos ressources de mathématiques