Bien plus technique que les autres épreuves, la maths 1 approfondies HEC/ESSEC demande une maîtrise absolue de l’ensemble du programme des deux années de prépa et il est parfois difficile d’en venir à bout. Retrouve dans cet article l’analyse des maths I approfondies HEC/ESSEC 2025.
Si tu n’as pas encore vu le sujet, tu peux le trouver sur cet article dédié.
Retrouve toutes les informations du concours BCE sur notre rubrique Inside Concours BCE.
Cette année, Major Prépa t’accompagne tous les jours pendant les concours ! Retrouve le Live Inside Concours à 18h00 tout au long des concours BCE.
L’analyse du sujet maths I approfondies HEC/ESSEC 2025
Le sujet de maths 1 approfondies 2025 propose une approche articulée autour de l’optimisation quadratique, en lien étroit avec l’algèbre linéaire.
La première partie développe des outils classiques sur les applications linéaires et leur adjoint, indispensables pour la suite. La deuxième partie est consacrée à un problème d’optimisation quadratique standard, en travaillant sur la minimisation sous contrainte matricielle. Enfin, la troisième partie complexifie l’analyse en introduisant un second terme dans la fonction à minimiser, non différentiable, nécessitant une approche plus fine et des outils de convexité.
Partie I : autour de l’adjoint
Cette première partie pose des bases d’algèbre linéaire essentielles pour le reste du sujet, notamment en explorant les propriétés de l’application adjointe d’une application linéaire entre deux espaces euclidiens.
Question 1
Il s’agit de montrer qu’une application linéaire \( \ell \) de \( E \) vers \( \mathbb{R} \) peut s’écrire comme un produit scalaire avec un vecteur fixe \( a_0 \in E \).
Il faut utiliser le théorème de représentation des formes linéaires sur un espace euclidien.
Question 2
On en déduit que pour tout \( y \in F \), il existe un vecteur unique \( z_y \in E \) tel que :
\[
\langle u(x), y \rangle_F = \langle x, z_y \rangle_E \quad \forall x \in E.
\]
Cela prépare naturellement la définition de l’application adjointe.
Question 3
On montre que l’application \( u^* \), qui associe à \( y \) le vecteur \( z_y \), est linéaire.
C’est direct en vérifiant que \( u^*(\lambda y_1 + \mu y_2) = \lambda u^*(y_1) + \mu u^*(y_2) \) pour tout \( \lambda, \mu \in \mathbb{R} \).
Question 4
On établit que la matrice de \( u^* \) est la transposée de la matrice de \( u \) dans les bases orthonormées fixées :
\[
\text{Mat}_{\mathcal{B}_F, \mathcal{B}_E}(u^*) = {}^tA.
\]
On en déduit notamment que \( \text{rg}(u^*) = \text{rg}(u) \) et que l’adjoint de l’adjoint est \( u \) lui-même.
Question 5
Il s’agit ici de montrer que \( \text{Im}(u^*) = \ker(u)^\perp \).
On utilise la propriété caractéristique de l’adjoint pour établir cette relation géométrique.
Question 6
On complète avec l’égalité \( \ker(u^* \circ u) = \ker(u) \), en étudiant les compositions d’applications linéaires et en exploitant les propriétés de l’adjoint.
Question 7
Il s’agit de montrer que l’application \( w : \text{Im}(u^*) \to \text{Im}(u) \), définie par \( w(x) = u^* \circ u(x) \), est un isomorphisme. Il faudra montrer que \( w \) est bijectif et linéaire, ce qui prépare à l’étude de matrices de projection.
Question 8
On introduit le projecteur orthogonal \( \pi \) sur \( \text{Im}(u) \) et sa matrice \( Q \).
En 8) a), il faut montrer que :
\[
{}^tA Q = {}^tA,
\]
cela se fait en exploitant directement les propriétés établies dans les questions précédentes.
En 8) b), on demande de montrer que la trace de \( Q \) est égale au rang de \( u \), ce qui est classique pour un projecteur orthogonal.
Question 9
On montre que \( M \) est inversible si et seulement si \( A \) est de rang maximal \( p \). Cela utilise l’injectivité de certaines applications et les propriétés d’inversibilité matricielle.
Question 10
Sous l’hypothèse \( \text{rg}(A) = p \), la question 10) a) demande d’exprimer \( Q \) sous la forme :
\[
Q = A(M)^{-1} {}^tA.
\]
Une application directe de la définition du projecteur et du calcul matriciel.
Question 11
Enfin, il s’agit de montrer que pour toute matrice \( X \) de taille adaptée, on a :
\[
{}^tX M X \geq 0,
\]
c’est-à-dire que \( M \) est semi-définie positive, ce qui est essentiel pour la partie optimisation qui suit.
Partie II : minimisation d’une fonction quadratique
Dans cette partie, on s’intéresse à un problème d’optimisation classique : minimiser une fonction quadratique dépendant d’une matrice \( A \) et d’un vecteur \( Y \). L’analyse repose sur des outils développés en Partie I, en particulier sur la matrice \( M \) et l’application \( D(X) \).
Définition du problème
La fonction à minimiser est :
\[
J_0(X) = \frac{1}{2} \|AX – Y\|^2,
\]
où \( X \) parcourt l’espace \( \mathcal{M}_{p,1}(\mathbb{R}) \).
Le but est de caractériser les points où \( J_0 \) atteint son minimum global.
Question 12
Il s’agit de développer l’expression de la différence :
\[
J_0(X+H) – J_0(X),
\]
et de montrer qu’elle s’écrit sous la forme :
\[
(D(X), H) + \frac{1}{2} \|AH\|^2,
\]
où \( D(X) = MX – {}^tAY \).
C’est un simple calcul algébrique en développant le carré normé.
Question 13
La question 13) demande de montrer que \( J_0 \) admet un minimum global en un point \( X \) si et seulement si :
\[
D(X) = 0.
\]
Cela découle directement de la positivité du second terme \( \|AH\|^2 \) et du fait que l’annulation du terme linéaire est nécessaire pour minimiser la fonction.
Question 14
On introduit l’ensemble :
\[
S_0 = \{X \in \mathcal{M}_{p,1}(\mathbb{R}) \mid D(X) = 0\},
\]
et on montre qu’il existe un unique vecteur \( X_0 \in \ker(A)^\perp \) tel que \( X_0 \in S_0 \).
Cela revient à chercher une solution particulière dans \( \ker(A)^\perp \) au système linéaire \( D(X) = 0 \).
Question 15
Pour tout \( X \in S_0 \), la 15) a) demande de justifier que :
\[
AX = QY.
\]
Il faut utiliser l’expression de \( D(X) \) et les propriétés du projecteur \( Q \) sur \( \text{Im}(u) \).
La 15) b) montre que tout élément de \( S_0 \) s’écrit sous la forme \( X_0 + K \), avec \( K \in \ker(A) \), et que \( X_0 \) minimise la norme parmi les éléments de \( S_0 \).
La 15) c) utilise le cas particulier où \( A \) est de rang \( p \) pour expliciter une unique solution :
\[
X = M^{-1} {}^tA Y.
\]
Question 16
Dans cette question, le problème est appliqué à une situation aléatoire : \( Y = AU_0 + Z \), où \( Z \) est un vecteur de variables normales centrées réduites.
– 16) a) demande de montrer que :
\[
T = \|A(X-U_0)\|^2 = ZQZ,
\]
ce qui est une réécriture en exploitant la structure du bruit \( Z \).
– 16) b) et 16) c) demandent d’écrire des fonctions Python pour simuler la variable \( T \) et estimer son espérance.
– 16) d) propose d’analyser graphiquement le comportement de l’espérance de \( T \) en fonction de \( \sigma \).
Questions (e) à (i)
Ces dernières questions affinent l’étude du comportement de \( T \) :
– 16) e) exprime les moments des composantes \( z_i \) du bruit.
– 16) f) nécessite de décomposer \( T \) en deux termes \( T_1 \) et \( T_2 \) pour faciliter l’étude de son espérance.
– 16) g) montre que \( \mathbb{E}(T_1 T_2) = 0 \).
– 16) h) calcule \( \mathbb{E}(T^2) \) en fonction de \( \sigma \) et de \( p, q \).
– 16) i) nécessite d’utiliser une inégalité de Markov pour obtenir un majorant de la probabilité que \( T \) s’écarte de sa valeur moyenne.
Partie III : minimisation d’une fonction non différentiable
Cette dernière partie traite d’un problème d’optimisation où la fonction n’est plus différentiable partout, en raison d’un terme supplémentaire faisant intervenir une norme \( \ell^1 \). L’étude exige une bonne maîtrise des outils de convexité et des inégalités vectorielles.
Définition du problème
On considère maintenant la fonction :
\[
J(X) = \frac{1}{2} \|AX – Y\|^2 + \|BX\|_1,
\]
où \( B \) est une matrice donnée et \( \|BX\|_1 \) désigne la somme des valeurs absolues des composantes de \( BX \).
Question 17
La 17) est une question de préliminaire analytique :
On montre que, pour deux vecteurs \( u \) et \( v \) de \( \mathbb{R}^n \),
\[
\lim_{t \to 0} \frac{\|u + tv\| – \|u\|}{t} = \frac{\langle u, v \rangle}{\|u\|},
\]
lorsque \( u \neq 0 \).
Il s’agit d’une formule classique sur la différentiabilité de la norme euclidienne hors de 0.
Question 18
On commence à étudier le minimum global de \( J \).
Si \( X_0 \) est un minimiseur global de \( J \), alors on montre que :
\[
-D(X_0) \in \mathcal{N}(X_0),
\]
où \( \mathcal{N}(X) \) est défini comme un ensemble lié au sous-différentiel de \( \|BX\|_1 \).
Cette inclusion est au cœur de la caractérisation du minimum.
Question 19
Sous l’hypothèse \( BX_0 = 0 \), il s’agit de préciser la caractérisation de \( D(X_0) \) :
– 19) a) montre que \( D(X_0) \in \ker(B)^\perp \),
– 19) b) puis que l’on peut écrire \( D(X_0) = BW \) pour un certain \( W \),
– 19) c) enfin que l’on trouve un vecteur \( V \) tel que \( D(X_0) = BBV \).
Cela revient à travailler dans les orthogonaux et dans les espaces images de \( B \).
Question 20
On démontre ici une inégalité importante reliant \( \|u+v\|^2 \) à \( \|u\|^2 \) et \( \|v\|^2 \), avec un terme correctif lié au produit scalaire.
C’est une étape clé pour maîtriser les perturbations du problème d’optimisation.
Question 21
On revient sur la fonction \( J \) et on montre une inégalité qui conduit à :
\[
J(X) – J(X_0) \geq \langle D(X_0) + W, X – X_0 \rangle,
\]
et en particulier que \( -D(X_0) \in \mathcal{N}(X_0) \), ce qui est la condition de premier ordre caractéristique du minimum.
Question 22
On conclut que \( X_0 \) est bien un minimiseur global si et seulement si :
\[
-D(X_0) \in \mathcal{N}(X_0).
\]
La boucle est ainsi bouclée.
Question 23
Enfin, une étude plus précise est menée dans un cas particulier où :
– \( A \) est l’identité,
– \( B \) est une matrice diagonale.
La fonction \( F(\lambda) \) est introduite pour déterminer explicitement le minimiseur :
– 23) a) montre une majoration simple de \( F(\lambda) \),
– 23) b) prouve l’existence et l’unicité de \( \lambda_0 \) solution de \( F(\lambda_0) = 0 \),
– 23) c) construit le minimiseur \( X_0 \) à partir de \( \lambda_0 \).
Enfin, le passage à la programmation Python (23) d)) propose d’écrire plusieurs fonctions :
– pour évaluer \( F \),
– pour résoudre l’équation \( F(\lambda) = 0 \) par dichotomie,
– pour reconstruire la solution \( X_0 \).
Conclusion
Le sujet de maths 1 approfondies HEC 2025 est centré sur l’optimisation quadratique. Le sujet demande rigueur algébrique et une bonne maîtrise de l’optimisation et capacité à lier calculs théoriques et implémentations Python.
Retrouve toute la liste des annales ECS / Maths approfondies
Retrouve toutes nos ressources de mathématiques