Concours Centrale Supelec

mathématiques 2 MP

22 Mai

Un sujet d'analyse et de probabilité qui se proposait de démontrer un cas particulier du théorème central limite.

Continuer la lecture
Concours X ENS

mathématiques A MP

5 Juin

A propos des quaternions.

Continuer la lecture

Quantum bit.

Un bit classique peut contenir soit 0 ou 1; un bit quantique (qubit) peut être dans un état intermédiaire, qui n'est ni 0 ou 1, ou les deux en même temps, une superposition des deux états.

On modélise mathématiquement par: \[ \ket\psi = \alpha\ket0 + \beta\ket1 \] avec \(\alpha,\beta\in\mathbb{C}\) tels que \(\abs{\alpha}^2+\abs{\beta}^2=1\).

Ainsi, un qubit est décrit par un vecteur unitaire d'en espace vectoriel complexe de dimension 2.

\(\ket\psi\) est un ket dans la notation dite de Dirac; penser à un vecteur colonne \(X=\begin{bmatrix}\alpha\\\beta\end{bmatrix}\).

\(\bra\psi\) est le bra correspondant, le vecteur dual; penser au vecteur ligne \(\overline{X}^T=\begin{bmatrix}\overline{\alpha} &\overline{\beta}\end{bmatrix}\).

La notation prend tout son sens lorsqu'on remarque que \[ \begin{alignat*}{1} \overline{X_1}^TX_2 &= \overline{\alpha_1}\alpha_2 + \overline{\beta_1}\beta_2\\ &= \braket{\psi_1}{\psi_2} \end{alignat*} \] est le produit scalaire usuel.

Si on essaie de mesurer un qubit dans un état \(\ket\psi\), à l'aide d'un appareil capable de distinguer les deux états orthogonaux \(\ket0\) et \(\ket1\), le résultat est aléatoire ! On obtiendra: \[ \begin{alignat*}{1} &= \left\{ \begin{array}{ll} 0 & \mbox{avec une probabilité } \abs{\alpha}^2 \\ 1 & \mbox{avec une probabilité } \abs{\beta}^2. \end{array} \right. \\ \end{alignat*} \]

De plus, après la mesure, l'état du qubit devient: \[ \begin{alignat*}{1} \ket\psi&= \left\{ \begin{array}{ll} \ket0 & \mbox{si on a lu 0} \\ \ket1 & \mbox{si on a lu 1} . \end{array} \right. \\ \end{alignat*} \] C'est une autre spécificité de la mécanique quantique: l'observation perturbe le système de manière irréversible.

Si on pose \[ \begin{alignat*}{1} \alpha &= \rho_1e^{i\mkern1mu\varphi_1}\\ \beta &= \rho_2e^{i\mkern1mu\varphi_2} \end{alignat*} \] où \(\rho_1,\rho_2\in\mathbb{R}^+\),on a: \[ \begin{alignat*}{1} \ket\psi &= \rho_1e^{i\mkern1mu\varphi_1}\ket0 + \rho_2e^{i\mkern1mu\varphi_2}\ket1 \\ &= e^{i\mkern1mu\varphi_1}(\rho_1\ket0 + \rho_2e^{i\mkern1mu(\varphi_2-\varphi_1)}\ket1) \\ \end{alignat*} \]

Le facteur \( e^{i\mkern1mu\varphi_1}\) (global phase) n'ayant aucune signification physique, on peut se ramener au cas \(\varphi_1=0\). Ainsi tout qubit est représenté de manière unique par: \[ \begin{alignat*}{1} \ket\psi &= \rho_1\ket0 + \rho_2e^{i\mkern1mu(\varphi_2-\varphi_1)}\ket1\quad\text{ avec }\rho_1,\rho_2\in\mathbb{R}^+\text{ et }\rho_1^2+\rho_2^2=1\\ &=\cos\frac{\theta}{2}\ket0 + \sin\frac{\theta}{2}e^{i\mkern1mu\varphi}\ket1 \\ \end{alignat*} \] avec \(\theta\in[0,\pi]\) et \(\varphi\in[0,2\pi[\).

On associe le qubit \(\ket\psi\) au point de la sphère unité de \(\mathbb{R}^3\) de coordonnées sphériques \(\theta,\varphi\); Cette bijection conduit à la représentation appellée Sphère de Bloch:

Sphère de Bloch

L'ensemble des qubits se visualise à l'aide de la sphère unité de \(\mathbb{R}^3\).

Bloch sphere

Google Page Rank.

Dans ce sujet de Centrale Supelec, on étudiait le théorème de Perron-Frobenius. Ce théorème a de nombreuses applications, dont l'une est au coeur du moteur de recherche Google.

On note \(M>0\) si \(\forall i,j,\quad m_{ij}>0\) et \(\rho(A)=\max\{\abs{\lambda},\quad \lambda\in \mathrm{Sp}(A)\}\in\mathbb{R}^+\).

Théorème de Perron

Soit \(A>0\in M_n(\mathbb{R})\).

  1. \(\rho(A)>0\) et \(\rho(A)\) est une valeurs propre de \(A\), d'ordre de multiplicité 1: \(\dim(\ker(A-\rho(A) I))=1\).
  2. Il existe un vecteur propre \(X>0\) de \(A\) correspondant à la valeur propre \(\rho(A)\) à composantes strictement positives.
  3. Toute autre valeur propre de \(A\) dans \(\mathbb{C}\) vérifie \(\abs{\lambda}<\rho(A)\).

Lorsque qu'une recherche est effectuée sur Google, l'algorithme doit sélectionner et ordonner les pages web en fonction de leur pertienence. Pour ce faire, il attribue un score à chaque page web:

  1. Un score évalue directement la pertinence de la page par rapport à la recherche, par example en comparant les mots contenus dans la page avec ceux présents dans la recherche.
  2. Un autre score est attribué en fonction de l'intérêt intrinsèque de la page, c'est l'algorithme Page Rank dont on va décrire les grandes lignes.

Le principe est d'estimer la qualité d'une page web en analysant tous les liens qui pointent sur cette page: plus la page est citée par des pages de qualité, plus son score sera élevé.

Le score \(s(x_i)\) d'une page sera ainsi la somme des scores des pages qui pointent sur elle, pondérée par l'inverse du nombre total de liens sortant selon la formule suivante: \[s(x_i) = \sum_{x_j\to x_i} \frac{1}{d(x_j)}s(x_j) \tag{1}\] où \(d(x)\) est le total des liens référencés par la page \(x\) (si la page n'a aucun lien sortant, on peut considérer qu'elle se référence elle-même et poser \(d(x)=1\)).

Si on note \(N\) le nombre total de pages web, \(S\in M_{1N}(\mathbb{R})\) le vecteur ligne dont les composantes sont les \(s(x_i)\), et \(M \in M_N(\mathbb{R})\) la matrice définie par: \[ m_{ij} = \left\{ \begin{array}{ll} \frac{1}{d(x_i)} & \mbox{si } x_i \mbox{ pointe sur } x_j. \\ 0 & \mbox{sinon.} \end{array} \right. \] alors le vecteur des scores satisfait l'équation \[ \begin{alignat*}{1} SM&=S \tag{2}\\ \Leftrightarrow M^TS^T &= S^T \end{alignat*} \] On cherche donc un vecteur propre, à composantes strictement positives, de \(M\) associé à la valeur propre \(1\).

On peut reformuler ce problème en terme de probabilités. On peut se représenter le web comme un graphe, dont les sommets \(x_i\) sont les pages web, avec une arête orientée de \(x_i\) vers \(x_j\) pour symboliser un lien vers \(x_j\) présent dans la page \(x_i\).

Imaginons qu'on se déplace sur les sommets de ce graphe: à partir d'une page \(x_i\), on choisit de façon équiprobable un des \(d(x_i)\) liens sortant.

On définit ainsi une chaine de Markov homogène, et même une marche aléatoire (random walk).

La probabilité de la transition de l'état \(x_i\) vers l'état \(x_j\) est \[ \begin{alignat*}{1} p_{ij} &= \left\{ \begin{array}{ll} \frac{1}{d(x_i)} & \mbox{si } x_i \mbox{ pointe sur } x_j. \\ 0 & \mbox{sinon.} \end{array} \right. \\ &= m_{ij} \end{alignat*} \] ce qui montre que la matrice \(M\) est la matrice de transition de la chaine de Markov. Si \(S_n\) est le vecteur donnant les probabilités d'être dans chaque état à l'instant \(n\), on a: \[ S_n M = S_{n+1} \]

Voila un example de graphe avec 5 pages web:

La matrice de transition associée est: \[ M=\begin{bmatrix} 0 &\frac{1}{2} &\frac{1}{2} & 0 & 0 \\ \frac{1}{2} & 0 & \frac{1}{2} & 0 & 0 \\ 0 & 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 1 & 0 \\ \frac{1}{3} & 0 & \frac{1}{3} & \frac{1}{3} & 0 \\ \end{bmatrix} \]

Trouver \(S\in M_{1N}(\mathbb{R})\), à composantes positives, vérifiant \[ SM=S \] revient à trouver une mesure invariante (ou une probabilité si on normalise entre 0 et 1).

La difficulté vient de la structure du web. La matrice \(M\) contient beaucoup de 0 (sparse), et il y a beaucoup de sites qui n'ont aucun lien sortant et qui sont donc "absorbants" dans la chaine de Markov. On peut montrer que l'équation (2) n'a alors pas de solution "intéressante", c'est à dire une solution avec \(\forall i,\quad s(x_i)>0\): tous les états transitoires de la chaine de Markov auront automatiquement \(s(x_i)=0\) (voir encadré), ce qui rend la solution inopérante pour classer les pages.

L'idée est de modifier les déplacements sur le graphe, en se laissant la possibilité de réinitialiser la chaîne avec une petite probabilité \(\beta\), par exemple \(\beta=0.15\). Plus précisément:

  1. avec la probabilité \(1-\beta\), on suit un lien comme précédemment.
  2. avec la probabilité \(\beta\), on choisit de manière équiprobable une page quelconque du web.

La probabilité de la transition de l'état \(x_i\) vers l'état \(x_j\) devient \[ \begin{alignat*}{1} \tilde{p}_{ij}&= \left\{ \begin{array}{ll} (1-\beta)\frac{1}{d(x_i)} + \beta\frac{1}{N} & \mbox{si } x_i \mbox{ pointe sur } x_j. \\ \beta\frac{1}{N} & \mbox{sinon.} \end{array} \right. \\ &= (1-\beta)m_{ij} + \beta\frac{1}{N} \end{alignat*} \]

Le graphe de notre exemple devient, avec en gris les transitions de probabilité \(\frac{\beta}{5}\):

La matrice de transition associée est: \[ \tilde{M}=\begin{bmatrix} \frac{\beta}{5} &\frac{1-\beta}{2}+\frac{\beta}{5} &\frac{1-\beta}{2}+\frac{\beta}{5} & \frac{\beta}{5} & \frac{\beta}{5} \\ \frac{1-\beta}{2} +\frac{\beta}{5}& \frac{\beta}{5} & \frac{1-\beta}{2} +\frac{\beta}{5}& \frac{\beta}{5} & \frac{\beta}{5} \\ \frac{\beta}{5} & \frac{\beta}{5} & \frac{\beta}{5} & \frac{\beta}{5} & (1-\beta)+\frac{\beta}{5} \\ \frac{\beta}{5} & \frac{\beta}{5} & \frac{\beta}{5} & (1-\beta)+\frac{\beta}{5} & \frac{\beta}{5} \\ \frac{1-\beta}{3}+\frac{\beta}{5} & \frac{\beta}{5} & \frac{1-\beta}{3}+\frac{\beta}{5} & \frac{1-\beta}{3}+\frac{\beta}{5} & \frac{\beta}{5} \\ \end{bmatrix} \]

La matrice de transition \(\tilde{M}\) définie par \(\tilde{m}_{ij}=\tilde{p}_{ij}\) est irréductible, et on a même \(\tilde{M}^T>0\). Le théorème de Perron s'applique. Comme de plus la matrice \(\tilde{M}\) est stochastique (\(\sum_{j=1}^N m_{ij}=1\)), on peut montrer que \(\rho(\tilde{M}^T)=1\). Le théorème de Perron justifie l'existence d'un vecteur \(X>0\) tel que \(\tilde{M}^TX=X\), et donc en posant \(S=\frac{1}{\sum x_i}X^T\), on a bien \(S>0\) et \(S\tilde{M}=S\). De plus il est clair que la probabilité \(S\) est unique.

Références

S. U. Pillai, T. Suel and Seunghun Cha,
,
IEEE Signal Processing Magazine, vol. 22, issue: 2, pp. 62-75, March 2005.

Sergey Brin, Lawrence Page,
,
Computer Networks, vol. 30, pp. 107-117, 1998.

Quelques notions sur les chaines de Markov

\(E\) est un espace fini ou infini au plus dénombrable. \(X\) est une chaîne de Markov homogène de matrice de transition \(M\).

Pour tout \(x\in E\) tel que \(P(X_0=x)>0\), on note \[ P_x=P(.\mid X_0=x) \] la loi de probabilité conditionnée à l'évènement \(X_0=x\).

Pour \(y\in E\), on définit le temps de première arrivée en \(y\) par \[ T_y=\inf\{n\in \mathbb{N}^*, X_n=y\} \] avec la convention \(\inf \emptyset = +\infty\)

On dit que \(x\) conduit à \(y\) si \(P_x(T_y < +\infty)>0\)

On dit que les états \(x\) et \(y\) communiquent si \(x\) conduit à \(y\) et \(y\) conduit à \(x\). C'est une relation d'équivalence.

Une chaîne est irréductible si tous les états communiquent.

un état \(x\) est récurrent si \(P_x(T_x<+\infty)=1\). Partant de l'état \(x\), il est certain d'y revenir.

un état \(x\) est transitoire si \(P_x(T_x<+\infty)<1\). Partant de l'état \(x\), il est possible de ne jamais y revenir.


Séries de Dirichlet.

L'exercice suivant permet d'appliquer et mieux comprendre l'intérêt de la transformation d'Abel. Par ailleurs c'est un exemple de série de fonctions qui converge uniformément sur une partie de \(\mathbb{C}\), mais pas nécessairement normalement.

Exercice: Soit \((a_n)_{n\in\mathbb{N}}\in \mathbb{C}^{\mathbb{N}}\) et \((\lambda_n)_{n\in\mathbb{N}}\) une suite strictement croissante de réels positifs. On suppose que la série \(\sum a_ne^{-\lambda_n z_0}\) converge.

Montrer que la série de fonctions \(\sum a_ne^{-\lambda_n z}\) converge uniformément sur l'ensemble \(\mathcal{D}=\{z\in \mathbb{C},\quad \abs{\mathrm{arg}(z-z_0)}\leqslant \theta_0\}\cup\{z_0\}\), où \(\theta_0\in ]-\frac{\pi}{2},\frac{\pi}{2}[\).

Les séries de Dirichlet correspondent au cas \((\lambda_n)\) non bornée.

Ecrire \[ a_n e^{-\lambda_n z} = a_n e^{-\lambda_n z_0 } e^{-\lambda_n (z-z_0) } \]

Quel théorème permet de démontrer une convergence uniforme, quand on n'a pas la convergence normale, ni la convergence simple ?

On va appliquer le critère de Cauchy uniforme et s'intéresser à la quantité: \[\sum_{n=N}^{N+p} a_n e^{-\lambda_n z}\]

Faire une transformation d'Abel en "intégrant" \(a_n e^{-\lambda_n z_0}\) et en "dérivant" \(e^{-\lambda_n (z-z_0) }\).

On peut poser \(z-z_0=a+i\mkern1mu b\), ce qui permet de traduire facilement par une simple majoration l'appartenance à \(\mathcal{D}\setminus\{z_0\}\).

Majorer le module du paquet de Cauchy par une expression indépendante de \(p,a,b\), qui tend vers 0 quand \(N\to +\infty\).

Critère de Cauchy uniforme

Une suite de fonctions d'un ensemble \(X\) dans un ev normé \(E\) converge uniformément si et seulement si \[ \forall \epsilon>0,\exists n_0\in \mathbb{N},\forall p\geqslant n_0,\forall q\geqslant n_0,\forall x\in X,\quad \norm{f_p(x)-f_q(x)}\leqslant \epsilon \]

Critère de Cauchy uniforme - Cas des séries

Le critère se reformule directement ainsi dans le cas particulier des séries de fonctions:

\[ \forall \epsilon>0,\exists n_0\in \mathbb{N},\forall N\geqslant n_0,\forall p\in\mathbb{N},\forall x\in X,\quad \norm{\sum_{n=N}^{N+p} f_n(x)}\leqslant \epsilon \]

Remarque

Le choix de \(n_0\) dépend de \(\epsilon\), mais pas de \(p\) ni de \(x\).

Remarque

Le critère est utile lorsque qu'on veut montrer la convergence uniforme dans les cas où la convergence simple n'est pas supposée connue, et donc on n'a pas de fonction limite candidate.

Dans le cas des séries, il sert à montrer la convergence uniforme quand il n'y a pas convergence normale.

Pour faire le lien avec la série convergente, il est naturel d'écrire: \[ a_n e^{-\lambda_n z} = a_n e^{-\lambda_n z_0 } e^{-\lambda_n (z-z_0) } \]

Ensuite pour démontrer une convergence uniforme sans pouvoir supposer la convergence simple et sans connaitre la fonction limite, et sans pouvoir passer par la convergence normale, on n'a pas vraiment d'autres outils que le critère de Cauchy uniforme; On va donc s'intéresser à l'expression, pour \(z\in\mathcal{D}\): \[ \begin{alignat*}{1} \sum_{n=N}^{N+p} a_n e^{-\lambda_n z}&= \sum_{n=N}^{N+p} a_n e^{-\lambda_n z_0 } e^{-\lambda_n (z-z_0) } \end{alignat*}\]

On ne peut pas majorer directement cette somme car on n'a aucune information sur \(\sum \abs{a_n e^{-\lambda_n z_0}}\): il y a convergence, mais on ne peut pas supposer la convergence absolue de la série. Par contre pour utiliser l'hypothèse de convergence on est poussé à écrire \[ a_n e^{-\lambda_n z_0} = R_n - R_{n+1} \] où \[R_n = \sum_{k=n}^{+\infty} a_k e^{-\lambda_k z_0}\] et à faire une transformation d'Abel.

Posons \(z-z_0=a+i\mkern1mu b\), ce qui permet de traduire facilement par une simple majoration l'appartenance à \(\mathcal{D}\setminus\{z_0\}\) \[z\in \mathcal{D}\setminus\{z_0\} \Leftrightarrow a>0 \land \abs{\frac{b}{a}}\leqslant \abs{\tan{\theta_0}}\]

On fait la transformation d'Abel en "intégrant" \(a_n e^{-\lambda_n z_0}\) et en "dérivant" \(e^{-\lambda_n (z-z_0) }\); \(\forall z\in \mathcal{D}\), \[ \begin{alignat*}{1} \sum_{n=N}^{N+p} a_n e^{-\lambda_n z_0 } e^{-\lambda_n (z-z_0) } &= \sum_{n=N}^{N+p} (R_n-R_{n+1}) e^{-\lambda_n (z-z_0) } \\ &= \sum_{n=N}^{N+p} R_n e^{-\lambda_n (a+i\mkern1mu b) } - \sum_{n=N}^{N+p} R_{n+1} e^{-\lambda_n (a+i\mkern1mu b) } \\ &= \sum_{n=N}^{N+p} R_n e^{-\lambda_n (a+i\mkern1mu b) } - \sum_{n=N+1}^{N+p+1} R_{n} e^{-\lambda_{n-1} (a+i\mkern1mu b) } \\ &= R_N e^{-\lambda_N (a+i\mkern1mu b) } + \sum_{n=N+1}^{N+p} R_n (e^{-\lambda_n (a+i\mkern1mu b)}-e^{-\lambda_{n-1} (a+i\mkern1mu b) } ) - R_{N+p+1} e^{-\lambda_{N+p} (a+i\mkern1mu b) }\\ \end{alignat*} \]

Cela a un sens maintenant de prendre le module et de majorer terme à terme; il faut majorer par une expression indépendante de \(p,a,b\), qui tend vers 0 quand \(N\to +\infty\): \[ \begin{alignat*}{1} \abs{ \sum_{n=N}^{N+p} a_n e^{-\lambda_n z_0 } e^{-\lambda_n (z-z_0) }} &\leqslant \abs{R_N} e^{-\lambda_N a} + \sum_{n=N+1}^{N+p} \abs{R_n}\abs{ e^{-\lambda_n (a+i\mkern1mu b)}-e^{-\lambda_{n-1} (a+i\mkern1mu b) } } +\abs{ R_{N+p+1}} e^{-\lambda_{N+p} a } \\ \end{alignat*} \]

Soit \(\epsilon>0\) et \(n_0\in\mathbb{N}\) tel que \(\forall n\geqslant n_0,\quad \abs{R_n}\leqslant \epsilon\).

Alors, \(\forall N\geqslant n_0\), \[ \begin{alignat*}{1} \abs{ \sum_{n=N}^{N+p} a_n e^{-\lambda_n z_0 } e^{-\lambda_n (z-z_0) }} &\leqslant \epsilon e^{-\lambda_N a} + \epsilon\sum_{n=N+1}^{N+p} \abs{ e^{-\lambda_n (a+i\mkern1mu b)}-e^{-\lambda_{n-1} (a+i\mkern1mu b) } } +\epsilon e^{-\lambda_{N+p} a } \\ \end{alignat*} \]

Comme la suite \((\lambda_n)\) est positive et \(a>0\) on a: \[ \begin{alignat*}{1} \abs{ \sum_{n=N}^{N+p} a_n e^{-\lambda_n z_0 } e^{-\lambda_n (z-z_0) }} &\leqslant 2\epsilon + \epsilon\sum_{n=N+1}^{N+p} \abs{ e^{-\lambda_n (a+i\mkern1mu b)}-e^{-\lambda_{n-1} (a+i\mkern1mu b) } } \\ \end{alignat*} \]

Pour majorer la somme, on compare à une intégrale; on remarque que: \[ \begin{alignat*}{1} e^{-\lambda_n (a+i\mkern1mu b)}-e^{-\lambda_{n-1} (a+i\mkern1mu b) }&= -(a+i\mkern1mu b)\int_{\lambda_{n-1}}^{\lambda_n}e^{-t(a+i\mkern1mu b)}\mathrm{d}t \\ \end{alignat*} \]

Et donc, car \((\lambda_n)\) croissante, \[ \begin{alignat*}{1} \abs{e^{-\lambda_n (a+i\mkern1mu b)}-e^{-\lambda_{n-1} (a+i\mkern1mu b) }}&\leqslant \sqrt{a^2+b^2}\int_{\lambda_{n-1}}^{\lambda_n}\abs{e^{-t(a+i\mkern1mu b)}}\mathrm{d}t \\ &= \sqrt{a^2+b^2}\int_{\lambda_{n-1}}^{\lambda_n}e^{-ta}\mathrm{d}t \\ \end{alignat*} \] Noter que l'ordre des bornes va être essentiel pour appliquer la relation de Chasles.

Ensuite, \[ \begin{alignat*}{1} \sum_{n=N+1}^{N+p} \abs{ e^{-\lambda_n (a+i\mkern1mu b)}-e^{-\lambda_{n-1} (a+i\mkern1mu b) } } &\leqslant \sqrt{a^2+b^2} \sum_{n=N+1}^{N+p}\int_{\lambda_{n-1}}^{\lambda_n}e^{-ta}\mathrm{d}t \\ &= \sqrt{a^2+b^2} \int_{\lambda_{N}}^{\lambda_{N+p}}e^{-ta}\mathrm{d}t \\ &\leqslant \sqrt{a^2+b^2} \int_{\lambda_{N}}^{+\infty}e^{-ta}\mathrm{d}t \\ &= \sqrt{a^2+b^2} \frac{1}{a}e^{-\lambda_N a} \\ &= \sqrt{1+(\frac{b}{a})^2} e^{-\lambda_N a} \\ &\leqslant \sqrt{1+(\tan{\theta_0})^2} \\ &= \frac{1}{\cos{\theta_0}} \\ \end{alignat*} \] qui est une expression indépendante de \(a\), \(b\) et \(p\).

On a montré que, \(\forall N\geqslant n_0,\forall p\in\mathbb{N},\forall z\in\mathcal{D}\setminus\{z_0\}\), \[ \begin{alignat*}{1} \abs{ \sum_{n=N}^{N+p} a_n e^{-\lambda_n z_0 } e^{-\lambda_n (z-z_0) }} &\leqslant \epsilon(2+\frac{1}{\cos{\theta_0}}) \end{alignat*} \] majoration toujours valable pour \(z=z_0\).

La série de fonctions \(\sum a_ne^{-\lambda_n z}\) converge uniformément sur l'ensemble \(\mathcal{D}\).


Théorèmes de comparaison.

Les théorèmes de comparaison font partie des théorèmes fondamentaux pour l'étude des suites / séries numériques:

Théorème: Soit \(\sum_{n\in\mathbb{N}} u_n\) et \(\sum_{n\in\mathbb{N}} v_n\) deux séries à termes réels positifs (le théorème s'applique plus généralement aux séries à termes de signes constant à partir d'un certain rang).

i.

On suppose: \[\exists n_0\in\mathbb{N}\quad \forall n\geqslant n_0,\quad u_n\leqslant v_n\] Alors on a: \[\sum_{n\in\mathbb{N}} v_n \text{ converge } \Rightarrow \sum_{n\in\mathbb{N}} u_n \text{ converge}\]

ii.

On suppose: \[u_n\underset{}{=}o(v_n)\] Alors on a: \[\sum_{n\in\mathbb{N}} v_n \text{ converge } \Rightarrow \sum_{n\in\mathbb{N}} u_n \text{ converge}\]

iii.

On suppose: \[u_n \sim v_n\] Alors on a: \[\sum_{n\in\mathbb{N}} v_n \text{ converge } \Leftrightarrow \sum_{n\in\mathbb{N}} u_n \text{ converge}\]

De plus dans le cas de la convergence on a équivalence des restes: \[\sum_{k=n}^{+\infty}u_k \sim \sum_{k=n}^{+\infty}v_k\] Dans le cas de divergence, on a équivalence des sommes partielles: \[\sum_{k=0}^{n}u_k \sim \sum_{k=0}^{n}v_k\]

Définition - rappels

Il est conseillé de bien garder en tête toutes les formulations pour l'équivalence de deux suites: \(u_n\sim v_n\) ssi \(u_n-v_n=o(v_n)\)ssi quelque soit \(\epsilon>0\) (aussi petit soit-il), il existe un entier \(n_0\) tel que \(\forall n\geqslant n_0\) \[ \begin{alignat*}{1} &\abs{u_n-v_n} \leqslant \epsilon \abs{v_n} \\ &\Leftrightarrow\quad (1-\epsilon) v_n \leqslant u_n \leqslant (1+\epsilon) v_n \qquad(\text{ si }v_n\geqslant0)\\ &\Leftrightarrow\quad 1-\epsilon \leqslant \frac{u_n}{v_n} \leqslant 1+\epsilon \\ &\Leftrightarrow\quad \abs{\frac{u_n}{v_n}-1} \leqslant \epsilon \\ \end{alignat*} \] les deux dernières formulation étant valable quand \(v_n\) ne s'annule pas pour \(n\) grand, et équivalent à \(\frac{u_n}{v_n}\to 1\).

Bien sûr, on peut écrire les mêmes inégalités en inversant les rôles de \(u_n\) et \(v_n\).

Remarque

Les propriétés en question étant des propriétés asymptotiques, l'adaptation de la dém au cas \(u_n,v_n\geqslant 0\) à partir d'un certain rang \(N\) est directe, il suffit de choisir les indices \(n_0,n_1\) supérieurs à \(N\).

Le cas \(u_n,v_n\leqslant 0\) se traite en considérant \(\sum_{n\in\mathbb{N}}-u_n\) et en remplaçant l'hypothèse i par \(v_n\leqslant u_n\).

On note \[ \begin{alignat*}{1} S_n &= \sum_{k=0}^n u_k \\ T_n &= \sum_{k=0}^n v_k \\ \end{alignat*} \]
i.

On suppose que la série \(\sum_{n\in\mathbb{N}}v_n\) converge. Soit \(n\geqslant n_0\). \[ \begin{alignat*}{1} \sum_{k=0}^n u_k &= \sum_{k=0}^{n_0-1} u_k + \sum_{k=n_0}^n u_k \\ &\leqslant \sum_{k=0}^{n_0-1} u_k + \sum_{k=n_0}^n v_k \\ &\leqslant \sum_{k=0}^{n_0-1} u_k + \sum_{k=0}^n v_k \\ &\leqslant \sum_{k=0}^{n_0-1} u_k + \sum_{k=0}^{+\infty} v_k \\ \end{alignat*} \] La majoration reste valable pour \(n < n_0\).

Cela montre que la suite des sommes partielles \((S_n)\) est majorée. Comme \(u_n\geqslant0\), la suite \((S_n)\) est aussi croissante donc elle converge, i.e. la série \(\sum_{n\in\mathbb{N}}u_n\) converge.

ii.

Soit \(\epsilon=1\). Comme \(u_n\underset{}{=}o(v_n)\), \[\exists n_0\in\mathbb{N}\quad \forall n\geqslant n_0,\quad u_n=\abs{u_n}\leqslant \epsilon\abs{v_n}=v_n\] ce qui ramène au cas précédent.

iii.

On suppose que la série \(\sum_{n\in\mathbb{N}}v_n\) converge.

Soit \(\epsilon>0\). \[\exists n_0\in\mathbb{N}\quad\forall n\geqslant n_0,\quad \abs{u_n-v_n}\leqslant \epsilon v_n\] Donc, \(\forall n\geqslant n_0\), \[ \begin{alignat*}{1} \sum_{k=0}^n u_k &= \sum_{k=0}^{n_0-1} u_k + \sum_{k=n_0}^n u_k \\ &\leqslant \sum_{k=0}^{n_0-1} u_k + (1+\epsilon) \sum_{k=n_0}^n v_k\\ &\leqslant \sum_{k=0}^{n_0-1} u_k + (1+\epsilon) \sum_{k=0}^{+\infty} v_k \\ \end{alignat*} \] La majoration reste valable pour \(n < n_0\).

Cela montre que la suite des sommes partielles \((S_n)\) est majorée. Comme \(u_n\geqslant0\), la suite \((S_n)\) est aussi croissante donc elle converge, i.e. la série \(\sum_{n\in\mathbb{N}}u_n\) converge.

Par symétrie on a aussi \[\sum_{n\in\mathbb{N}}u_n\text{ converge }\Rightarrow \sum_{n\in\mathbb{N}}v_n \text{ converge }\]

Supposons que les séries divergent. Dans ce cas les suites des sommes partielles ne sont pas majorées et \[\lim_{n\to +\infty} S_n =\lim_{n\to +\infty} T_n = + \infty\]

Pour \(n\geqslant n_0\), \[ \begin{alignat*}{1} \sum_{k=0}^{n_0-1} u_k + (1-\epsilon) \sum_{k=n_0}^n v_k &\leqslant \sum_{k=0}^n u_k \leqslant \sum_{k=0}^{n_0-1} u_k + (1+\epsilon) \sum_{k=n_0}^n v_k\\ \Leftrightarrow\quad \underbrace{\sum_{k=0}^{n_0-1} u_k -(1-\epsilon) \sum_{k=0}^{n_0-1} v_k}_{=A} + (1-\epsilon) \sum_{k=0}^n v_k&\leqslant \sum_{k=0}^n u_k \leqslant \underbrace{\sum_{k=0}^{n_0-1} u_k - (1+\epsilon) \sum_{k=0}^{n_0-1} v_k}_{=B} + (1+\epsilon) \sum_{k=0}^n v_k\\ \end{alignat*} \]

Les expressions \(A\) et \(B\) sont constantes (ne dépendent pas de \(n\)), donc elles sont négligeables devant \(T_n\). On peut donc trouver un entier \(n_1\geqslant n_0\) tel que \(\forall n\geqslant n_1\), \[ \begin{alignat*}{1} -\epsilon \sum_{k=0}^n v_k + (1-\epsilon) \sum_{k=0}^n v_k &\leqslant \sum_{k=0}^n u_k \leqslant \epsilon \sum_{k=0}^n v_k + (1+\epsilon) \sum_{k=0}^n v_k\\ \Leftrightarrow\quad (1-2\epsilon) \sum_{k=0}^n v_k &\leqslant \sum_{k=0}^n u_k \leqslant (1+2\epsilon) \sum_{k=0}^n v_k\\ \end{alignat*} \] Ce qui montre \(S_n\sim T_n\).

Si maintenant les séries convergent le raisonnement précédent n'est plus valable par contre on peut écrire pour \(n\geqslant n_0\), en sommant les relations entre \(u_n\) et \(v_n\) jusqu'à l'infini, \[\begin{alignat*}{1} (1-\epsilon) \sum_{k=n}^{+\infty} v_k &\leqslant \sum_{k=n}^{+\infty} u_k \leqslant (1+\epsilon) \sum_{k=n}^{+\infty} v_k\\ \end{alignat*} \] ce qui montre que les restes des séries sont équivalents.

Une série numérique est une suite, la suite des sommes partielles \((S_n)_{n\in\mathbb{N}}\).

Inversemment, on a tendance à moins y penser mais une suite quelconque peut toujours s'écrire comme une série: \[ u_n = \sum_{k=1}^n (u_k-u_{k-1}) + u_0 \] Cette série a même nature que la suite \((u_n)\). Si \(u_n\to l\), on peut aussi écrire la suite comme un reste de série convergente: \[ -u_n = \sum_{k=n}^{+\infty} (u_{k+1} - u_k) -l \]

On peut ainsi souvent appliquer le théorème d'équivalence des sommes partielles / restes à une suite quand on en cherche un équivalent:

  1. Si \(u_n\to l\), on essaiera d'appliquer l'équivalence des restes.
  2. Si \(u_n \to \infty \), on essaiera d'appliquer l'équivalence des sommes partielles


Transformation d'Abel.

La transformation d'Abel est une technique à connaitre pour l'étude des séries numériques: \[ \begin{alignat*}{1} \sum_{k=0}^n u_k &= \sum_{k=0}^n 1\times u_k \\ &= \sum_{k=0}^n (k+1-k)u_k \\ &= \sum_{k=0}^n (k+1)u_k -\sum_{k=1}^n ku_k \\ &= \sum_{k=1}^{n+1} ku_{k-1} -\sum_{k=1}^n ku_k \\ &= \sum_{k=1}^{n} k(u_{k-1}-u_k) +(n+1)u_n \\ \end{alignat*} \]

On appelle aussi cette transformation l'intégration par parties discrètes; en effet si \[ \begin{alignat*}{1} f:[0,1] &\to \mathbb{R} \\ \end{alignat*} \] de classe \(C^1\), et si on pose \[ \begin{alignat*}{1} \forall k\in \lBrack 0, n\rBrack,\quad u_k & = f(\frac{k}{n}) \end{alignat*} \] puis qu'un approxime une intégrale par une somme de Riemann \[ \begin{alignat*}{1} \int_0^1 g(t)\mathrm{d}t &\approx \sum_{k=1}^n\frac{1}{n}g(\frac{k}{n}) \end{alignat*} \] et la dérivée par \[ \begin{alignat*}{1} f'(\frac{k}{n}) &\approx \frac{f(\frac{k}{n})-f(\frac{k-1}{n})}{\frac{1}{n}} \end{alignat*} \] Alors l'intégration par parties \[ \begin{alignat*}{1} \int_0^1 f(t)\mathrm{d}t & = [tf(t)]_0^1 - \int_0^1 tf'(t)\mathrm{d}t \end{alignat*} \] va se discrétiser ainsi: \[ \begin{alignat*}{1} \frac{1}{n}\sum_{k=1}^n f(\frac{k}{n}) &\approx \frac{n+1}{n}f(1)-\frac{1}{n}f(0) - \sum_{k=1}^n \frac{k}{n}\frac{f(\frac{k}{n})-f(\frac{k-1}{n})}{\frac{1}{n}}\frac{1}{n} \\ \Leftrightarrow \frac{1}{n}\sum_{k=0}^n u_k &\approx \frac{n+1}{n}u_n - \sum_{k=1}^n \frac{k}{n}(u_k-u_{k-1}) \end{alignat*} \] (dans le crochet d'intégration on approche 0 et 1 par \(\frac{1}{n}\) et \(\frac{n+1}{n}\) respectivement pour tomber exactement sur la transformation d'Abel.)


Compacts: propriété de Borel-Lebesgue.

La définition des parties compactes d'un espace métrique est la suivante:

Définition: Soit \(E\) un espace métrique. Une partie \(A\subset E\) est compacte si de tout recouvrement de \(A\) par des ouverts de \(E\) on peut extraire un recouvrement fini, i.e.

si \[A\subset \bigcup_{i\in \mathcal{I}} O_i\] avec les \(O_i\) ouverts, alors il existe \(\mathcal{J}\subset \mathcal{I}\) finie tel que \[A\subset \bigcup_{i\in\mathcal{J}} O_i\]

En pratique, dans les exercices, on utilise plus souvent la caractérisation séquentielle équivalente de Bolzano-Weierstrass :

Propriété: Soit \(E\) un espace métrique. \(A\subset E\) est compacte si et seulement si de toute suite d'éléments de \(A\) on peut extraire une suite convergente dans \(A\).

On utilise aussi fréquemment la caractérisation des parties compactes en dimension finie:

Propriété: Soit \(E\) un \(\mathbb{R}\) espace vectoriel de dimension finie. Les parties compactes de \(E\) sont les fermés bornés.

Je trouve l'exercice suivant intéressant car justement il fait intervenir la définition de la compacité:

Exercice: Soit \(f:\mathbb{R} \to \mathbb{R}\) une fonction qui admet un tout point une limite à gauche et une limite à droite. Montrer que les points de discontinuités de \(f\) sont au plus dénombrables

Montrer que le nombre de discontinuités de \(f\) sur un segment quelconque \(I\subset\mathbb{R}\) est au plus dénombrable.

On peut quantifier la discontinuité en \(x\) par \[d(x)=\lvert l_x^+-f(x) \rvert + \lvert l_x^--f(x) \rvert\] où \(l_x^+=\lim_{\underset{t>x}{t\to x}} f(t)\) et \(l_x^-=\lim_{\underset{t < x}{t\to x}} f(t)\).

Quel est la valeur maximum de la discontinuité \(d(t)\) pour \(t\in ]x-\alpha_x,x+\alpha_x[\setminus \{x\}\)?

\[I\subset \bigcup_{x\in I}]x-\alpha_x,x+\alpha_x[\]

On utilise les notations suivantes: \[l_x^+=\lim_{\underset{t>x}{t\to x}} f(t)\] \[l_x^-=\lim_{\underset{t < x}{t\to x}} f(t)\] \[d(x)=\lvert l_x^+-f(x) \rvert + \lvert l_x^--f(x) \rvert\]

On rappelle que: \[ \begin{alignat*}{1} f\text{ est continue en }x &\Leftrightarrow l_x^+=f(x) \land l_x^-=f(x) \\ \end{alignat*}\] et donc \[ \begin{alignat*}{1} f\text{ n'est pas continue en }x &\Leftrightarrow l_x^+\neq f(x) \lor l_x^-\neq f(x) \\ &\Leftrightarrow \lvert l_x^+- f(x) \rvert >0 \lor \lvert l_x^- - f(x)\rvert >0 \\ &\Leftrightarrow d(x) =\lvert l_x^+- f(x) \rvert + \lvert l_x^- - f(x)\rvert >0 \\ \end{alignat*}\]

Ensemble des points de discontinuité de \(f\) sur un compact.

Soit \(I\) un segment de \(\mathbb{R}\). \(I\) est un compact car fermé borné en dimension finie.

Soit \(x\in I\). On utilise l'hypothèse selon laquelle f admet une limite réelle à gauche et à droite:

Soit \(\epsilon>0\). \[ \begin{alignat*}{1} \exists \alpha_x>0\quad \forall t\in\mathbb{R},\quad &t\in ]x-\alpha_x,x[\Rightarrow \lvert f(t)-l_x^-\rvert \leqslant \epsilon \\ &t\in ]x,x+\alpha_x[\Rightarrow \lvert f(t)-l_x^+\rvert \leqslant \epsilon \\ \end{alignat*}\]

Par passage à la limite on obtient aussi: \[ \begin{alignat*}{1} \forall t\in ]x-\alpha_x,x[,\quad &l_t^-.l_t^+ \in \overline{[l_x^--\epsilon,l_x^++\epsilon]} = [l_x^--\epsilon,l_x^++\epsilon] \\ \end{alignat*} \] et donc \[ \begin{alignat*}{1} \forall t\in ]x-\alpha_x,x[,\quad d(t)=\lvert l_t^+- f(t) \rvert + \lvert l_t^- - f(t)\rvert&= \lvert l_t^+ -l_x^- + l_x^- - f(t) \rvert + \lvert l_t^- -l_x^- + l_x^- - f(t)\rvert \\ &\leqslant \lvert l_t^+ -l_x^-\rvert + \lvert l_x^- - f(t) \rvert + \lvert l_t^- -l_x^-\rvert + \lvert l_x^- - f(t)\rvert \\ &\leqslant 4\epsilon \end{alignat*} \]

de même, \[ \begin{alignat*}{1} \forall t\in ]x,x+\alpha_x[,\quad d(t)&\leqslant 4\epsilon \end{alignat*} \]

Soit \(n\in\mathbb{N}^*\). On choisit \(\epsilon=\frac{1}{4n}\). On peut recouvrir \(I\) par les ouverts précédents: \[ I \subset \bigcup_{x\in I} ]x-\alpha_x,x+\alpha_x[ \]

On extrait de ces intervalles un recouvrement fini: \[ I \subset \bigcup_{i=1}^p ]x_i-\alpha_{x_i},x_i+\alpha_{x_i}[ \]

D'après ce qui précède, les discontinuités \(d(x)>\frac{1}{n}\) ne peuvent se trouver qu'en les centres de ces intervalles ouverts; il y en a donc un nombre fini, au plus \(p\).

On a : \begin{alignat*}{1} f\text{ n'est pas continue en }x \in I&\Leftrightarrow d(x)\in\mathbb{R}^{+*}=\bigcup_{n\in\mathbb{N}^*}]\frac{1}{n},+\infty[ \end{alignat*} ce qui montre bien que l'ensemble des discontinuités de \(f\) sur \(I\) est au plus dénombrable en tant que réunion dénombrable d'ensembles finis.

Ensemble des points de discontinuité de \(f\) sur \(\mathbb{R}\)

On peut conclure que l'ensemble des discontinuités de \(f\) sur \(\mathbb{R}\) entier est au plus dénombrable puisque \(\mathbb{R}\) est une réunion dénombrable de segments, par exemple \(\mathbb{R}=\bigcup_{n\in\mathbb{Z}}[n,n+1]\), et une réunion dénombrable d'ensembles au plus dénombrables est au plus dénombrable.


The Feynman lectures on physics.

Un peu de physique avec ce lien qui propose l'intégralité des cours de physique donnés par Feynman entre 61 et 64 à Caltech.

Il y a une valeur historique, avec par exemple l'original des enregistrements audio et des photos d'époque, mais surtout pédagogique avec les tous les domaines de la physique expliqués de façon claire et donnant la priorité à l'intuition avant le catalogue de formules. C'est une réference et un complément précieux aux manuels de chaque étudiant en Physique.

Personnellement, entre autres découvertes, c'est dans ces cours que j'ai pour la première fois compris la divergence, le rotationnel et le théorème de Gauss en électrostatique.

Les présentations des amplitudes complexes en mécanique quantique, qui mathématiquement sont les coordonnées d'un quantum state dans un espace vectoriel sur \(\mathbb{C}\), ou encore des bra-ket qui sont des produits scalaires hermitiens, sont assez étonnantes par leur aspect très concret.

Par ailleurs d'un point de vue formel, la présentation a été modernisée, avec des illustrations et des schémas trés éclairants et agréables visuellement.

Le contenu s'organise en trois volumes:

  1. Mécanique de Newton, relativiste, optique, thermodynamique.
  2. Electromagnétisme.
  3. Mécanique quantique.

The Feynman lectures on Physics

Now, anyone with internet access and a web browser can enjoy reading a high quality up-to-date copy of Feynman's legendary lectures.

Vers le site

Composantes connexes de \(GL_n(\mathbb{R})\)

Dans sur les normes euclidiennes, on avait besoin du fait que l'ensemble des matrices à déterminant \(>0\) est connexe. C'est l'occasion de rappeller la démonstration:

Lemme: Soit \(GL_n^+(\mathbb{R})=\{M\in M_n(\mathbb{R}),\det M >0\}\) et \(GL_n^-(\mathbb{R})=\{M\in M_n(\mathbb{R}),\det M <0\}\).

\(GL_n^+(\mathbb{R})\) et \(GL_n^-(\mathbb{R})\) sont connexes.

Trouver un chemin qui va de \(I_n\) à \(T_{ij}(\lambda)=\) j 1 0 0 0 1 λ i 0 0 0 1

Décomposer une matrice inversible à l'aide de la méthode du pivot de Gauss.

Conclure.

Déjà on remarque que \(GL_n(\mathbb{R})\) n'est pas connexe, car \(\det(.)\) est une application continue, et \(\det(GL_n(\mathbb{R}))=\mathbb{R}^*\) qui n'est pas un connexe de \(\mathbb{R}\).

On considère les matrices:

\(T_{ij}(\lambda) = I_n + \lambda E_{ij}=\) j 1 0 0 0 1 λ i 0 0 0 1
où \(\lambda\in\mathbb{R}\)

et
\( D_{i}(\lambda)=I_n + (-1+\lambda)E_{ii} =\) i 1 0 0 0 λ i 0 0 0 1
où \(\lambda\in\mathbb{R}^*\).

Multiplier à gauche par \(T_{ij}(\lambda)\) revient à l'opération sur les lignes: \[ L_i\leftarrow L_i+\lambda L_j \] La multiplication à droite donne l'opération correspondante sur les colonnes.

Multiplier à gauche par \(D_{ij}(\lambda)\) revient à l'opération sur les lignes: \[ L_i\leftarrow \lambda L_i \] La multiplication à droite donne l'opération correspondante sur les colonnes.

On peut échanger deux lignes en multipliant à gauche par: \[ T_{ij}(-1)T_{ji}(1)T_{ij}(-1) \]

Décomposition d'une matrice de \(GL_n^+(\mathbb{R})\) en produit de matrices de transvection.

Soit \(M\in GL^+_n(\mathbb{R})\). Soit \(k\in\lBrack 1,n\rBrack\) tel que \(m_{k1}\neq0\).

On utilise la méthode du pivot de Gauss. On multiplie par à droite par \(T_{ik}(\frac{m_{11}-1}{m_{k1}})\) de manière à avoir un 1 en ahut à gauche. Puis pour \(l\in\lBrack 2,n\rBrack\), on multiplie par \(T_{l1}(-m_{l1})\) pour placer des 0 sur toute la première colonne

On multiplie ensuite à droite par \(T_{k1}(-m_{1l})\) pour annuler la première ligne sauf le pivot.

On peut donc trouver des matrices \(T\) tel que:

\[T_nT_{n-1}\dots T_1MT'_1\dots T'_{n-1}=\] 1 0 0 0 M n 1 0

On réitère jusqu’à obtenir une matrice:

\(\prod_i T_i\times M \times\prod_j T'_j=\) 1 0 0 0 1 0 0 0 δ \(=D_n(\delta)\)
où \(\delta=\det M>0\)

Comme les matrices \(T_{ij}\) sont inversibles (\(T_{ij}(\lambda)^{-1}=T_{ij}(-\lambda)\)), \(M\) se décompose sous la forme: \[M=\prod_i T_i\times D_n(\delta)\times\prod_j T_j\]

Chemin continu de \(I_n\) à une matrice de \(GL_n^+(\mathbb{R})\).

Maintenant on remarque que la matrice suivante, de determinant 1, procure un chemin continu de \(I_n\) vers \(T_{ij}(\lambda)\):

j 1 0 0 0 1 λt i 0 0 0 1

La matrice suivante \(D_n(1-t+t\delta)\) permet de passer continuement de \(I_n\) à \(D_n(\lambda)\):

1 0 0 0 1 0 0 0 1- t +

On a \(\det(D_n(1-t+t\delta))\in |1,\delta|\subset \mathbb{R}^{+*}\).

Ainsi , vu la décomposition obtenue, on peut construire en multipliant les matrices ci-dessus un chemin continu de \(I_n\) à \(M\), inclus dans \(GL_n^+(\mathbb{R})\).

Cas général.

Soit \(M_1,M_2\in GL_n(\mathbb{R})\), deux matrices dont les déterminants sont de même signe.

La matrice \(M_2M_1^{-1}\) est donc dans \(GL_n^+(\mathbb{R})\) et on peut trouver une matrice \(M(t)\) telle que:

  1. \(t\mapsto M(t)\) continue.
  2. \(\forall t\in[0,1],\quad M(t)\in GL_n^+(\mathbb{R})\).
  3. \(M(0)=I_n\) et \(M(1)=M_2M_1^{-1}\)

On voit alors que \(t\mapsto M(t)M_1\) est un chemin continu de \(M_1\) vers \(M_2\).


Concours X: mathématiques B MP

Un sujet d'analyse-algèbre qui commence très tranquillement sur les 8 premières questions, puis qui propose des suites de fonctions à valeurs dans \(R_n[X]\) dont les coefficients sont des sommes de séries entières. Beaucoup d'algèbre dans la dernière partie.

La principale difficulté de ce sujet est de parvenir à ne pas se noyer dans les toutes les notations employées.

Un corrigé de l'épreuve de maths B posée le 18 Avril en MP concours X 2023:

Retrouver le sujet:


Concours X ENS: mathématiques A MP

Un sujet d'algèbre difficile, exigeant et très long, qui étudie le corps des quaternions \(\mathbb{H}\): représentation matricielle, descriptions des endomorphismes orthogonaux directs, des automorphismes.

Beaucoup de sujets qui sont abordés plus rarement dans les autres concours: algèbre de sup, groupes, topologie.

On démontre aussi que toute \(\mathbb{R}\) algèbre algébrique sans diviseur de 0 est isomorphe à \(\mathbb{R}\), \(\mathbb{C}\) ou \(\mathbb{H}\). Cela montre l'importance de ce corps.

Un élément de \(\mathbb{H}\simeq \mathbb{R}^4\), s'écrit \[ Q=x + yi + z j+t k \] où \[\begin{array}{l} i^2=j^2=k^2=-1\\ ij=-ij=k\\ jk=-jk=i\\ ki=-ik=j \end{array} \]

De la même manière que les nombres complexes de module 1 représentent une rotation dans \(\mathbb{R}^2\), les quaternions unitaires ont pour principale utilisation la représentation des rotations en 3 dimensions ( les éléments de \(SO(\mathbb{R}^3)\)).

Comme on le démontre dans le problème, la rotation d'un angle \(\theta\) autour du vecteur \(n=\begin{bmatrix}n_x&n_y&n_z\end{bmatrix}\) est représentée par le quaternion: \[ \begin{array}{rl} Q=\begin{bmatrix} \cos \frac{\theta}{2}\\ n_x\sin \frac{\theta}{2}\\ n_y\sin \frac{\theta}{2}\\ n_z\sin \frac{\theta}{2}\\ \end{bmatrix} % &\begin{array}{l} \left.\vphantom{\begin{bmatrix} \cos \frac{\theta}{2}\end{bmatrix}}\right\}\text{ partie réelle }q_0 \\ \left. \vphantom{\begin{bmatrix} n_x\sin \frac{\theta}{2}\\ n_y\sin \frac{\theta}{2}\\ n_z\sin \frac{\theta}{2}\\ \end{bmatrix} }\right\}\text{partie imaginaire }q \\ \end{array} \\ \end{array} \]

Le produit dans \(\mathbb{H}\) a une interprétation géométrique dans \(\mathbb{R}^3\): \[ \begin{array}{rl} XY &=\begin{bmatrix} x_0y_0 -x^Ty\\ \vphantom{\begin{bmatrix} n_x\sin \frac{\theta}{2}\\ n_y\sin \frac{\theta}{2}\\ n_z\sin \frac{\theta}{2}\\ \end{bmatrix} } x_0y+y_0x + x\times y \end{bmatrix} \end{array} \]

Au cours du sujet on démontre aussi:

Théorème: Soit \(\lVert.\rVert\) une norme sur le \(\mathbb{R}\) espace vectoriel \(\mathbb{R}^2\). Si \[\begin{array}{rCl} \forall x,y\in \mathbb{R}^2,\quad \lVert x+y\rVert^2+\lVert x-y\rVert^2 & \geqslant&4 \\ \end{array}\] alors \(\lVert.\rVert\) provient d'un produit scalaire sur \(\mathbb{R}^2\).

On peut arriver à la même conclusion, beaucoup plus facilement, avec l'hypothèse suivante qui est plus forte, l'identité du parallélogramme, mais en dimension quelconque:

Proposition: Soit \(\lVert.\rVert\) une norme sur un espace \(\mathbb{R}\) vectoriel \(E\). Si \[\begin{array}{rCl} \forall x,y\in E,\quad \lVert x+y\rVert^2+\lVert x-y\rVert^2 & =&2(\lVert x\rVert^2+\lVert y\rVert^2) \\ \end{array} \] alors \(\lVert.\rVert\) provient d'un produit scalaire.

Voici un exercice d'oral X ENS qui va encore plus loin:

Proposition: Soit \(\lVert.\rVert\) une norme sur un espace \(\mathbb{R}\) vectoriel \(E\). Les propriétés suivantes sont équivalentes:

\((\mathrm{i})\) La norme \(\lVert.\rVert\) provient d'un produit scalaire.

\((\mathrm{ii})\) \[ \forall x,y\in E,\quad \lVert x+y\rVert^2+\lVert x-y\rVert^2 =2(\lVert x\rVert^2+\lVert y\rVert^2) \\ \]

\((\mathrm{iii})\) pour tout \(x,y\in E\), l'application \(t\mapsto \lVert x+ty\rVert^2\) est un polynôme de degré inférieur ou égal à deux.

\((\mathrm{iv})\) la restriction de \(\lVert.\rVert\) à tout plan inclus dans \(E\) provient d'un produit scalaire.

\((\mathrm{v})\) \[\forall x\in E,\quad H(x)=\{y\in E,\lVert x+y\rVert^2=\lVert x\rVert^2+\lVert y\rVert^2\}\] est un ensemble stable par homothétie.

\((\mathrm{ii})\Rightarrow (\mathrm{i})\)

Trouver une fonction candidate \(\varphi\).

Montrer \(2(\varphi(x,z)+\varphi(x,z))=\varphi(x+y,2z)\).

Montrer \(\varphi(x+y,2z)=2\varphi(x+y,z)\).

Montrer \(\varphi(\frac{p}{q}x,y)=\frac{p}{q}\varphi(x,y)\).

Conclure.

\((\mathrm{v})\Rightarrow (\mathrm{ii})\)

L'ensemble des matrices de \(GL_2(\mathbb{R})\) à déterminant >0 est connexe (cf. dem).

Considérer l'ensembles des bases de \(\mathrm{vect}(x,y)\), et montrer qu'il y en a au moins une qui vérifie: \[ \lVert e_1+e_2\rVert^2=\lVert e_1\rVert^2+\lVert e_2\rVert^2 \]

Conclure en utilisant l'hypothèse de \((\mathrm{v})\).

Un corrigé de l'épreuve de maths A posée le 17 Avril en MP concours X ENS 2023:

Retrouver le sujet:


A propos

Bienvenue sur le site ! Je vais y poster au fur et à mesure des contenus pédagogiques.

Archives

“Ο το μεν σώμα υγιής, την δε ψυχήν εύπορος, την δε φύσιν ευπαίδευτος.”