[GS#3] Quatre modes de convergence des séries de fonctions (Exposé)
Summary
TLDRCe script vidéo explore les différents modes de convergence des séries de fonctions, à travers l'histoire de leur émergence dans le monde des mathématiques. Du développement limité de Newton aux séries de Taylor, en passant par la convergence simple et absolue, le texte explique comment ces concepts ont évolué pour permettre de manipuler les séries infinies de manière plus rigoureuse. Il illustre également les implications et les limitations de chaque mode de convergence, y compris la convergence uniforme et normale, en utilisant des exemples concrets et des fonctions spécifiques, comme la célèbre fonction de Weierstrass, pour montrer les subtilités et les défis de l'analyse mathématique.
Takeaways
- 📚 L'émergence des différents modes de convergence est expliquée à travers l'histoire des mathématiques, depuis les travaux de Newton au XVIIe siècle jusqu'à la formalisation de la convergence normale par Baire au XXe siècle.
- 🔍 La convergence simple est introduite en se concentrant sur la convergence de séries numériques et la possibilité de manipuler des séries infinies de manière similaire à des sommes finies.
- 📉 L'importance de la convergence absolue est soulignée pour garantir que l'ordre de sommation d'une série n'affecte pas sa convergence ou sa somme.
- 📈 La convergence uniforme est présentée comme un concept plus fort que la convergence simple, permettant de préserver la continuité des fonctions issues de séries de fonctions continues.
- 📝 Le critère de Weierstrass est introduit comme une recette pratique pour démontrer la convergence uniforme en majorant les fonctions d'une série par le terme général d'une série convergente.
- 🌐 La convergence normale, formalisée par Baire, est expliquée comme une convergence qui implique à la fois la convergence uniforme et la convergence absolue.
- 🚫 L'exemple de la fonction de Weierstrass met en évidence les limites de la convergence normale, montrant qu'elle ne préserve pas nécessairement la dérivabilité des fonctions.
- 🔧 L'utilisation de critères spécifiques comme le critère de Cauchy, le critère de d'Alembert, et la comparaison de séries à termes positifs est abordée pour établir la convergence absolue.
- 🔄 L'histoire des séries de Fourier et leur rôle central dans les études sur la convergence des séries de fonctions est racontée, y compris les problèmes de convergence rencontrés.
- ❓ La nécessité d'une rigueur mathématique accrue est illustrée par les erreurs dans les démonstrations de Cauchy et la nécessité de clarifier les concepts de convergence.
- 🎓 L'influence des grands mathématiciens comme Newton, Cauchy, Dirichlet, Weierstrass, et Baire sur le développement du concept de convergence est reconnue tout au long du script.
Q & A
Quel est le sujet principal de l'émission ?
-Le sujet principal de l'émission est la convergence des séries de fonctions et les différentes formes de convergence telles que la convergence simple, absolue, uniforme et normale.
Pourquoi y a-t-il plusieurs modes de convergence pour les séries de fonctions ?
-Il existe plusieurs modes de convergence car ils permettent de s'adapter à différents cas d'utilisation et de répondre à des questions spécifiques sur la possibilité de manipuler des séries infinies de la même manière que des séries finies.
Quel est le rôle de Newton dans l'histoire des séries de fonctions ?
-Newton a joué un rôle clé en développant la formule du binôme qui a permis de donner naissance à l'idée de développement en série, bien que la paternité de ce résultat soit aussi attribuée à d'autres mathématiciens indiens, arabes et chinois.
Pourquoi la série de Taylor porte-t-elle le nom de Taylor ?
-La série de Taylor porte le nom de Taylor car il est le premier à avoir publié un résultat qui ressemble aux formules de Taylor telles qu'on les connaît aujourd'hui, dans son ouvrage 'Methodus Incrementorum' publié en 1715.
Quel est l'intérêt de manipuler des séries infinies comme des séries finies ?
-L'intérêt est de pouvoir effectuer des calculs pratiques pour des quantités issues de la physique ou de l'astronomie, en utilisant des expressions polynomiales ou des sommes infinies de manière approximativement cohérente.
Quels sont les phénomènes étranges observés avec la convergence des séries de Fourier ?
-Les phénomènes étranges observés incluent la possibilité d'obtenir des fonctions discontinues comme somme de séries de fonctions de classe C^∞, et la dépendance de la convergence sur l'ordre de sommation.
Qu'est-ce que la convergence absolue et comment est-elle liée à la convergence simple ?
-La convergence absolue est un mode de convergence des séries de fonctions où la série des valeurs absolues des termes de la série converge simplement. Elle implique la convergence simple, ce qui permet de manipuler la série sans changer l'ordre de sommation.
Quelle est la différence entre la convergence simple et la convergence uniforme ?
-La convergence simple est une forme de convergence qui dépend de l'abscisse x, tandis que la convergence uniforme est une forme de convergence indépendante de x, ce qui signifie qu'il existe un rang N à partir duquel la série converge pour tout x dans l'intervalle considéré.
Quel est le critère de Weierstrass et comment est-il utilisé pour démontrer la convergence uniforme ?
-Le critère de Weierstrass est un outil utilisé pour démontrer la convergence uniforme d'une série de fonctions. Il stipule qu'il existe une suite réelle (αn) telle que la valeur absolue de chaque terme fn(x) soit majorée par αn, qui est indépendant de x, et que la série des αn converge. Cela garantit la convergence uniforme de la série des fonctions fn.
Quelle est la fonction de Weierstrass et quel est son importance ?
-La fonction de Weierstrass est une fonction continue sur ℝ mais qui n'est dérivable en aucun point. Son importance réside dans le fait qu'elle montre les limites des fonctions régulières et illustre les propriétés des fonctions qui convergent normalement mais ne préservent pas nécessairement la dérivabilité.
Outlines
📚 Introduction à la convergence des séries de fonctions
Le script ouvre avec une présentation des différents types de convergence des séries de fonctions : simple, absolue, uniforme et normale. L'objectif est d'expliquer pourquoi ces quatre modes de convergence existent et de les contextualiser dans l'histoire des mathématiques. Le discours se réfère à l'émergence de ces concepts au XVIIe siècle, avec les travaux de Newton sur le développement du binôme de Newton et son extension aux exposants rationnels, ouvrant la voie à la manipulation de séries infinies.
🔍 Les séries de Taylor et la convergence simple
Ce paragraphe explore les séries de Taylor, qui sont étroitement liées aux développements de Newton, et la notion de convergence simple. Il est question de la publication de Taylor en 1715 dans 'Methodus Incrementorum' et de l'utilisation de ces développements pour des calculs pratiques, comme l'approximation de certaines intégrales. Cependant, la manipulation de séries divergentes, telles que la série de Grandi, soulève des questions sur la validité de ces méthodes et annonce la nécessité d'une définition rigoureuse de la convergence.
📘 La naissance de la convergence absolue et uniforme
Le script présente l'évolution de la compréhension de la convergence des séries de fonctions, en introduisant les concepts de convergence absolue et uniforme. Il est question des travaux de Cauchy qui ont apporté une rigueur mathématique exceptionnelle à l'époque, et de la manière dont la convergence absolue permet de réorganiser les termes d'une série sans changer sa nature ni sa somme. La convergence uniforme est également abordée, soulignant son importance pour garantir la continuité de la somme d'une série de fonctions continues.
📐 Fourier et les séries de Fourier
Ce paragraphe se concentre sur l'œuvre de Fourier, 'Théorie analytique de la chaleur', et l'introduction des séries de Fourier, qui jouent un rôle crucial dans l'étude de la convergence des séries de fonctions. Il est question de l'exemple de la série de Fourier pour la fonction périodique qui vaut π/4 et -π/4, et des implications de la convergence de ces séries sur des intervalles spécifiques. La section met en évidence les défis posés par la convergence des séries de Fourier et l'émergence de la convergence absolue comme solution.
🤔 Les implications de la convergence absolue
Le script examine les implications de la convergence absolue sur la convergence simple et sur la possibilité de manipuler des séries de fonctions de manière similaire à des séries finies. Il est question des démonstrations qui établissent que la convergence absolue implique la convergence simple, et des différentes méthodes utilisées pour le prouver, notamment l'inégalité triangulaire et la comparaison de séries à termes positifs.
📉 La convergence uniforme et ses différences avec la simple
Ce paragraphe explore la notion de convergence uniforme, sa définition et comment elle se distingue de la convergence simple. Il est question de l'importance de la convergence uniforme pour garantir que la limite ponctuelle d'une série de fonctions continues est elle-même continue, et de l'erreur dans la démonstration de Cauchy qui néglige cette distinction. La section souligne également l'importance de la rigueur mathématique apportée par Weierstrass et la nécessité d'une compréhension rigoureuse des variables et des quantificateurs.
📌 La convergence normale et le critère de Weierstrass
Le script introduit le concept de convergence normale, formalisé par Baire en 1908, et le critère de Weierstrass qui permet de démontrer la convergence uniforme d'une série de fonctions. Il est question de l'efficacité de ce critère pour établir la convergence normale sans avoir besoin de connaître la somme de la série. La section met en lumière l'exemple des fonctions sinusoïdales et comment le critère de Weierstrass est utilisé pour démontrer leur convergence uniforme.
🚫 Limites de la convergence normale
Ce paragraphe illustre les limitations de la convergence normale en présentant l'exemple de la fonction de Weierstrass, qui montre que même avec la convergence normale, certaines propriétés comme la dérivabilité ne sont pas préservées. Il est question de la dérivation terme à terme et des conditions nécessaires pour que cette opération soit valide, ainsi que de l'importance de choisir les bons ensembles et séries pour appliquer ces modes de convergence.
🌀 Conclusion et réflexion sur les fonctions pathologiques
Le script conclut avec une réflexion sur les fonctions pathologiques, qui sont des fonctions créées pour mettre en défaut les raisonnements traditionnels. Il est question de l'extrait d'un ouvrage de Poincaré, 'Sciences et Méthodes', où il est question de la logique engendrant des monstres et de la façon dont ces fonctions bizarres sont devenues plus générales que celles utilisées dans des applications pratiques. La section se termine sur une note de questionnement sur les limites et les avancées des outils mathématiques.
Mindmap
Keywords
💡Convergence simple
💡Convergence absolue
💡Convergence uniforme
💡Convergence normale
💡Série de Taylor
💡Développement limité
💡Série de Fourier
💡Fonction de Weierstrass
💡Critère de Weierstrass
💡Série divergente
💡Série télescopique
Highlights
Explication des différents modes de convergence des séries de fonctions : simple, absolue, uniforme et normale.
L'histoire de l'émergence des concepts de convergence dans les mathématiques, avec la découverte de Newton sur le développement du binôme.
Importance de l'extension du développement du binôme à des exposants rationnels par Newton, inspiré par Wallis.
La notion de séries infinies et leur manipulation comme des expressions polynomiales au XVIIIe siècle.
L'idée de Taylor et sa publication dans 'Methodus Incrementorum' en 1715, influençant les développements infinis.
L'utilisation des séries de Taylor dans la géométrie et les calculs pratiques, comme l'intégration pour obtenir des équations primitives.
L'apparition du concept de convergence face aux manipulations douteuses de séries divergentes, illustrée par la série de Grandi.
L'introduction de la convergence absolue par Dirichlet en 1837 et son importance pour la manipulation des séries de fonctions.
La différence entre convergence absolue et convergence simple, et les implications pour la possibilité de dériver et intégrer des séries.
L'émergence de la convergence uniforme avec Weierstrass, qui permet de rectifier l'erreur de Cauchy sur la continuité des sommes de séries de fonctions continues.
Le critère de Weierstrass comme outil pour démontrer la convergence uniforme sans la nécessité d'expliciter la somme de la série.
La convergence normale, introduite par Baire, qui implique à la fois la convergence uniforme et absolue.
Limitations de la convergence normale, comme le cas de la fonction de Weierstrass qui est continue mais non dérivable nulle part.
L'importance de choisir le bon type de convergence pour les opérations sur les séries de fonctions, comme le passage à la limite et la dérivation.
La réflexion sur les fonctions pathologiques et leur rôle dans le développement des mathématiques, citant Poincaré.
La conclusion sur la convergence normale comme un mode de convergence pratique, mais non universel, pour les séries entières par exemple.
Transcripts
Sois le bienvenu.
Aujourd'hui, je vais répondre à deux questions qui t'ont sans doute bien des fois traversé
l'esprit: Convergence simple, absolue, uniforme, normale:
comment m'y retrouver parmi tous ces modes de convergence des séries de fonctions ?
Et d'ailleurs, pourquoi existent-ils en premier lieu ?
Pourquoi y en a-t-il quatre, et non pas un seul ? Pourquoi.
Et voici l'approche que je te propose dans cette émission.
Pour comprendre ce que représentent ces quatre modes de convergence, le plus simple, dans
un premier temps, c'est de comprendre pourquoi ils existent.
C'est ainsi qu'aujourd'hui, je vais te raconter l'histoire de leur émergence dans le monde
des mathématiques.
Dans le premier chapitre, on se retrouve presque quatre siècles en arrière, au XVIIᵉ siècle,
et plus précisément aux alentours de 1665. Le mathématicien anglais Newton, qui a lu
entre autres les travaux de Descartes et de Wallis réalise l'une de ses premières découvertes.
Tu connais certainement le résultat qui permet de développer l'expression (1+x)ⁿ, où
x désigne un nombre réel, et n un entier naturel.
La formule qu'on désigne aujourd'hui comme celle « du binôme de Newton » donne ce
résultat, avec les notations modernes. À l'époque, on l'aurait plus volontiers
exprimé sans utiliser le symbole Σ, comme ceci.
Mais en réalité, ce résultat, que j'encadre, on en trouve des traces bien des siècles
avant Newton, et cela partout dans le monde, notamment chez des mathématiciens indiens,
arabes, ou encore chinois.
Le résultat dont la paternité est réellement attribuée à Newton, et qu'il a démontré
en exploitant un indice laissé par derrière lui par Wallis, c'est l'extension de ce développement,
avec les points de suspension, pour un exposant rationnel et non pas seulement un entier naturel.
Par exemple, pour un exposant égal à -1, (1+x)^{-1}, c'est-à-dire 1/(1+x), on l'obtient,
en suivant la logique de cette égalité, comme 1, moins x, plus x², moins x³, plus
x⁴, et ainsi de suite.
Et si je me suis permis de simplifier les coefficients à la volée, c'est parce que
ce ne sont pas eux qui vont nous intéresser. Aussi étrange que cela puisse paraître,
ce sont ces points de suspension qui sont plus intéressants.
Parce que dans le cas où l'exposant est un entier naturel, les coefficients du développement
sont successivement 1, n, n(n-1)/2!, n(n-1)(n-2)/3!, cela jusqu'au dernier coefficient n(n-1) jusqu'à
1/n!, qui vaut 1, et c'est tout. Parce que si on souhaitait continuer, en suivant
la même logique, le coefficient d'après, celui-ci, ferait apparaître un 0 au numérateur.
Ce qui le rendrait nul, ainsi que tous les coefficients suivants.
Au contraire, l'exposant -1 auquel on retranche un entier naturel ne vaudra jamais 0, raison
pour laquelle ce que nous appellerons ce « développement » est un développement infini, il ne se
finit pas.
De la même manière, pour un exposant égal à 1/2, et en substituant -x² à x, pour
coller à l'un des exemples considérés par Newton, on peut obtenir le même genre de
développement qui, là aussi, est un développement infini, dans la mesure où 1/2 moins un entier
naturel n'est jamais nul, et donc il n'y a jamais de 0 qui apparaît au numérateur des
coefficients. Ces développements de Newton, qu'on vient
de voir, ils contiennent en germe une idée très importante qui nous apparaît aujourd'hui
comme une situation rêvée, et qui va guider tout le reste de cet exposé.
Cette idée, la voici: il serait merveilleux de pouvoir manipuler les développements de
Newton de la même manière que les expressions polynomiales, ou encore, plus généralement,
de manipuler ces sommes infinies de la même manière que les sommes finies, et nous y
reviendrons. Avant cela, j'aimerais traiter une question
t'est peut-être venue à l'esprit: ne parle-t-on pas plutôt de séries de Taylor, pour évoquer
ces développements infinis ?
Et en réalité, c'est bien le cas: même s'ils ont été obtenus par Newton en trafiquant
la formule du binôme, et par d'autres manières d'ailleurs, on peut obtenir ces mêmes « développements
» en suivant ce que j'ai appelé « l'idée de Taylor » dans une autre émission.
Et si ces développements portent aujourd'hui le nom de Taylor, c'est seulement parce que
c'est le premier à avoir publié un résultat qui ressemble, vu de loin, aux formules de
Taylor telles qu'on les connaît aujourd'hui, dans un ouvrage intitulé Methodus Incrementorum,
publié en 1715.
Et dans cet ouvrage, Taylor fait référence, entre autres, aux travaux de Newton, et tu
peux reconnaître ici les fameux coefficients 1, n, n(n-1)/2!, et ainsi de suite.
Alors que fait-on avec ces développements infinis, à une époque où le concept de
convergence n'a pas encore été rigoureusement défini, et où l'on se contente de très
latins « et caetera » ? Et bien, comme dans l'idée fondamentale qu'on
a exprimée un peu plus haut, on les manipule à peu près comme des expressions polynomiales.
En effet, les mathématiques à la mode, c'est de la bonne grosse géométrie à l'ancienne;
des calculs de longueurs par-ci, des calculs d'aires par-là; il s'agit de pouvoir calculer,
de manière pratique, certaines quantités, dont bon nombre proviennent de la physique,
ou encore de l'astronomie.
Et dans ce cadre, par exemple, certaines quantités sont réputées difficiles, comme certaines
portions d'aires qu'il y a entre une hyperbole et l'une de ses asymptotes, qui fait intervenir
la notion de logarithme.
N'est-il pas superbement pratique que d'intégrer l'équation qu'on a obtenue un peu plus haut,
de manière à ce que la courbe représentative de cette fonction « admette pour équation
», et je primitive chaque terme: y = x, moins x²/2, plus x³/3, moins x⁴/4, et ainsi
de suite. Rien de plus qu'une expression polynomiale,
en somme… ou presque !
Et finalement, peu importe ce concept futuriste de convergence: qui va se plaindre d'un mathématicien
capable de fournir systématiquement des calculs approchés avec 50 décimales correctes ?
Même aujourd'hui, on peut tout à fait admettre que c'était raisonnable, de la même manière
que les méthodes de Newton-Cotes paraissent encore raisonnables pour réaliser des calculs
d'aires en valeurs approchées. Mais certaines manipulations de ces développements
de Newton semblent aujourd'hui beaucoup plus douteuses.
Parce qu'à l'époque, on n'hésite tellement pas non plus, à évaluer, par exemple, ce
résultat en x=1, pour obtenir la surprenante égalité que voici: 1/2 est égal à 1-1+1-1,
et ainsi de suite.
Tu reconnaîtras, à droite de l'égalité, la « somme » d'une série divergente, la
série de Grandi, dont la somme est égale, selon ses écrits, à 1/2.
Et on pourrait se dire que c'est de cette absurdité que le concept de convergence a
émergé chez les mathématiciens.
Mais… non. On était tout à fait enclin à justifier
cette égalité par bon nombre de raisonnements des plus délicieux, comme celui-ci, proposé
par Leibniz en 1713.
En faisant la somme d'un nombre pair de termes, à droite de l'égalité, et en groupant les
termes deux par deux, on obtient 0.
En faisant la somme d'un nombre impair de termes, en laissant le premier terme de côté
et à nouveau en groupant les termes deux par deux, comme ceci, on obtient 1.
Et puisqu'il s'agit de faire une somme infinie, et que l'infini n'est ni pair ni impair, ces
deux valeurs sont donc en quelque sorte équiprobables, et le résultat est donc, s'il y a une justice
en ce bas monde, la moyenne arithmétique de 0 et de 1, c'est-à-dire 1/2.
En bref, si bien des mathématiciens de l'époque étaient parfaitement conscients de l'intuition
du concept de convergence, qui est l'objet principal de cet exposé, ils ne savaient
pas encore tellement quoi faire des séries divergentes.
À défaut, ils les utilisaient donc avec parcimonie, dans certains cas où elles pouvaient
aboutir à des résultats à peu près cohérents, comme celui-ci, en attendant que quelqu'un
y voie la nécessité d'y mettre de l'ordre. Comme tu le constates, il semble qu'on soit
encore bien loin des concepts de convergence des séries de fonctions.
Chronologiquement, c'est le cas. Mais dans cet exposé, pas du tout.
On va justement voir les deux premiers concepts de convergence des séries de fonctions dans
le deuxième chapitre de cette histoire, qui se déroule au début du XIXème siècle,
aux alentours de 1821.
Entre-temps, le concept mystérieux de convergence a fait son chemin et le mathématicien français
Cauchy vient de publier son très important Cours d'analyse de l'école royale polytechnique.
Dans ce cours remarquable, on trouve un grand nombre de notions mathématiques introduites
avec une rigueur tout à fait exceptionnelle pour l'époque.
Entre autres, il y décrit ce que représente pour ses contemporains une série numérique
convergente, et il s'exprime en ces termes.
« On appelle série une suite indéfinie de quantités u₀, u₁, u₂, u₃, etc.,
qui dérivent les unes des autres suivant une loi déterminée.
Ces quantités elles-mêmes sont les différents termes de la série qu'on considère. »
Et il considère ensuite sn, « la somme des n premiers termes » de la série, « n désignant
un entier naturel quelconque. »
Et sa définition de la convergence intervient ici:
« Si, pour des valeurs de n toujours croissantes, la somme sn s'approche indéfiniment d'une
certaine limite s, la série sera dite convergente, et la limite s'appellera la somme de la série.
» De cette définition, il fait découler, simplement
dirons-nous, un mode de convergence pour les séries de fonctions, bien qu'il ne s'exprime
pas en ces termes. Ce mode, c'est ce qu'on connaît aujourd'hui
comme la convergence simple, que je vais formuler en des termes modernes.
On considère I, un intervalle de R, ainsi que (fn), une suite de fonctions de I dans
R. Et on dit que la série de fonctions que voici
converge simplement vers une fonction s sur I, où s est aussi une fonction définie de
I dans R, si: pour tout x dans I, pour toute petite quantité ε, il existe un rang N à
partir duquel la distance entre notre n-ième somme partielle évaluée en x et notre fonction
limite évaluée en x est plus petite que ε.
Autrement dit, pour établir une convergence simple, il s'agit de démontrer que pour tout
x dans I, cette suite réelle converge vers s(x), au sens où l'entend Cauchy.
À cet endroit, il se pourrait que tu trouves ma définition bien étrange, puisque nulle
part Cauchy n'a utilisé de N, ou de ε.
En réalité, c'est un peu plus compliqué que ça.
Cauchy n'utilise pas ces symboles dans ses définitions, mais il les utilise parfois
dans ses démonstrations, comme on le verra un peu plus tard.
Son intention, c'est vraisemblablement de donner des définitions compréhensibles,
cela quitte à sacrifier un peu de rigueur, rigueur qu'on retrouvera plutôt dans les
parties techniques.
Et honnêtement, dans le cadre de l'enseignement, c'est une idée qui j'entends parfaitement,
et que tu pourras d'ailleurs retrouver dans les écrits de Poincaré, par exemple.
Alors justement, traitons l'un des exemples abordés un plus haut par Newton: celui de
la série géométrique, qui est d'ailleurs le premier exemple que considère Cauchy dans
son cours d'analyse, juste après avoir donné sa définition de la convergence.
On considère, pour tout entier naturel n, la fonction fn qui à un réel x dont la valeur
absolue est strictement inférieure à 1 associe xⁿ.
Notre but, naturellement, ça va être de démontrer que la série de fonctions correspondante
converge simplement sur l'intervalle ouvert ]-1,1[.
Pour cela, on va fixer x dans cet intervalle. Et notre but, désormais, c'est de démontrer
que cette somme de réels, et non pas de fonctions, admet une limite finie lorsque n tend vers
+∞.
Comme tu t'en doutes, ça ne va pas prendre très longtemps.
Pour tout entier naturel n, on peut calculer cette somme, en nous appuyant sur une somme
télescopique, pour trouver ceci, puisque x est différent de 1.
Et, plus précisément, puisque la valeur absolue de x est strictement inférieure à
1, on peut démontrer que cette quantité admet une limite lorsque n tend vers +∞
qui vaut 1/(1-x).
Par conséquent, en notant s la fonction qui à un réel x de l'intervalle ouvert ]-1,1[
associe cette quantité que j'écris comme ceci, à la Newton, on vient de démontrer
que la série de fonctions que voici converge simplement vers s sur ]-1,1[.
Et c'est à ce moment précis que l'intrigue se noue, et que les trois autres modes de
convergence dont on va parler aujourd'hui commencent à remuer dans l'ombre.
Admettons temporairement que le concept de convergence simple utilisé par Cauchy ne
soit pas ambigu, ce sur quoi nous reviendrons. Et à présent, disons que nous avons donné
un sens rigoureux à cette écriture. La question de pouvoir manipuler cette somme
infinie de la même manière qu'une somme finie demeure.
Est-ce que je peux, si les fonctions fn sont dérivables, dire que leur somme s l'est aussi,
et que sa dérivée en n'importe quel point x, c'est la somme des dérivées des fonctions
fn évaluées en x ?
Est-ce que je peux dire que l'intégrale de la somme, c'est la somme des intégrales ?
Est-ce que je peux dire que la limite de la somme, c'est la somme des limites ?
Est-ce que je peux sommer disons, les termes pairs d'un côté, les termes impairs de l'autre,
considérer la somme des deux, et dire que ça revient exactement au même que si j'avais
sommé les termes dans l'ordre des entiers naturels ?
Un point très important, c'est que si les sommes étaient finies, et non pas infinies,
la réponse serait oui à chacune des questions que je viens de poser.
Mais ce n'est pas le cas, les sommes sont infinies, a priori.
Et le drame, autour duquel l'intrigue se noue, c'est que la notion de convergence simple
ne permet de garantir une réponse affirmative à aucune des quatre questions que je viens
de poser.
La question du passage à la limite, c'est le premier petit défi de cette émission:
peut-être sauras-tu retrouver, dans ce qui a été fait jusqu'à présent, l'exemple
d'une série de fonctions qui converge simplement, mais dont on ne peut pas dire que la limite
de la somme est la somme des limites.
Quant aux possibilités de dériver, de séparer termes pairs et impairs, ou encore de sommer
dans n'importe quel ordre, nous allons nous y atteler tout de suite, ce qui va nous mettre
sur la piste d'autres modes de convergence.
C'est le début du troisième chapitre de cette histoire, qui se déroule aux alentours
de 1827. Entre temps, Fourier a publié son très célèbre
Théorie analytique de la chaleur, dans lequel la notion de série de fonctions prend une
importance considérable, dans la mesure où cet ouvrage contient, entre autres, l'introduction
de ce qu'on connaît aujourd'hui comme les séries qui portent son nom, les séries de
Fourier.
On y trouve, par exemple, l'extrait suivant: « On peut envisager ces mêmes équations
sous un autre point de vue, et démontrer immédiatement l'équation que voici.
π4 = cos(x) - 1/3 cos(3x) + 1/5cos(5x) - 1/7 cos(7x) + 1/9 cos(9x) et ainsi de suite.
Le cas où x est nulle se vérifie par la série de Leibnitz, π4 = 1-1/3 + 1/5 - 1/7
+ 1/9 et ainsi de suite. »
Précisément, ce que décrit Fourier dans les pages qui contiennent cet extrait, c'est
l'intention d'exprimer une fonction qui vaut tantôt π/4 et tantôt -π/4, cela de manière
périodique, comme une somme infinie de fonctions trigonométriques, et je représente ici la
troisième somme partielle de cette série.
Naturellement, l'égalité qu'écrit Fourier, et que je reproduis dans cet encadré, n'est
pas valable pour tout réel x. En réalité, elle n'est valable que sur l'intervalle
ouvert ]-π/2,π/2[, ainsi que sur toutes les translations de cet intervalle d'un multiple
entier de 2π. Tu peux tout simplement imaginer que sur ces
intervalles, les oscillations de la courbe rouge disparaissent lorsqu'on passe à la
limite, et que la courbe en rouge finit par se confondre avec la courbe en vert.
D'ailleurs, pour les intervalles sur lesquels la fonction vaut -π/4, c'est exactement la
même chose.
Et pour terminer à propos de cette somme infinie, on peut remarquer qu'étrangement,
si on prend x = π/2, par exemple, tous les cosinus sont nuls, et la somme ne vaut donc
ni π/4, ni -π/4, mais la moyenne arithmétique des deux, c'est-à-dire 0.
Ce phénomène curieux interroge. Et de surcroît, une fonction discontinue
a été obtenue comme la somme d'une série de fonctions de classe C^∞ ! Vu dans l'autre
sens, si on comptait dire que la dérivée de la somme, c'est la somme des dérivées,
c'est raté. La somme n'est même pas une fonction continue.
C'est ainsi que la convergence des séries de Fourier devient un objet d'études privilégié,
ce qui occupera les mathématiciens pendant une bonne partie du XIXème siècle.
Et c'est au cours de ses recherches à ce propos que Dirichlet observe un autre phénomène
des plus étranges, qui va me permettre de mettre en scène un deuxième mode de convergence
des séries de fonctions.
Tout comme Fourier a évalué l'égalité encadrée en x=0 pour exprimer π/4 comme
la somme d'une série alternée, la série de Leibnitz, Dirichlet rencontre sur son chemin
le même genre de séries alternées, dont par exemple celle-ci, ou encore celle-là.
Pour la première, lorsqu'on somme ses termes dans l'ordre, la série converge.
Mais lorsqu'on réorganise ces mêmes termes dans un ordre différent, la série correspondante
diverge.
Et pour la deuxième, les deux ordres de sommation correspondent à des séries tout à fait
convergentes, mais leurs sommes sont différentes !
Et à propos de la somme de la série harmonique alternée, série dont on peut établir la
convergence grâce à la transformation d'Abel, par exemple, Newton se rappelle à ton bon
souvenir pour calculer sa valeur. En utilisant l'un de ses développements infinis
qu'on a vu tout à l'heure, et en l'évaluant en x=1, on obtient ln(2).
Bref, l'essentiel, c'est que lorsqu'on considère une somme infinie, l'ordre de la somme importe.
Et c'est ainsi que le projet de manipuler des sommes infinies de la même manière que
les sommes finies s'éloigne encore un peu plus.
Mais pour ce problème spécifiquement, Dirichlet connaît le remède: la convergence absolue,
dont je vais donner la définition.
Comme tout à l'heure, on considère I, un intervalle de R, ainsi que (fn) une suite
de fonctions de I dans R. Et on dit que la série de fonctions que voici
converge absolument sur I si la série des |fn| converge simplement sur I.
Et ce que démontre Dirichlet en 1837, en tâchant de l'exprimer simplement, c'est que
si une série converge absolument, alors l'ordre de sommation n'impacte ni la convergence,
ni la somme. Autrement dit, avec de la convergence absolue,
il est impossible d'observer les phénomènes étranges qu'on a décrits il y a quelques
instants. Une question qu'il est bon de se poser, c'est:
la convergence absolue implique-t-elle la convergence simple ?
Au niveau de la terminologie qui a été choisie, tout semble indiquer que oui, mais pourquoi
?
Je vais exposer brièvement quelques idées qui sont les esquisses de deux démonstrations
possibles de cette implication, et qui nous permettront de mieux comprendre la convergence
absolue.
Un point essentiel, c'est que pour établir de la convergence simple tout comme de la
convergence absolue, il s'agit de fixer x dans l'intervalle sur lequel il est sensé
y avoir convergence, puis de démontrer la convergence d'une série numérique, c'est-à-dire
la convergence d'une suite, celle de ses sommes partielles.
Dans ces esquisses de démonstration, je vais donc me contenter d'expliquer pourquoi convergence
absolue implique convergence pour des séries numériques, et plus particulièrement, pour
des séries de réels. Une première idée, c'est d'exploiter l'inégalité
triangulaire pour écrire ceci. Et grâce à l'hypothèse de convergence absolue,
on peut démontrer que quitte à choisir p et q assez grands, on peut rendre cette somme
plus petite que n'importe quel ε, cela puisque la suite des sommes partielles de cette série
converge, donc est ce qu'on appelle une suite de Cauchy.
La démonstration ne prend que quelques lignes.
Mais le plus important, c'est que grâce à cette majoration, on en déduit que la suite
des sommes partielles de notre deuxième série est aussi une suite de Cauchy, donc converge.
Et cette implication, elle est bien loin d'être aussi élémentaire que son implication réciproque.
Pourtant, ce résultat, selon lequel toute suite de nombre réels qualifiée « de Cauchy
» converge, il est déjà présent dans le Cours d'analyse de notre gentilhomme, dès
1821. Mais là où on pourrait s'attendre à voir
une démonstration des plus ardues, on ne trouve qu'une phrase péremptoire:
« Réciproquement, lorsque ces diverses conditions sont remplies, la convergence de la série
est assurée. » En bref, un enfumage en règle !
Et un enfumage naturel, en réalité: le fait que l'ensemble des nombres réels soit qualifié
de complet, notion topologique qui traduit justement le fait que toute suite de Cauchy
converge, il présuppose déjà qu'on sache exactement de quoi on parle lorsqu'on prononce
les mots « nombres réels ». Et pour cela, il faudra encore attendre une
cinquantaine d'années, avec les travaux de Méray, de Cantor, et de Dedekind.
En attendant, utiliser le critère de Cauchy pour démontrer qu'une série converge, c'est
une recette à la mode, et ça l'est resté, tout comme la très basique « comparaison
de séries à termes positifs ».
Justement, pour démontrer cette implication d'une deuxième manière, on peut se fonder
sur cet encadrement, qui provient du fait que n'importe quel nombre réel, ainsi que
son opposé, est toujours plus petit que sa valeur absolue.
Le terme de droite, c'est le terme général d'une série convergente, par hypothèse.
Ainsi, par comparaison de séries à termes positifs, |an|-an est aussi le terme général
d'une série convergente, ainsi que son opposé.
Et maintenant, en écrivant an comme ceci, on s'aperçoit qu'on trouve ici le terme général
d'une série convergente (c'est ce qu'on vient de démontrer), et là aussi le terme général
d'une série convergente, cela par hypothèse. Par conséquent, la série des an converge
en tant que somme de deux séries convergentes. Voilà qui en termine pour ces deux petites
esquisses. La convergence absolue implique, bel et bien,
la convergence simple.
Pour récapituler, je t'invite à retenir deux choses.
La première, c'est que la convergence absolue est un moyen pratique d'obtenir de la convergence
simple pour des séries de fonctions, ou de la convergence tout court pour des séries
numériques.
En effet, elle nous permet tout d'abord d'envisager de nous ramener à l'étude de séries à
termes positifs, ce qui permet d'utiliser certains outils spécifiques à ce genre de
séries, comme la fameuse « comparaison de séries à termes positifs ».
Et que ce soit par exemple le critère de négligeabilité, le critère de Cauchy, ou
encore le critère de d'Alembert, dont tu peux retrouver la démonstration sur ma chaîne,
tous ces critères permettent d'établir en premier lieu de la convergence absolue qui
implique, comme on vient de la voir, la convergence.
Et au-delà de ces aspects pratiques, la convergence absolue permet aussi quelques manipulations
spécifiques. On a évoqué plus tôt la possibilité de
modifier l'ordre de sommation d'une série sans en changer la nature, ni la somme, mais
on peut aussi penser à d'autres résultats, comme par exemple celui qui énonce que le
produit de Cauchy de deux séries absolument convergentes est une série absolument convergente
donc convergente, par exemple.
C'est intéressant, pourrait-on dire, mais ça ne règle pas cette révoltante affaire
de série de fonctions de classe C^∞ dont la somme est une fonction discontinue, n'est-ce
pas ?
Et la réponse est non. Même si la convergence était absolue, ce
qui n'est pas le cas dans l'exemple proposé par Dirichlet, ni dans l'exemple auquel Abel
fait référence dans la lettre dont tu pourras retrouver la lecture sur ma chaîne, on pourrait
quand même voir ce genre de phénomène se produire.
Et justement, je vais te proposer un troisième exemple plus simple, qui ne s'appuie pas sur
les séries de Fourier, et qui pourtant permet de comprendre d'une manière remarquable les
origines du phénomène.
On va considérer, pour tout entier naturel non nul n, fn la fonction qui à tout réel
x du segment [0,1] associe (x-1)x^{n-1}. Mon but, c'est d'illustrer graphiquement la
manière dont la série des fonctions fn converge.
Avant cela, j'ai fait en sorte de pouvoir aisément en calculer les sommes partielles.
Comme tout à l'heure, on va fixer un réel x dans le segment [0,1], et pour tout entier
naturel non nul n, on va calculer cette somme-là, qui est encore celle-ci, en développant cette
expression.
À cet endroit, et c'est ainsi que cet exemple a été conçu, on voit apparaître une somme
télescopique dont il ne subsiste que les deux termes que voici.
Et cette quantité, elle admet une limite lorsque n tend vers l'infini, qui vaut -1
si x est strictement inférieur à 1 et qui vaut 0 si x est égal à 1.
Ainsi, en notant s la fonction qui à un réel x du segment [0,1] associe cette quantité,
qu'on vient de calculer, on en conclut que la série de fonctions des fn converge simplement
vers la fonction s sur [0,1].
Et on peut même remarquer qu'en réalité, cette série converge absolument sur [0,1]
puisque toutes les fonctions fn sont négatives sur ce segment, et donc la convergence simple
équivaut à la convergence absolue, dans ce cas.
Ça, c'était pour les calculs. À présent, nous allons essayer d'observer
ce qu'il se passe. Voici respectivement les courbes représentatives
de la première, de la troisième, de la neuvième et de la vingt-septième somme partielle de
la série dont on vient d'établir la convergence absolue.
Comme tu peux le voir, ces courbes ressemblent de plus en plus à celle de la fonction s
dont on a donné l'expression ici. Cela, c'est une illustration du concept de
convergence simple. Et on observe bien une suite de fonctions
de classe C^∞ qui converge simplement vers une fonction discontinue.
Pour comprendre ce phénomène, et surtout pour comprendre comment faire en sorte qu'il
ne se produise pas, nous allons regarder ce qu'il se passe pour certaines abscisses.
Disons que nous souhaitons regarder à partir de quel rang les sommes partielles se situent
dans cette petite zone d'ordonnées.
Pour la première abscisse, c'est très rapide: la troisième somme partielle se situe déjà
dans le petit intervalle, ainsi que toutes les suivantes.
Pour la deuxième abscisse, c'est la même chose: la troisième somme partielle est déjà
là où on le souhaite.
Pour la troisième abscisse, il faut attendre un peu plus: la troisième somme partielle
n'est pas assez proche de -1, mais la neuvième l'est.
Et pour la quatrième abscisse, il faut attendre encore plus: la neuvième somme partielle
n'est pas dans le petit intervalle, mais la vingt-septième l'est.
Et si je continue à regarder des points dont l'abscisse est de plus en plus proche de 1,
je m'aperçois qu'il faut attendre de plus en plus longtemps pour finir dans le petit
intervalle d'ordonnées que j'ai dessiné.
Autrement dit, les vitesses auxquelles les séries des fn(x) convergent dépendent beaucoup
de x, et ces vitesses sont extrêmement disparates; on pourrait dire que cette convergence n'est
pas uniforme, c'est chacun son rythme. Plus l'abscisse se rapproche de 0, plus la
convergence est rapide, et plus elle l'abscisse se rapproche de 1, plus la convergence est
lente. Au contraire, si on imagine une série de
fonctions dont les trois premières sommes partielles peuvent être représentées comme
ceci, on n'observe pas du tout ce même phénomène.
On observe que les ordonnées des points de ces courbes sont respectivement comprises
dans ces trois intervalles, dont la longueur est divisée par deux à chaque fois, exactement
comme dans la construction que j'avais réalisée avec les demi-cercles, dans mon émission
que j'appellerais « π = 2 ».
Et donc, si on se fixe un petit intervalle d'ordonnées autour de 0, aussi petit soit-il,
il va exister un rang à partir duquel toutes les ordonnées des points des courbes représentatives
des sommes partielles sont comprises dans cet intervalle.
Autrement dit, la convergence de cette série de fonctions vers la fonction nulle se fait
de manière uniforme. Et même s'il faut attendre un peu plus pour
certaines abscisses que pour d'autres, on peut trouver une vitesse qui convient à toutes
les abscisses.
Comme tu l'as sans doute entendu, dans les deux exemples qu'on vient de voir, la convergence
peut, ou pas, se produire de manière uniforme. Et c'est à peu près ainsi que s'exprimait
Gudermann, qui a eu l'honneur d'être à la fois l'élève de Gauss et le professeur de
Weierstrass.
Justement, aux alentours de 1841, quelques mois à peine après les cours qu'il a reçus,
Weierstrass saisit l'importance de ce qui est alors une simple observation et la concrétise
en un concept à part entière: la convergence uniforme.
Et même si ce concept va subir graduellement de petites modifications ici et là, ce dont
on peut se rendre compte en lisant les notes de certains de ses étudiants à l'université
de Berlin de 1857 à 1887, l'idée qu'il y a derrière est toujours celle de Gudermann,
celle qu'on vient d'exposer sur les exemples.
Et dans sa version finale, ce concept est exposé dans la définition que voici.
On considère I, un intervalle de R, ainsi que (fn), une suite de fonctions de I dans
R. Et on dit que la série de fonctions que voici
converge uniformément vers une fonction s sur I si pour tout ε>0, il existe un rang
à partir duquel pour tout x, la distance entre la n-ième somme partielle évaluée
en x et la limite évaluée en x est plus petite que ε.
Il est naturel de s'interroger sur ce qui différencie cette notion de celle de convergence
simple, que je reproduis ici. Symboliquement, il n'y a qu'une seule interversion
significative: celle du « il existe N » et du « quelque soit x ».
Et cette différence, c'est précisément la différence que nous avons observée sur
les deux illustrations un peu plus haut.
En effet, dans la convergence simple, le rang dépend, a priori, de x, et mériterait d'ailleurs
d'être noté comme ceci pour mettre l'emphase sur cette dépendance.
Tout à l'heure, je te disais: plus x se rapproche de 1, plus il faut attendre longtemps avant
d'obtenir ce que l'on souhaite.
Au contraire, dans la convergence uniforme, le rang N convient pour tout x.
Ce qui correspond, sur le dessin juste au-dessus avec les sinusoïdes, au fait qu'il existe
un rang à partir duquel tous les points de la courbe sont aussi proches de l'axe des
abscisses qu'on le souhaite. Et ça, ça fait vraiment toute la différence.
Je vais élaborer à ce propos en revenant au cours d'analyse de Cauchy, dans lequel
on trouve un théorème étonnant: « Lorsque les différents termes de la série
(1) sont des fonctions d'une même variable x, continues par rapport à cette variable
dans le voisinage d'une valeur particulière pour laquelle cette série est convergente,
la somme s de la série est aussi, dans le voisinage de cette valeur particulière, fonction
continue de x. »
Mais ce théorème, qui affirme que la limite ponctuelle d'une série de fonctions continues
est continue, on sait qu'il est faux, et j'en ai déjà présenté deux contre-exemples
dans cette émission: l'un juste avant cette définition, et l'autre, sur une idée de
Dirichlet, avec une série de Fourier. Et ce qui est extrêmement instructif, c'est
de comprendre comment une telle erreur a pu survenir.
Je vais donc esquisser la démonstration que donne Cauchy, juste à droite du théorème,
et nous allons observer ensemble l'erreur qu'elle contient.
Cauchy part d'une idée simple, et souhaite démontrer que cette somme tend vers la somme
des fn(a) lorsque x tend vers a. C'est la définition de la continuité de
la fonction s en un point a. Pour cela, il propose de séparer la somme
en deux parties, comme ceci.
À gauche, il reconnait une somme finie de fonctions continues: assurément, lorsque
x tend vers a, cette somme tend vers la somme des fn(a).
Et à droite, il explique que si on attribue à N une valeur « très-considérable », cette
somme, reste d'une série convergente, devient une quantité infiniment petite, qui n'a donc,
moralement, aucune importance dans le passage à la limite.
Sauf que son N, aussi « très-considérable » soit-il, il dépend, a priori, de x, avec
sa définition de la convergence simple. Et donc, s'il souhaite rendre la deuxième
somme plus petite qu'une certaine quantité ε, puis faire tendre x vers a, il va se retrouver
avec une somme de gauche qui contient potentiellement de plus en plus de termes tandis que x se
rapproche de a, si bien que lorsque x tend vers a, la somme de gauche devient potentiellement
infinie, auquel cas son argument consistant à reconnaître une somme finie de fonctions
continues ne tient plus.
Au contraire, avec un rang N qui serait valable pour tout x, issu d'une convergence uniforme,
cette objection disparaîtrait, et on pourrait, en suivant cette idée, fournir une démonstration
qui établit bel et bien que la limite uniforme d'une série de fonctions continues est une
fonction continue.
Voilà qui saura sans doute donner de l'importance à l'introduction rigoureuse des variables
avec des quantificateurs telle qu'on la connaît aujourd'hui, et que l'on doit en grande partie
à la rigueur allemande de Weierstrass.
Cette différence fondamentale entre convergence uniforme et convergence simple, et le fait
que la première notion soit bien plus forte que la deuxième, tu pourras les retrouver
dans d'autres émissions, et je vais mentionner immédiatement deux d'entre elles puisqu'elles
sont en rapport direct avec ce que je viens d'exposer.
Dans la première, je mets en scène une erreur qui ressemble à celle qu'a réalisée Cauchy
de manière plus explicite, en illustrant cette histoire d'inter-dépendance des variables.
Et dans la deuxième, je démontre que toute fonction analytique est holomorphe en utilisant
correctement, cette fois, l'idée qu'a proposée Cauchy.
Pour terminer, sur cette affaire de continuité qui est préservée, ou pas, par tel ou tel
type de convergence, Marcel te propose cette justification.
Dans de la convergence simple, on fixe x, puis on passe à la limite, et les limites
obtenues nous servent à reconstituer notre fonction s.
Graphiquement, c'est comme si on considérait une courbe non pas comme un tout, mais comme
l'ensemble des points qui la constituent, raison pour laquelle je te suggère de parler
de convergence ponctuelle, plutôt que de convergence simple.
Et fragmenter, passer à la limite pour chaque abscisse, et recoller ensuite tous les points
obtenus pour constituer une courbe, rien là-dedans ne suggère qu'on n'est pas en train de casser
la courbe en mille morceaux.
Au contraire, avec la convergence uniforme, les courbes des fonctions sont considérées
comme un tout, et tous les points de la courbe sont soumis à un même passage à la limite.
Et dans ces conditions, il est bien plus raisonnable de se dire que deux points voisins au départ
resteront voisins après le passage à la limite, et il s'avère que c'est bien le cas.
Le temps est venu de revenir à notre situation rêvée, exposée un peu plus tôt.
Peut-on manipuler des sommes infinies de la même manière que si elles étaient finies
pour réaliser ces opérations ?
Pour séparer les termes pairs et impairs, ou encore pour réordonner les termes autant
qu'on le souhaite, on a mentionné que la convergence absolue faisait l'affaire, mais
qu'elle n'était pas suffisante pour garantir la préservation de la continuité, par exemple,
et elle en est même très loin.
Et ce qu'on peut montrer, c'est qu'en appliquant le concept de convergence uniforme sur les
séries de fonctions appropriées et sur des intervalles qui conviennent, on peut réaliser
ces trois opérations-là: le passage à la limite, la dérivation et l'intégration.
Une objection, qu'on peut soulever ici, concerne la possibilité d'établir, de manière pratique,
la convergence uniforme. Parce que dans la plupart des cas, et contrairement
aux exemples dans lesquels nous avons reconnu des sommes télescopiques (c'était bien pratique,
c'est moi qui les ai choisis) dans la plupart des cas, la somme de la série, on n'en dispose
pas de manière explicite.
Et donc, lorsqu'il s'agit d'étudier la différence entre cette somme partielle et la fonction
s évaluées en x, la seule simplification d'écriture qui vient à l'esprit, c'est celle
qui consiste à exprimer cette différence comme un reste, comme dans l'idée de Cauchy.
Ainsi, établir de la convergence uniforme, c'est démontrer que pour tout ε>0, il existe
un rang à partir duquel pour tout x dans I, la valeur absolue du reste de la série
des fn(x) est plus petite que ε. Mais n'est-ce pas délicat, que d'établir
cela ?
Et dans un certain sens, la réponse, c'est que si.
Majorer le reste d'une série, ça peut être relativement fastidieux.
Dans certains cas, on peut faire un calcul explicite, et dans d'autres, comme avec les
séries alternées, on dispose directement d'une majoration du reste, en valeur absolue,
mais dans le cas général, ce n'est pas incroyablement pratique.
Cela dit, dans bien des cas, on peut utiliser une petite recette allemande que je vais te
montrer. Cette recette, c'est le critère de Weierstrass.
S'il existe une suite réelle (αn) telle que, premièrement, pour tout entier n et
pour tout x dans I, on puisse majorer la valeur absolue de fn(x) par αn, qui se trouve être
indépendant de x, et deuxièmement, telle que la série des αn converge, alors la série
des fonctions fn converge uniformément vers une fonction s sur I.
Et comme tu le vois, l'avantage de cette petite recette, c'est qu'il ne s'agit plus de procéder
à la pénible majoration d'un reste, et que la somme s, dont on ne dispose pas forcément,
elle n'intervient nulle part.
Il s'agit seulement de démontrer que chacune des fonctions fn, en valeur absolue, est bornée
par le terme général d'une série convergente. Et c'est beaucoup plus pratique, comme on
va le voir ensemble.
Je vais te présenter un exemple qui, comme un peu plus tôt, fait intervenir des sinusoïdes.
On considère, pour tout entier naturel non nul n, la fonction fn, qui va de R dans R,
et qui à tout réel x associe sin(nx)/2ⁿ.
En guise d'illustration, je vais représenter quelques portions des courbes représentatives
des premières sommes partielles de cette série: voici la première, la deuxième,
et la troisième.
Comme tu le vois, les courbes rouge et jaune, qui correspondent seulement à la deuxième
et à la troisième somme partielles, elles se ressemblent déjà pas mal.
Et en prenant la dixième somme partielle, par exemple, on obtient déjà une très bonne
esquisse de la courbe représentative de la somme, de la limite ponctuelle de la série
des fonctions fn.
Et il s'avère que la série de fonctions correspondante converge uniformément.
Pour démontrer ça facilement, utilisons la recette de Weierstrass.
Pour tout entier naturel non nul n, et pour tout réel x, la valeur absolue de fn(x),
c'est celle-ci. Et on peut la majorer, très simplement, par
1/2ⁿ, qui est le terme général d'une série géométrique convergente.
Ainsi, d'après le critère de Weierstrass, notre série de fonctions converge uniformément
sur R. Et c'est déjà terminé !
Et quant à la somme de la série, en l'état, je peux seulement l'exprimer comme ceci.
Alors peut-on utiliser le critère de Weiestrass, dont on vient de voir qu'il est remarquablement
efficace, pour établir n'importe quelle convergence uniforme ?
Et la réponse, malheureusement, c'est non.
Pour faire ce triste constat, on peut considérer, par exemple, la série harmonique alternée,
qu'on peut interpréter comme une série de fonctions constantes.
On a évoqué, un peu plus tôt, que cette série numérique convergeait, grâce à l'utilisation
de la transformation d'Abel, par exemple. Et bien en termes de série de fonctions,
cela nous donne directement de la convergence uniforme.
Trouver un rang qui convient pour tout x ? Rien de plus facile; il n'y a même pas de
x dans les expressions, ce sont des fonctions constantes, on est dans le confort absolu.
Ou plutôt, pas absolu, justement. Et c'est ce qui rend impossible l'utilisation
du critère de Weierstrass. Dans le cas qu'on étudie, cette valeur absolue,
sans parler de la majorer, on peut la calculer, et c'est le terme général de la série harmonique,
qui diverge. Et c'est ainsi que le défaut de convergence
absolue nous empêche d'utiliser le critère de Weierstrass, bien qu'il y ait, malgré
cela, convergence uniforme.
Tous les ingrédients sont réunis pour parvenir naturellement au dernier chapitre de cette
histoire, qui se déroule aux alentours de 1908.
Tout à l'heure, nous avons vu que Weierstrass avait extrait des cours de Gudermann une simple
observation pour mettre en lumière ce qui selon lui méritait d'être un concept à
part entière, la convergence uniforme.
Et bien c'est à peu près de la même manière qu'en 1908, le mathématicien français Baire
souligne l'importance de la recette de Weierstrass en l'introduisant, elle aussi, comme un concept
en tant que tel, auquel il donne le nom de convergence normale.
Dans ses Leçons sur les théories générales de l'Analyse, il la définit à peu de choses
près comme ceci.
On considère pour la dernière fois I, un intervalle de R, ainsi que (fn) une suite
de fonctions de I dans R. Et on dit que la série de fonctions que voici
converge normalement sur I si, d'une part, toutes les fonctions fn sont bornées, et
d'autre part, si la série numérique des bornes supérieures des fonctions fn sur I
converge.
Le fait que les fn soient bornées permet bel et bien de donner du sens à ces bornes
supérieures des fonctions fn sur I, bornes supérieures qui correspondent exactement,
d'ailleurs, aux plus petits αn qu'il était possible de choisir dans la recette de Weierstrass.
Et justement, pour une série de fonctions, vérifier la définition de la convergence
normale donnée par Baire, ça revient exactement au même que vérifier le critère de Weierstrass,
c'est une seule et même notion qu'on appelle convergence normale.
Tant qu'on est là, on peut apprécier ce nouveau concept par le prisme de notre situation
rêvée. Non seulement la convergence normale implique
la convergence uniforme, c'est la recette de Weierstrass, mais elle implique aussi la
convergence absolue, ce qu'on obtient sans aucune difficulté.
Et donc, grâce à la convergence normale, on peut justifier la manipulation des sommes
infinies à peu près de la même manière qu'on manipulerait des sommes finies.
Et c'est l'une des raisons pour laquelle cette terminologie, de convergence normale, est
doublement intelligente. On peut l'entendre à la fois comme une référence
au fait qu'une série de normes converge, mais aussi comme l'évocation du fait qu'elle
nous permet d'éviter ces étranges phénomènes qu'on avait vus, avec des séries qui devenaient
subitement divergentes dès lors qu'on en changeait l'ordre des termes, ou avec des
séries de fonctions de classe C^∞ qui subitement devenaient discontinues.
Avec la convergence normale, on évite tous ces désagréments, et on peut se dire que
tout se passe à peu près normalement. Le moment est venu pour moi de te présenter
un petit récapitulatif des quatre modes, ou des quatre types de convergence qu'on a
évoqués.
Bien des années après les développements de Newton est apparu un premier type de convergence,
la convergence simple. Cette convergence, Cauchy avait pour usage
de l'obtenir bien souvent par un moyen pratique, la convergence absolue, qui a le mérite supplémentaire
de permettre, entre autres, la réorganisation des termes d'une série sans en changer ni
la nature, ni la somme.
Ces deux types de convergences, on les qualifie de ponctuels: on fixe un x dans l'intervalle
de départ, et il s'agit ensuite d'établir la convergence d'une série numérique.
En raisonnant avec ces modes de convergence ponctuels, le problème, c'est qu'une série
de fonctions très régulières peut avoir une somme discontinue.
Pour ne pas subir un tel désagrément, et pour rectifier la célèbre erreur qui se
trouve dans la démonstration de Cauchy, on est amené à considérer un nouveau mode
de convergence: la convergence uniforme, dans laquelle le rang N à partir duquel il se
passe les choses qui nous arrangent ne dépend pas de x, ce qui en fait un concept plus puissant
que la convergence simple.
Cette convergence uniforme, Weierstrass l'obtient bien souvent en utilisant une petite recette
maison: le critère de Weierstrass, qui équivaut à la définition de la convergence normale
formalisée par Baire, et dont on montre aisément qu'elle implique la convergence absolue.
Ces deux modes de convergence, uniforme et normale, ils permettent de considérer, moralement,
les courbes comme des touts, ce sont des modes de convergence bien plus adaptés que les
deux autres pour manipuler sereinement des séries de fonctions dans le cadre de l'analyse.
Pour terminer, il est bon de se rappeler qu'il n'existe aucune autre implication que celles
que j'ai représentées ici, mise à part l'implication entre convergence normale et
convergence simple, bien entendu. Et pour constater cela, il suffit d'avoir
en tête deux exemples.
Le premier, c'est cette série de fonctions polynomiales dont on a montré qu'elle convergeait
simplement et absolument, grâce à un télescopage. Et comme la somme de cette série est une
fonction discontinue, il ne peut y avoir ni convergence uniforme, ni convergence normale.
Et le deuxième exemple, c'est celui-ci, la série harmonique alternée, qu'on considère
aussi bien comme une série numérique que comme une série de fonctions constantes.
On peut démontrer, grâce au critère spécial sur les séries alternées, par exemple, que
cette série converge simplement, et uniformément, puisqu'il n'y a pas de x.
Et en reconnaissant la série harmonique, on constate que cette série ne converge ni
absolument, ni normalement.
Voilà qui achève le récapitulatif de ma petite histoire sur les quatre modes de convergence.
Pour terminer, en observant ce schéma, on peut tout de même se poser une question:
La convergence normale serait-elle donc le remède à tous les maux ?
Depuis tout à l'heure, je ne cesse d'en vanter les avantages, en disant qu'elle permet des
tas d'opérations similaires à celles qu'on réalise sur les sommes finies, mais est-ce
bien le cas ?
C'est ce qu'on va voir dans le dernier exemple de cette émission, qui met en scène le retour
des sinusoïdes d'une manière spectaculaire.
On considère, pour tout entier naturel non nul n, la fonction fn qui va de R dans R et
qui à tout réel x associe sin(3ⁿx)/2ⁿ. Et on démontre, grâce au critère de Weierstrass,
qu'on dispose là d'une série de fonctions qui converge normalement donc uniformément
sur R vers cette fonction-là. Pour démontrer cela, on procède, à très
peu de choses près, comme tout à l'heure.
Et l'idée, c'est que tandis que le 2ⁿ au dénominateur permet de garantir très fermement
la convergence normale, puisqu'on va pouvoir majorer par le terme général d'une série
géométrique, au numérateur, à l'intérieur du sinus, on provoque des oscillations avec
un terme multiplicatif nettement plus fort que 2ⁿ: 3ⁿ.
Et pour que tu puisses te représenter l'effet que ça a, je représente ici la première,
la deuxième, la troisième, la quatrième, puis la cinquième somme partielle de cette
série, suite à quoi ça devient difficile d'y voir quoi que ce soit.
Mais je t'invite à imaginer tout de même que plus on avance dans les sommes partielles,
plus les oscillations ressemblent à des oscillations incontrôlables, si bien que la somme de la
série est une fonction continue sur R, mais n'est dérivable en aucun point de R.
Quelle surprise ! Comment est-ce possible ? N'avait-on pas dit
que la convergence uniforme, et a fortiori normale, permettait de passer à la limite,
d'intégrer, et dans notre cas, de dériver ?
Si. Mais si tu rembobines, tu m'entendras dire
qu'il s'agit d'utiliser ces modes de convergence sur les bons ensembles, et surtout, sur les
bonnes séries. Et si on voulait dériver terme à terme,
c'est la convergence uniforme de la série des fn' qui nous intéresserait en premier
lieu.
Dans l'exemple précédent avec les sinusoïdes, tu pourras démontrer sans aucune peine la
convergence uniforme de la série des dérivées, grâce au critère de Weierstrass, à nouveau.
Sauf que dans notre cas, les dérivées ressemblent à cela.
Pour qu'une série converge, il faudrait déjà que son terme général tende vers 0.
Sauf qu'ici, pour une valeur de x donnée, (3/2)ⁿ tend vers l'infini à toute allure,
tandis que sin(3ⁿx) parfois tend vers 0, et parfois n'a pas de limite, ça dépend
de x ! Et c'est justement le deuxième défi de cette
émission que de comprendre exactement pour quelles valeurs de x chacun de ces deux cas
se produit.
Un indice, c'est qu'ils se produisent tous les deux relativement souvent, et que dans
le cas où le sinus n'a pas de limite, on multiplie un terme qui tend vers +∞ par
un terme qui n'a pas de limite, ce qui nous donne, en bout de chaîne, le terme général
d'une série horriblement divergente.
Et c'est ainsi que le théorème de dérivation terme à terme, qui utiliserait comme hypothèse
principale la convergence uniforme de la série des dérivées est bien loin d'être applicable.
Et comme on le disait, on peut même démontrer, avec beaucoup de travail, que cette fonction
s n'est dérivable en aucun point de R.
C'est ce qu'on appelle une fonction de Weierstrass, et on peut en produire d'autres, sur le même
modèle, en choisissant convenablement les paramètres a et b.
Ce que montre cet exemple, c'est que le concept de convergence normale, qui a mis tant de
temps à émerger, fait à peine le nécessaire: en partant de fonctions pourtant de classe
C^∞, seule la continuité est préservée, et rien de plus, pas un seul point de dérivabilité
là-dedans.
Ainsi, dire que la convergence normale est le mode de convergence ultime, certainement
pas. Mais il n'en reste pas pour le moins pratique
dans bien des cas, et notamment, par exemple, pour étudier les séries entières à l'intérieur
de leur disque de convergence, ce à propos de quoi je ferai quelques émissions.
Si tu as apprécié cette émission, soutiens-moi. Ça permettra à mon travail de se faire connaître,
et ça m’encouragera à faire d’autres émissions comme celle-ci à l’avenir.
En attendant, je te souhaite une excellente journée, et je te dis: à la prochaine.
Si tu es parvenu jusqu'ici, je te propose un petit supplément.
En 1872, la fonction de Weierstrass n'est que la première d'une cohorte de fonctions
étranges que certains qualifient aujourd'hui de pathologiques.
En quelque sorte, les mathématiciens se sont évertué à chercher les limites de leurs
outils avec application.
Et c'est ainsi qu'en guise d'ouverture, je vais te laisser avec l'extrait d'un ouvrage
de Poincaré, Sciences et Méthodes. Dans l'extrait que j'ai intitulé « Un cercle,
c'est un rond », j'ai laissé quelques paragraphes de côté, et en voici deux qui traitent spécifiquement
de ces fonctions bizarres.
« La logique parfois engendre des monstres. Depuis un demi-siècle on a vu surgir une
foule de fonctions bizarres qui semblent s’efforcer de ressembler aussi peu que possible aux honnêtes
fonctions qui servent à quelque chose. Plus de continuité, ou bien de la continuité,
mais pas de dérivées, etc. Bien plus, au point de vue logique, ce sont
ces fonctions étranges qui sont les plus générales, celles qu’on rencontre sans
les avoir cherchées n’apparaissent plus que comme un cas particulier.
Il ne leur reste plus qu’un tout petit coin.
Autrefois, quand on inventait une fonction nouvelle, c’était en vue de quelque but
pratique; aujourd’hui, on les invente tout exprès pour mettre en défaut les raisonnements
de nos pères, et on n’en tirera jamais que cela. »
Weitere ähnliche Videos ansehen
5.0 / 5 (0 votes)