Au départ ce billet était un article de vulgarisation, qui s'est transformé en brouillon de recherche au fur et à mesure que j'avançais mes idées et que je découvrais celles des autres. Il mériterait une refonte, quand j'en prendrai le temps.

Introduction

Il y a beaucoup à dire historiquement sur le sujet, et je referai probablement l'article après l'avoir croisé avec des articles intéressants comme Science étonnante ou Science4All, et surtout il faudrait que je lise l'ouvrage de référence de Hardy. Mais pour l'instant je souhaitais juste mettre au propre mes premières réflexions sur le sujet…

Séries convergentes

Comme il y a déjà beaucoup à dire1), je vais partir du principe que les sommes infinies comme

$$\sum_{n \ge 0}\frac{1}{2^n} = 2$$

ne vous font pas peur. Si c'est bien le cas, vous savez alors qu'on dit qu'une série $\sum x_n$ est dite convergente si la suite des sommes partielles est finie :

$$\lim\limits_{N \rightarrow \infty}\left(\sum_{n=0}^N x_n\right) < \infty$$

C'est le cas par exemple de $\sum \frac{1}{2^n}$, puisque :

$$\lim\limits_{N \rightarrow \infty}\left(\sum_{n=0}^N \frac{1}{2^n}\right) = \lim\limits_{N \rightarrow \infty} \left(2 - \frac{1}{2^N}\right) =2$$

Astuce : le calcul entre parenthèses est obtenu de façon générale pour toutes les séries géométriques, c'est à dire les séries de la forme $\sum a \times r^n$ :

$$\[\begin{array}{r@{}l}
(1 - r) \times (a + ar + ar^2 + \dots + ar^N) 	&{} = (a + ar + ar^2 + \dots + ar^N)\\
							&{} \hspace{0.665cm} - (ar + ar^2 + \dots + ar^N + ar^{N+1})\\
							&{} = a - ar^{N+1}\\

\end{array}\]$$

Donc si la raison $r$ de la suite est différente de $1$, nous avons :

$$a + ar + ar^2 + \dots + ar^N = a \times \frac{1 - r^{N+1}}{1 - r}$$

Donc en remplaçant $a = 1$ et $r = \frac{1}{2}$ dans l'expression, nous avons bien :

$$\sum_{n=0}^N \frac{1}{2^n} = \frac{1 - \frac{1}{2^{N+1}}}{1 - \frac{1}{2}} = 2 - \frac{1}{2^N}$$

En généralisant le raisonnement précédent (exercice ^^), on s'aperçoit que les séries géométriques sont convergentes si et seulement si $|r| < 1$.

Une série qui n'est pas convergente sera dite divergente. La question du jour est : peut-on quand même attribuer de manière raisonnable une valeur à des suites divergentes ?

Principes

J'ai pris le temps de discuter des séries géométriques car elles sont un exemple simple des opérations que l'on souhaite faire sur les séries. Nous avons obtenu $a - ar^{N+1}$ implicitement en réorganisant les termes, ce qui fonctionne bien s'il y a un nombre fini de termes, mais pas s'il y en a une infinité. Prenons la série suivante :

$$\sum_{n \ge 0}(-1)^n = 1 -1 +1 -1 + \dots$$

Il est possible de la parenthéser de deux manières différentes pour obtenir une contradiction :

$$\[\begin{array}{r@{}l}
\sum\limits_{n \ge 0}(-1)^n	&{} = (1 -1) +(1 -1) + \dots\\
						&{} = 0 + 0 + \dots\\
						&{} = 0\\

\end{array}\]$$

$$\[\begin{array}{r@{}l}
\sum\limits_{n \ge 0}(-1)^n	&{} = 1  + (-1 +1)  + (-1 +1) + \dots\\
						&{} = 1 + 0 + 0 + \dots\\
						&{} = 1\\

\end{array}\]$$

L'idée est donc de trouver un ensemble d'opérations sur les séries divergentes qui permette de trouver des valeurs pertinentes sans qu'il y ait contradiction. Comme nous voulons généraliser le travail déjà fait sur les séries convergentes, la moindre des choses serait que si nous appliquons nos opérations sur des séries convergentes, nous obtenions la même valeur qu'avec les sommes partielles. C'est l'axiome de régularité :

$$\lim\limits_{N \rightarrow \infty}\left(\sum_{n=0}^N x_n\right)  = \ell < \infty \Rightarrow \sum_{n \ge 0} x_n = \ell$$

Notez que j'utilise le même symbole $\sum$ pour la sommation classique et notre sommation sur les séries en général même si elles sont divergentes. En fait, nous cherchons une extension cohérente de $\sum$, et il serait plus rigoureux de le noter autrement, par exemple $\tilde{\sum}$. Mais nous ne voulons pas alourdir les notations par la suite, et si jamais nous parvenons au but à cause de l'axiome de régularité nous pourrons confondre les deux symboles.

Nous avons vu que nous ne pouvions pas parenthéser les séries divergentes n'importe comment. Par la suite nous ne nous autoriserons qu'une seule réorganisation de terme : pouvoir extraire le premier terme. C'est à dire que nous respectons une structure de liste pour les séries, afin de correspondre à l'intuition de « pou obtenir le résultat, j'additionne le premier terme, puis le second, puis le troisième, etc. ». Plus formellement, c'est l'axiome de stabilité, qui énonce que nous pouvons obtenir une (valeur pour) une nouvelle série $\sum y_n$ à partir d'une série $\sum x_n$ déjà définie telle que pour tout $n \in \mathbb{N}$ nous ayons $y_n = x_{n+1}$ et $\sum x_n = x_0 + \sum y_n$. Cela revient en fait à décaler la numérotation :

$$\sum_{n \ge 0}u_n = u_0 + \sum_{n \ge 1}u_n$$

Rien qu'à ce stade, ça coince. En effet, prenons la série $1+1+1+\dots$ :

$$\[\begin{array}{r@{}l}
\sum\limits_{n \ge 0}1	&{} = 1 +\sum_{n \ge 1}1\\
					&{} = 1 +\sum_{n \ge 0}1\\
\end{array}\]$$

Donc en soustrayant $\sum 1$ à gauche et à droite nous avons $0 = 1$. Ainsi, il n'est pas possible d'appliquer notre méthode à toutes les séries, mais il est peut-être possible de restreindre le champ d'étude de façon à avoir des résultats cohérents… Je propose de nous limiter aux séries vérifiant que si elles sont périodiques alors la somme des éléments de la période vaut $0$. Ainsi, nous éliminons $\sum 1$ mais nous gardons $\sum (-1)^n$ puisque $\sum (-1)^n = 1 -1 + \sum (-1)^n$. Plus formellement :

$$\exists p \left(\forall n \ x_{n+p} = x_n \Rightarrow \sum_{n<p}x_n = 0\right)$$

Pour faire des calculs pratiques nous souhaitons aussi munir considérer les séries comme un espace vectoriel, c'est à dire de nous autoriser à multiplier une série par un coefficient, et pouvoir faire la somme entre deux sorts. Plus formellement, c'est l'axiome de linéarité :

$$\alpha \times \sum_{n \ge 0}u_n = \sum_{n \ge 0}(\alpha \times u_n)$$

$$\sum_{n \ge 0}u_n + \sum_{n \ge 0}v_n = \sum_{n \ge 0}(u_n + v_n)$$

L'axiome de linéarité permet d'affaiblir l'axiome de régularité à seulement pouvoir ajouter un zéro en début de liste ?

En particulier, nous généralisons le raisonnement précédent sur les séries géométriques :

$$\[\begin{array}{r@{}ll}
\sum\limits_{n \ge 0}ar^n	&{} = a + \sum\limits_{n \ge 1}ar^n&\text{(stabilité)}\\
					&{} = a + \sum\limits_{n \ge 0}ar^{n+1}\\
					&{} = a + r \times\sum\limits_{n \ge 0}ar^n &\text{(linéarité)}\\
\end{array}\]$$

Ainsi, en notant $G(a,r) = \sum\limits_{n \ge 0}ar^n$ nous avons $G(a,r) = a + r \times G(a,r)$, d'où si $r\not=1$ nous avons $G(a,r) = \frac{a}{1-r}$. Il est à noter que si $r=1$ alors $G(a,r)$ viole notre supposition sur la périodicité puisque nous retrouvons notre meilleure ennemie $G(a,1) = \sum\limits_{n \ge 0}a1^n =  a \times\sum\limits_{n \ge 0}1$.

Le résultat $G(a,r) = \frac{a}{1-r}$ est effectivement le résultat obtenu pour les séries géométriques convergentes (pour $|r| < 1$), donc il vérifie la propriété de régularité. De façon amusante, comme $\sum\limits_{n=0}^N ar^n = a \times \frac{1 - r^{N+1}}{1 - r}$, cela revient à juste ignorer le terme infini pour la limite des sommes partielles.

De plus, cette formule nous donne maintenant des résultats pour les séries géométriques divergentes (pour $|r| > 1$), par exemple pour $a=1$ et $r=2$:

$$\sum_{n \ge 0}2^n = -1$$

Une somme infinie d'entiers positifs donnerait un résultat négatif ?! Mais le pire est à venir, puisque notre but est de prouver que :

$$\boxed{1+2+3+4+5+\dots = -\frac{1}{12}}$$

Quelques calculs

Pourquoi cette valeur, qui en plus d'être négative a le mauvais goût d'être une fraction ? ^^ Il y a des raisons physiques, voir par exemple l'article de Science Étonnante sur l'effet Casimir, mais ici je vais m'attarder sur les raisons mathématiques. Commençons plus doucement pour la Grandi $S_1 = \sum\limits_{n \ge 0}(-1)^n$ pour laquelle nous avions maladroitement donné les valeurs $0$ et $1$ :

$$\[\begin{array}{r@{}l}
S_1
&{} = \sum\limits_{n \ge 0}(-1)^n\\
&{} = 1 + \sum\limits_{n \ge 1}(-1)^n\\
&{} = 1 + \sum\limits_{n \ge 0}(-1)^{n+1}\\
&{} = 1 - \sum\limits_{n \ge 0}(-1)^n\\
&{} = 1 - S_1\\
\end{array}\]$$

Comme $S_1 = 1 - S_1$ donc la bonne valeur n'est pas $0$ ou $1$, mais entre les deux :

$$\boxed{1 - 1 + 1 - 1 + \dots = \frac{1}{2}}$$

Passons à une autre : la série alternée des entiers $S_2 = \sum\limits_{n \ge 0}n(-1)^{n+1}$. En utilisant la série précédente, nous avons que :

$$\[\begin{array}{r@{}l}
S_2 - S_1
&{} = \sum\limits_{n \ge 0}n(-1)^{n+1} - \sum\limits_{n \ge 0}(-1)^n\\
&{} = \sum\limits_{n \ge 0}\left(n(-1)^{n+1} - (-1)^n\right)\\
&{} = \sum\limits_{n \ge 0}(n+1)(-1)^{n+1}\\
&{} = \sum\limits_{n \ge 0}n(-1)^n\\
&{} = - S_2\\
\end{array}\]$$

Comme $S_2 - \frac{1}{2} = - S_2$ nous avons :

$$\boxed{1 -2 +3 -4 +\dots = \frac{1}{4}}$$

En passant, il est possible de définir le produit entre deux séries par :

$$\left(\sum\limits_{n \ge 0}x_n\right)\left(\sum\limits_{n \ge 0}y_n\right) = \sum\limits_{n \ge 0}z_n$$

par $z_n = \sum\limits_{k = 0}^nx_ky_{n-k}$. Ainsi, une preuve alternative (mais dépassant nos règles précédentes) consiste à remarquer que le produit de $S_1$ par lui-même donne une série avec les coefficients suivants :

$$\[\begin{array}{r@{}l}
z_n
&{} = \sum\limits_{k = 0}^n(-1)^k(-1)^{n-k}\\
&{} = \sum\limits_{k = 0}^n(-1)^n\\
&{} = (n+1)(-1)^n\\
\end{array}\]$$

Ainsi, la série obtenue par produit a comme valeur :

$$\[\begin{array}{r@{}l}
S_1 \times S_1
&{} = \sum\limits_{n \ge 0}(n+1)(-1)^n\\
&{} = \sum\limits_{n \ge 0}(n+1)(-1)^{n+2}\\
&{} = 0 + \sum\limits_{n \ge 1}n(-1)^{n+1}\\
&{} = \sum\limits_{n \ge 0}n(-1)^{n+1}\\
&{} = S_2\\
\end{array}\]$$

Ainsi, nous retrouvons par un autre moyen que $S_2 = S_1 \times S_1 = \left(\frac{1}{2}\right)^2 = \frac{1}{4}$.

Note : ce serait plus élégant (et immédiat ^^') de la définir plutôt par : $S_2 = \sum\limits_{n \ge 0}(n+1)(-1)^n$

Notez que nous ne savons toujours pas si nos règles sont cohérentes, mais obtenir le même résultat par deux méthodes différentes est en soi rassurant. Passons maintenant à la somme des entiers naturels $S_3 = \sum\limits_{n \ge 0}n$ que nous essayons de résoudre par l'heuristique de Ramanujan. Mais pour cela nous avons besoin d'un dernier outil : la dilatation de série, c'est à dire le fait de pouvoir ajouter des zéros de façon homogène dans la série.

Ainsi, nous noterons $\sum\limits_{2n \ge 0}x_n$ la série $\sum\limits_{n \ge 0}y_n$ définie par :

$$y_n = \left\{
\begin{array}{rl}
x_\frac{n}{2} & \text{si }2|n \\
0 & \text{sinon}  \\
\end{array}
\right.$$

Nous admettrons momentanément que $\sum\limits_{2n \ge 0}x_n = \sum\limits_{n \ge 0}x_n$, c'est à dire que $1+2+3+4+\dots = 1+0+2+0+\dots$. Voilà le calcul proposé :

$$\[\begin{array}{r@{}l}
-3S_3
&{} = S_3 -4S_3\\
&{} = \sum\limits_{n \ge 0}n -4\sum\limits_{n \ge 0}n\\
&{} = \sum\limits_{n \ge 0}n -4\sum\limits_{2n \ge 0}n\\
&{} = \sum\limits_{n \ge 0}y_n\\
\end{array}\]$$

$$\text{où }y_n
= \left\{\begin{array}{rl}
n - 4\times\frac{n}{2} & \text{si }2|n \\
n & \text{sinon}  \\
\end{array}\right.$$

$$\text{d'où }y_n
= \left\{\begin{array}{rl}
-n & \text{si }2|n \\
n & \text{sinon}  \\
\end{array}\right.$$

Ainsi, nous avons que :

$$\[\begin{array}{r@{}l}
-3S_3
&{} = \sum\limits_{n \ge 0}y_n\\
&{} = \sum\limits_{n \ge 0}n(-1)^{n+1}\\
&{} = S_2\\
\end{array}\]$$

Donc $-3S_3 = \frac{1}{4}$, et nous obtenons le résultat annoncé $S_3 = \frac{-1}{12}$.

L'heuristique de Ramanujan serait plus clair de façon extensionnelle ?

Bon, oui et non, car nous avons quand même fait une hypothèse supplémentaire. En l'utilisant dans le calcul de $S_1$ nous obtenons quelque chose d'inattendu :

$$\[\begin{array}{r@{}l}
\frac{1}{2}
&{} = \sum\limits_{n \ge 0}(-1)^n\\
&{} = \sum\limits_{2n \ge 0}1 + \sum\limits_{2n+1 \ge 0}-1\\
&{} = \sum\limits_{2n \ge 0}1 + 0 + \sum\limits_{2n \ge 0}-1\\
&{} = \sum\limits_{n \ge 0}1 - \sum\limits_{n \ge 0}1\\
&{} = 0\\
\end{array}\]$$

Et revoilà notre meilleure ennemie $\sum\limits_{n \ge 0}1$ ! Ainsi, il semblerait qu'avec cette hypothèse les règles soient incohérentes…

Pour aboutir à une valeur, il faut utiliser la sommation de Ramanujan ?

Exercice : Montrer que $S_1$ (alternance), $S_2$ (?) et $S_3$ (petit Gauss) sont bien divergentes.

Somme et périodicité

En fait, même sans elle il serait possible d'écrire :

$$\[\begin{array}{r@{}l}
\frac{1}{2}
&{} = \sum\limits_{n \ge 0}(-1)^n\\
&{} = \sum\limits_{2n \ge 0}1 - \sum\limits_{2n \ge 0}1\\
&{} = 0\\
\end{array}\]$$

En fait, nous pouvons généraliser le raisonnement en définissant la notation $\sum\limits_{pn + q \ge 0}x_n$ pour une période $p \ge 1$ et un reste $0 \le q < p$ par la suite $\sum\limits_{n \ge 0}y_n$ telle que :

$$y_n = \left\{
\begin{array}{rl}
x_\frac{n-q}p} & \text{si }p|n-q \\
0 & \text{sinon}  \\
\end{array}
\right.$$

Remarquez que par stabilité, comme les premiers termes sont nuls nous avons pour tout $0 \le q < p$ que $\sum\limits_{pn + q \ge 0}x_n = \sum\limits_{pn \ge 0}x_n$.

Rappelons notre règle pour la périodicité :

$$\exists p \left(\forall n \ x_{n+p} = x_n \Rightarrow \sum_{n<p}x_n = 0\right)$$

Nous l'avions imposé car si la suite $\sum\limits_{n \ge 0}x_n$ est périodique de période $p$ alors par stabilité :

$$\[\begin{array}{r@{}l}
\sum\limits_{n \ge 0}x_n
&{} = \sum\limits_{n < p}x_n + \sum\limits_{n \ge p}x_n\\
&{} = \sum\limits_{n < p}x_n + \sum\limits_{n \ge 0}x_{n+p}\\
&{} = \sum\limits_{n < p}x_n + \sum\limits_{n \ge 0}x_n\\
\end{array}\]$$

Donc si $\sum\limits_{n \ge 0}x_n = \ell < \infty$ nous aurions $\ell = \sum\limits_{n < p}x_n + \ell$, donc il est nécessaire que $\sum\limits_{n < p}x_n = 0$, comme c'est le cas par exemple pour $\sum\limits_{n \ge 0}(-1)^n$. L'idée était d'écarter notre meilleure ennemie $\sum\limits_{n \ge 0}1$, mais nous venons de voir que plus généralement ce sont les $\sum\limits_{pn \ge 0}1$ qui apparaissent.

En effet, si $\sum\limits_{n < p}x_n = a \not= 0$ nous pouvons utiliser la somme pour obtenir $\sum\limits_{n \ge 0}x_n = a\sum\limits_{pn \ge 0}1 + \sum\limits_{n \ge 0}y_n$, où :

$$y_n = \left\{
\begin{array}{rl}
x_n - a & \text{si }p|n \\
x_n & \text{sinon}  \\
\end{array}
\right.$$

Ainsi, toute série périodique dont la tête $\sum\limits_{n < p}x_n$ n'est pas nulle se décompose en la somme d'une série $a\sum\limits_{pn \ge 0}1$ et d'une série dont la tête est nulle. Si on admet que les séries périodiques à tête nulle ont une valeur $\ell$, alors il s'agit d'une sorte de forme indéterminée $\infty + \ell$ dont nous souhaitons seulement extraire les valeurs $\ell$.

Le problème est que la somme n'est pas un opérateur clos pour les séries que nous souhaitons considérer. Ainsi, à partir de n'importe quelle série périodique il est possible de faire apparaître des formes indéterminées :

$$\[\begin{array}{r@{}l}
\sum\limits_{n \ge 0}x_n
&{} = \sum\limits_{0 \le q < p}\left(\sum\limits_{pn+q \ge 0}x_q\right)\\
&{} = \sum\limits_{0 \le q < p}\left(x_q\sum\limits_{pn+q \ge 0}1\right)\\
&{} = \sum\limits_{0 \le q < p}\left(x_q\sum\limits_{pn \ge 0}1\right)\\
&{} = \sum\limits_{pn \ge 0}1 \times \sum\limits_{0 \le q < p}x_q\\
\end{array}\]$$

En particulier, si la tête $\sum\limits_{0 \le q < p}x_q$ est nulle alors la série devrait valoir $0$, ce qui est contradictoire avec des résultats comme $\sum\limits_{n \ge 0}(-1)^n = \frac{1}{2}$. Mais en fait, encore une nous reconnaissons ici une forme indéterminée $\infty \times 0$.

Interdire d'utiliser la somme sur les séries périodiques interdirait des calculs comme la première méthode pour calculer la série alternée des entiers. D'un autre côté, dans les exemples choisis je ne partais pas de deux séries acceptables pour aboutir à une série inacceptable, mais je partais d'une série acceptable que je décomposais en utilisant la somme en deux séries dont au moins l'une était inacceptable. Or, en notant $S$ l'ensemble des séries acceptables (suivant notre critère de tête nulle si périodicité par exemple), la somme est définie de $S \times S \rightarrow S$ donc une telle décomposition n'est pas une opération valide.

Ainsi, il n'y a pas (encore ?) contradiction, mais notez qu'il faut être bien prudent sur les opérations effectuées. En particulier, pour pouvoir utiliser l'heuristique de Ramanujan, il faudrait prouver que la dilatation de série $\sum\limits_{pn \ge 0}x_n = \sum\limits_{n \ge 0}x_n$ ne permet pas de faire apparaître des séries inacceptables. Et de façon plus générale, il faudrait s'assurer de la cohérence de nos règles en montrant qu'elles ne font pas apparaître non plus de séries inacceptables.

Séries inacceptables ?

J'ai retenu le critère de tête nulle si périodicité afin de pouvoir utiliser la stabilité sans problème, et par problème je veux dire tomber sur la même série en ayant rendu les équations incohérentes. Mais en fait c'est plutôt un problème d'auto-similarité. Par exemple, la série (non périodique, exercice ^^) $S = \sum\limits_{n \ge 0}x_n$ définie par :

$$x_n = \left\{
\begin{array}{rl}
1 & \text{si }\exists k\ n = 2^k-1 \\
0 & \text{sinon}  \\
\end{array}
\right.$$

vérifie d'une part que si $n$ est pair alors :

$$x_\frac{n}{2}
= \left\{
\begin{array}{rl}
1 & \text{si }\exists k\ \frac{n}{2} = 2^k-1 \\
0 & \text{sinon}  \\
\end{array}
\right.
= \left\{
\begin{array}{rl}
1 & \text{si }\exists k\ n+1 = 2^{k+1}-1 \\
0 & \text{sinon}  \\
\end{array}
\right.
= x_{n+1}
$$

Note : nous avons bien $\exists k\ n+1 = 2^k-1$ équivalent à $\exists k\ n+1 = 2^{k+1}-1$ car le cas $k=0$ est impossible puisque $n+1 \not= 2^0-1$.

d'autre part, remarquons que $2^k-1$ est pair si et seulement si $k=0$, et dans ce cas $n = 2^0-1 = 0$. Ainsi, $n=0$ est le seul entier pair tel que $x_n = 1$. Prenons à présent le cas où $n$ est impair, il s'écrit alors sous la forme $n = 2m+1$, donc $x_{n+1} = x_{2(m+1)} = 0$.

Pfiou ! Tout ça pour prouver que $\sum\limits_{2n \ge 0}x_n = \sum\limits_{n \ge 0}y_n$ tel que :

$$y_n
= \left\{
\begin{array}{rl}
x_\frac{n}{2} & \text{si }2|n \\
0 & \text{sinon}  \\
\end{array}
\right.
= \left\{
\begin{array}{rl}
x_{n+1} & \text{si }2|n \\
x_{n+1} & \text{sinon}  \\
\end{array}
\right.
= x_{n+1}
$$

Donc :

$$\[\begin{array}{r@{}l}
S
&{} = \sum\limits_{n \ge 0}x_n\\
&{} = 1 + \sum\limits_{n \ge 1}x_n\\
&{} = 1 + \sum\limits_{n \ge 0}x_{n+1}\\
&{} = 1 + \sum\limits_{2n \ge 0}x_n\\
\end{array}\]$$

Ainsi, en utilisant la dilatation de série $\sum\limits_{2n \ge 0}x_n = \sum\limits_{n \ge 0}x_n = S$ nous avons que $S = 1 + S$, ce qui nous offre un exemple de série inacceptable qui n'est pas périodique. Donc, si nous voulons utiliser l'heuristique de Ramanujan il faut reformuler le critère d'acceptabilité, et si nous nous passons de la dilatation de série il faut montrer que le critère de tête nulle si périodique est suffisant pour les lois de stabilité et de linéarité…

Sortir la tête du sable

Dans sa vidéo sur l'hypothèse de Riemann, El Jj m'a ouvert les yeux sur la fonction zêta de Riemann, qui peut être prolongée de manière unique de façon à donner des valeurs à certaines séries. Ainsi, $\zeta(0) = -\frac{1}{2}$ serait la bonne valeur pour ma meilleure ennemie la série $1+1+...$, qui ne devrait donc pas être considérée comme inacceptable. Mes préjugés m'ont aveuglé, aaah !

Dans les commentaires du premier billet de Science étonnante sur les séries divergentes, Matheux montre2) que la stabilité et la linéarité sont incohérents, en prenant la série qui m'a motivé depuis le début, à savoir $S = \sum\limits_{n \ge 0}n$.

En effet, par stabilité, $S = 0+S = 0+0+S$, ou plus formellement en notant :

  • $S = \sum\limits_{n \ge 0}x_n$ avec $x_n = n$
  • $S' = \sum\limits_{n \ge 0}y_n$ avec $y_0 = 0$ et $y_{n+1} = n$
  • $S'' = \sum\limits_{n \ge 0}z_n$ avec $z_0 = 0$, $z_1 = 0$ et $z_{n+2} = n$

L'axiome de stabilité nous assure que $S = S' = S''$, d'où $S - 2S' + S'' = S - 2S + S = 0$.

Mais par linéarité $S - 2S' + S'' = \sum\limits_{n \ge 0}t_n$, où $t_n = x_n - 2 \times y_n + z_n$. Or :

  • $t_0 = x_0 - 2 \times y_0 + z_0 = 0 - 2 \times 0 + 0 = 0$
  • $t_1 = x_1 - 2 \times y_1 + z_1 = 1 - 2 \times 0 + 0 = 1$
  • $t_{n+2} = x_{n+2} - 2 \times y_{n+2} + z_{n+2} = (n+2) - 2(n+1) + n = 0$

D'où par stabilité $S - 2S' + S'' = 0 + 1 + \sum\limits_{n \ge 0}0 = 1$ ! Ce qui contredit $S - 2S' + S'' = 0$.

En passant, $\sum\limits_{n \ge 0}0$ peut être obtenu par linéarité. En effet, $\sum\limits_{n \ge 0}0 = \sum\limits_{n \ge 0}(0+0) = \sum\limits_{n \ge 0}0 + \sum\limits_{n \ge 0}0$, d'où en retranchant $\sum\limits_{n \ge 0}0$ des deux côtés nous avons bien $\sum\limits_{n \ge 0}0 = 0$.

Ainsi, il faut choisir entre stabilité et linéarité… Matheux, en évoquant la convergence d'Abel avec $f(x) = \sum\limits_{n \ge 0}a_nx^n$ montre la voie à suivre : il faut garder la linéarité, qui respecte la structure de polynôme $\sum\limits_{n \ge 0}a_nx^n$ (que l'on retrouve aussi dans la représentation d'un nombre dans une base donnée… un rapport avec les nombres p-adiques ?). Extraire le premier terme revient à décaler la puissance : $\sum\limits_{n \ge 0}a_nx^n = a_0 + \sum\limits_{n \ge 0}a_{n+1}x^{n+1} \not= a_0 + \sum\limits_{n \ge 0}a_nx^n$. C'est cela qui justifie la structure de liste (infinie, certes) que j'utilise depuis le début, et qui est responsable (voir le second billet de Science étonnante) de la perte de la commutativité de l'addition.

Note : Comparer la sommation d'abel avec celle de Dirichlet.

Le problème maintenant est sans la régularité ou la linéarité il devient difficile de faire des calculs… Peut-être qu'il existe des sous-classes des séries divergentes où seules certaines règles sont cohérentes. Ainsi, $\sum\limits_{n \ge 0}n$ ne serait pas dans la classe des séries utilisant la stabilité et la linéarité, mais les séries géométriques si. Et $\sum\limits_{n \ge 0}1$ ne serait pas dans la classe des séries utilisant la stabilité car $\sum\limits_{n \ge 0}1 = 1 + \sum\limits_{n \ge 0}1$.Et ce serait intéressant du coup de caractériser les séries convergences parmi les familles des séries divergentes. Il faudra prouver que chaque classe de séries est close pour les règles de calcul qui y sont autorisées….

J'ai beaucoup apprécié l'approche de 3Blue1Brown pour vulgariser le processus de découverte/invention autour des séries divergentes.

Réponse à Science4All

Dans une de ses vidéos, Science4All montre que les suites définies par récurrence linéaire non barycentriques à une série convergente près peuvent être sommées de façon unique en respectant la linéarité, la stabilité et la régularité. De plus, il a défié la communauté de pouvoir prouver la réciproque, à savoir qu'il n'y a pas d'autre suite pouvant être sommée de façon unique par ces règles. Je pense avoir une preuve…

Prenons une suite $(x_n)$ et supposons qu'il est possible en utilisant seulement ces trois règles de pouvoir déterminer une valeur unique à la série $u = \sum x^n$. Cela revient donc de passer de l'équation initiale $u = u$ à l'équation $u = C$$C$ est une série convergente. Ensuite, par régularité une valeur réelle a pu être attribuée à la série divergente $\sum x^n = \ell$. Pour travailler avec les équations, nous ne nous autoriserons qu'à ajouter des deux côtés une même série, ou à multiplier chaque côté par un scalaire. Plus formellement, l'ensemble de règles utilisé est :

  • $t_1 = t_2 \rightarrow t_1 + C = t_2 + C$$C$ est une série
  • $t_1 = t_2 \rightarrow \alpha t_1 = \alpha t_2$$\alpha$ est un réel
  • $t_1 = t_2 \rightarrow t_1= t_3$$t_3$ est obtenu par linéarité à partir de $t_2$, ou $t_3 = e(t_2)$3).

Comme nous partons de $u = u$ pour arriver à $u = C$, le terme $t_1$ devra rester globalement constant. En fait, la seule succession d'opérations permettant de le modifier momentanément pour ensuite y revenir est :

$$u = \alpha u + t$$

$$u - \alpha u  = t$$

$$(1 - \alpha)u  = t$$

$$u  = \frac{t}{(1 - \alpha)}$$

pour $\alpha \not=1$, bien sûr. En effet, les autres possibilités avec les règles données ne permettent que de retomber sur l'équation de départ. En remontant depuis le résultat $u = C$, cette succession d'opération ne permet que de faire apparaître plus haut une équation de la forme $u = \alpha u + (1 - \alpha)C$, donc une occurrence de la série avec un coefficient, et une série convergente.

Les autres transformations ont été obtenues en modifiant le terme à droite. Nous supposons qu'il a été possible d'obtenir un résultat unique $u = C$ en partant de l'équation initiale $u = u$. Le membre droit construit pour arriver à ce résultat n'a pu utiliser que $u$, des séries convergentes, des applications successives de $e$ et la linéarité. Notamment, il n'y a qu'un nombre fini $n$ d'applications de $e$.

Notez que pour toutes suites $v$ et $w$ nous avons que $e(\alpha v + \beta w) = \alpha e(v) + \beta e(w)$ donc il est possible de faire rentrer les applications successives de $e$ à l'intérieur des multiplications et sommes. De plus, les séries convergentes sont stables par linéarité et stabilité. Donc ce membre droit est nécessairement de la forme :

$$a_ne^n(u) + ... + a_0e^0(u) + C$$

Il est peut-être possible d'arriver au même résultat de différentes façons, où nous récrivons les membres droits de la même manière. Parmi tous ces membres droits possibles, prenons en un tel que $n$ est le plus petit possible. En passant, $n \ge 1$, car sinon il aurait été possible d'obtenir un résultat uniquement par linéarité en partant de $u$ et de séries convergentes, ce qui signifie que $u$ devrait être une série convergente.

Montrons par l'absurde que $a_0 \not= 1$. Nous obtenons donc l'équation $u = a_ne^n(u) + ... + a_1e^1(u) + e^0(u) + C$. Comme $e^0(u) = u$, nous pouvons soustraire $u$ des deux côtés de l'équation pour obtenir que $a_ne^n(u) + ... + a_1e^1(u) + C = 0$. Nous avons deux cas possibles :

  • Si $a_n + ... + a_1 = 0$ alors en appliquant la stabilité nous avons que $(a_n + ... + a_1)\ell + C = 0$ donc la série convergente vaut $0$. Ainsi, l'équation $u = a_ne^n(u) + ... + a_1e^1(u) + e^0(u) + C$ donne que $\ell = 0 \times \ell + \ell + 0$, ce qui ne renseigne en rien sur la valeur de $\ell$. Or, c'était cette équation qui était censé nous donner un résultat. D'où une contradiction.
  • Si $a_n + ... + a_1 \not= 0$ alors au moins l'un des $a_i$ est non nul. Soit $k$ le plus petit des $i$ tel que $a_i$ est non nul. Ainsi, nous obtenons une équation de la forme $a_ne^n(u) + ... + a_ke^k(u) + C = 0$ avec $k \ge 1$ et $a_k \not= 0$. Donc $e^k(u) = \frac{a_n}{a_k}e^n(u) + ... + \frac{a_{k+1}}{a_k}e^{k+1}(u) + \frac{C}{a_k}$. En notant $u' = e^k(u)$ et $C' = \frac{C}{a_k}$ nous obtenons une nouvelle équation :

$$u' = a_{n-k}e^{n-k}(u') + ... + a_1e^1(u') + C'$$

Or, par stabilité $u' = u$, donc cette équation permet d'obtenir le résultat avec seulement $n-k < n$ applications de $e$, ce qui contredit la minimalité de $n$.

(Edit du 13/09 : En faisant remonter $e^k$ au dessus des séries convergentes et de la linéarité, cela revient à dire que $e^k(u - (a_{n-k}e^{n-k}(u) + ... + a_1e^1(u) + C)) = 0$, donc en supposant que $e(v) = 0 \Rightarrow v = 0$, nous avons bien $u = a_{n-k}e^{n-k}(u) + ... + a_1e^1(u) + C'$, et c'est cela qui contredit la minimalité de $n$.)

D'où $a_0 \not= 1$, et nous pouvons4) récrire l'équation :

$$u = a_ne^n(u) + ... + a_1e^1(u) + a_0e^0(u) + C$$

$$(1 - a_0)u = a_ne^n(u) + ... + a_1e^1(u) + C$$

$$u = \frac{a_n}{1 - a_0}e^n(u) + ... + \frac{a_1}{1 - a_0}e^1(u) + \frac{C}{1 - a_0}$$

Dit autrement, en renommant les variables et en récrivant l'équation :

$$u = a_ne^n(u) + ... + a_1e^1(u) + C$$

Ainsi, une telle suite est bien définie par récurrence linéaire. Il ne reste qu'à montrer par l'absurde que $a_n + ... + a_1 \not= 1$. En effet, si $a_n + ... + a_1 = 1$ alors par stabilité $\ell = 1 \times \ell + C$ donc $C = 0$. Nous avons donc uniquement $\ell = 1 \times \ell$, ce qui ne permet en rien de trouver le résultat. Or, c'était cette équation qui était censée nous donner le résultat. D'où la contradiction attendue.

Ainsi, à moins d'une erreur dans mon raisonnement, les séries divergentes sommables de façon unique par linéarité, stabilité et régularité sont précisément les suites définies par récurrence linéaire non barycentriques à une série convergente près.

Notez que je restreins les moyens utilisables, car pour moi la question est de pouvoir caractériser l'ensemble des séries divergentes donnant des valeurs cohérentes en utilisant exactement ces trois règles. L'appel constant au constructivisme de la réponse peut cependant surprendre, et je serai ravi d'en discuter dans les commentaires de la vidéo ;)

1) Du coup je ferai peut-être un article ou une vidéo sur les séries convergentes, ça pourrait être intéressant…
2) Merci à Science4All de me l'avoir signalé durant la Neocast 2016.
3) $e$ consiste à rajouter un zéro devant la suite.
4) Il n'est pas possible d'utiliser le même argument pour contredire la minimalité de $n$ à cause du $u$ au lieu du $0$ dans le membre de gauche.