Les dérivées : histoire, définition et formules essentielles

jeudi 2 avril 2026

La dérivée est l'un des concepts fondamentaux du calcul infinitésimal. Elle apparaît partout : en physique pour décrire la vitesse, en économie pour mesurer des taux de variation, en ingénierie pour optimiser des systèmes. Mais d'où vient cette idée ? Et comment passe-t-on de l'intuition à une définition rigoureuse ?

Un peu d'histoire

L'intuition des Anciens

L'idée de tangente à une courbe remonte à l'Antiquité. Euclide (vers 300 av. J.-C.) définissait déjà la tangente à un cercle comme la droite qui le touche en un seul point. Mais cette définition ne fonctionne pas pour les courbes quelconques — une tangente à une cubique comme \(y = x^3\), par exemple, peut recouper la courbe ailleurs.

Archimède (vers 250 av. J.-C.) alla plus loin en calculant des tangentes à des spirales, en utilisant des raisonnements géométriques ingénieux proches de la notion de limite.

Le XVIIe siècle : la révolution

C'est au XVIIe siècle que tout s'accélère. Pierre de Fermat (vers 1637) développe une méthode pour trouver les maxima et minima d'une fonction, en cherchant les points où une petite variation de \(x\) ne change "presque pas" la valeur de \(f(x)\). Sa technique revenait, sans le formaliser, à annuler la dérivée — exactement ce que nous avons fait dans l'article sur le problème de Didon.

Puis, dans les années 1660–1680, deux mathématiciens développent indépendamment le calcul infinitésimal :

  • Isaac Newton (1643–1727), en Angleterre, développe sa méthode des fluxions. Pour lui, les courbes sont des trajectoires et la dérivée représente la vitesse instantanée d'un point qui se déplace.

  • Gottfried Wilhelm Leibniz (1646–1716), en Allemagne, adopte une approche plus algébrique fondée sur les infiniment petits — des quantités infiniment proches de zéro mais pas tout à fait nulles. C'est lui qui introduit la notation \(\frac{dy}{dx}\) que nous utilisons encore aujourd'hui.

La querelle de priorité entre Newton et Leibniz fut l'une des plus célèbres de l'histoire des sciences. Aujourd'hui, on reconnaît que les deux ont fait des découvertes indépendantes et complémentaires.

La rigueur au XIXe siècle

Pendant plus d'un siècle, le calcul infinitésimal fonctionne remarquablement bien… mais repose sur des fondations floues. Que signifie exactement un "infiniment petit" ?

Pour Leibniz, \(dx\) et \(dy\) sont des quantités infiniment petites — plus petites que tout nombre réel positif, mais pas nulles. Le quotient \(\frac{dy}{dx}\) est alors un véritable rapport entre deux grandeurs. Cette vision est extraordinairement féconde : elle permet de calculer des tangentes, des aires, des longueurs d'arc. Mais elle pose un problème logique.

Prenons l'exemple de \(f(x) = x^2\). À la manière de Leibniz, on remplace \(x\) par \(x + dx\) :

\(f(x + dx) = (x + dx)^2 = x^2 + 2x \cdot dx + dx^2\)

On calcule la différence \(dy = f(x + dx) - f(x)\) :

\(dy = 2x \cdot dx + dx^2\)

Décomposition de dy en 2x·dx (conservé) et dx² (négligé) sur la courbe y = x²

On divise par \(dx\) (ce qui est légitime, puisque \(dx \neq 0\)) :

\(\frac{dy}{dx} = 2x + dx\)

Et là, on supprime le terme \(dx\) qui reste, car il est "infiniment petit" :

\(\frac{dy}{dx} = 2x\)

Le résultat est correct — mais le raisonnement est bancal. On a d'abord traité \(dx\) comme une quantité non nulle (pour pouvoir diviser), puis on l'a traitée comme nulle (pour la supprimer). George Berkeley, en 1734, résume la critique dans une formule restée célèbre : ces infiniment petits ne seraient que les fantômes de quantités disparues (ghosts of departed quantities).

Au XIXe siècle, Augustin-Louis Cauchy (1821), dans son Cours d'analyse, reformule tout le calcul sur des bases solides. Au lieu de manipuler des quantités infiniment petites, il décrit le comportement d'une expression quand une variable tend vers une valeur. La dérivée n'est plus un rapport \(\frac{dy}{dx}\) entre infiniment petits, mais la limite du taux d'accroissement \(\frac{f(x+h) - f(x)}{h}\) quand \(h\) tend vers zéro.

Pour comprendre ce que ça change concrètement, reprenons le même exemple \(f(x) = x^2\) — mais cette fois avec l'approche de Cauchy. On part du taux d'accroissement, avec \(h\) un nombre réel quelconque, non nul :

\(\frac{f(x+h) - f(x)}{h} = \frac{(x+h)^2 - x^2}{h} = \frac{2xh + h^2}{h} = 2x + h\)

Jusqu'ici, les deux approches donnent exactement le même calcul. Mais la suite diffère radicalement :

  • Leibniz supprime \(dx\) parce qu'il est "infiniment petit". Pourquoi peut-on le supprimer ? Parce qu'il est négligeable. Mais négligeable par rapport à quoi ? La réponse reste vague.
  • Cauchy ne supprime rien. Il constate simplement que l'expression \(2x + h\) est une fonction parfaitement définie de \(h\), et il se demande : vers quelle valeur tend-elle quand \(h\) s'approche de zéro ? La réponse est \(2x\), et c'est un fait qu'on peut vérifier : pour tout \(h\) non nul, \(|(2x + h) - 2x| = |h|\), qui devient aussi petit qu'on veut.

Le \(h\) de Cauchy n'est jamais nul — pas plus que le \(dx\) de Leibniz parce que sinon on ne pourrait pas les utiliser pour diviser. Mais au lieu d'invoquer une nature mystérieuse ("infiniment petit"), Cauchy décrit un processus : on prend des valeurs de \(h\) de plus en plus proches de zéro, et on observe que le résultat se stabilise sur \(2x\). C'est la différence entre être zéro et tendre vers zéro — et c'est toute la puissance de la notion de limite.

Cauchy formalise aussi la notion de continuité (une fonction est continue si \(\lim_{h \to 0} f(x+h) = f(x)\)) et montre que la dérivabilité implique la continuité. Autrement dit : si une fonction fait un "saut", elle ne peut pas avoir de tangente à cet endroit. Prenons par exemple la fonction échelon, qui vaut 0 pour \(x < 0\) et 1 pour \(x \geq 0\) :

Fonction échelon : un saut de 0 à 1 en x = 0, point de discontinuité

En \(x = 0\), la fonction saute brutalement de 0 à 1 — il n'y a pas de valeur vers laquelle \(f(0 + h)\) se stabilise quand \(h\) tend vers 0 par la gauche et par la droite. La fonction n'est pas continue, donc elle ne peut pas être dérivable : impossible de tracer une tangente à un point de rupture.

Mais attention : la continuité est nécessaire pour être dérivable, mais elle n'est pas suffisante. Une fonction peut être parfaitement continue et pourtant ne pas admettre de dérivée. C'est le cas de la fonction valeur absolue \(f(x) = |x|\) au point \(x = 0\) :

Fonction valeur absolue : point anguleux en x = 0, deux demi-tangentes de pentes différentes

Ici, pas de saut — la fonction est bien continue en 0. Mais si on calcule le taux d'accroissement \(\frac{|0 + h| - |0|}{h} = \frac{|h|}{h}\), on obtient deux résultats différents selon le côté :

  • Par la gauche (\(h < 0\)) : \(\frac{-h}{h} = -1\)
  • Par la droite (\(h > 0\)) : \(\frac{h}{h} = 1\)

La pente "arrive" à \(-1\) d'un côté et \(+1\) de l'autre. Il n'existe pas de tangente unique au sommet du V — seulement deux demi-tangentes qui ne se raccordent pas. La fonction n'est pas dérivable en ce point : c'est un point anguleux.

Définition rigoureuse

Le taux d'accroissement

Partons d'une idée simple : mesurer comment une fonction \(f\) varie entre deux points.

Entre \(x\) et \(x + h\), le taux d'accroissement est :

\(\frac{f(x + h) - f(x)}{h}\)

C'est la pente de la droite qui relie les points \((x, f(x))\) et \((x+h, f(x+h))\) — la sécante.

Droite sécante entre deux points d'une courbe, puis passage à la tangente quand h tend vers 0

Le passage à la limite

Quand \(h\) se rapproche de zéro, la sécante pivote et se rapproche de la tangente. La dérivée est la pente de cette tangente — c'est la valeur vers laquelle tend le taux d'accroissement :

\(f'(x) = \lim_{h \to 0} \frac{f(x + h) - f(x)}{h}\)

Cette limite, quand elle existe, est la dérivée de \(f\) au point \(x\).

Exemple : dérivée de \(x^2\)

Appliquons la définition à \(f(x) = x^2\) :

\(f'(x) = \lim_{h \to 0} \frac{(x + h)^2 - x^2}{h}\)

On développe le numérateur :

\((x + h)^2 - x^2 = x^2 + 2xh + h^2 - x^2 = 2xh + h^2\)

On simplifie :

\(f'(x) = \lim_{h \to 0} \frac{2xh + h^2}{h} = \lim_{h \to 0} (2x + h) = 2x\)

On retrouve bien \(f'(x) = 2x\), le résultat que nous avions utilisé dans l'article sur les tangentes en CAO.

Exemple : dérivée de \(x^3\)

Même démarche avec \(f(x) = x^3\) :

\(f'(x) = \lim_{h \to 0} \frac{(x + h)^3 - x^3}{h}\)

On développe :

\((x+h)^3 = x^3 + 3x^2h + 3xh^2 + h^3\)

Donc :

\(f'(x) = \lim_{h \to 0} \frac{3x^2h + 3xh^2 + h^3}{h} = \lim_{h \to 0} (3x^2 + 3xh + h^2) = 3x^2\)

Le motif commence à apparaître : la dérivée de \(x^n\) semble être \(nx^{n-1}\).

Les formules de dérivation

En pratique, on ne revient pas à la définition par la limite à chaque fois. On utilise des formules démontrées une fois pour toutes. Voici les principales.

Dérivées des fonctions de référence

Fonction \(f(x)\) Dérivée \(f'(x)\) Domaine
\(c\) (constante) \(0\) \(\mathbb{R}\)
\(x\) \(1\) \(\mathbb{R}\)
\(x^n\) (\(n\) entier, \(n \geq 1\)) \(nx^{n-1}\) \(\mathbb{R}\)
\(\frac{1}{x}\) \(-\frac{1}{x^2}\) \(\mathbb{R}^*\)
\(\sqrt{x}\) \(\frac{1}{2\sqrt{x}}\) \(]0, +\infty[\)
\(x^{\alpha}\) (\(\alpha\) réel) \(\alpha x^{\alpha - 1}\) \(]0, +\infty[\)
\(e^x\) \(e^x\) \(\mathbb{R}\)
\(\ln x\) \(\frac{1}{x}\) \(]0, +\infty[\)
\(\sin x\) \(\cos x\) \(\mathbb{R}\)
\(\cos x\) \(-\sin x\) \(\mathbb{R}\)
\(\tan x\) \(1 + \tan^2 x = \frac{1}{\cos^2 x}\) \(x \neq \frac{\pi}{2} + k\pi\)

Règles de calcul

Ces règles permettent de dériver des combinaisons de fonctions. Dans le tableau ci-dessous, \(u\) et \(v\) désignent des fonctions dérivables de \(x\), et \(\lambda\) une constante réelle.

Opération Formule
Multiplication par une constante \((\lambda \, u)' = \lambda \, u'\)
Somme \((u + v)' = u' + v'\)
Produit \((uv)' = u'v + uv'\)
Quotient \(\left(\frac{u}{v}\right)' = \frac{u'v - uv'}{v^2}\)
Composition \((f \circ g)'(x) = g'(x) \times f'(g(x))\)

Exemple d'application

Dérivons \(f(x) = 3x^2 \sin x\) en utilisant la règle du produit avec \(u = 3x^2\) et \(v = \sin x\) :

\(f'(x) = u'v + uv' = 6x \sin x + 3x^2 \cos x\)

Autre exemple avec la règle de composition : dérivons \(f(x) = e^{x^2}\). On pose \(g(x) = x^2\) et \(f(u) = e^u\) :

\(f'(x) = g'(x) \times e^{g(x)} = 2x \, e^{x^2}\)

Notations

Plusieurs notations coexistent pour la dérivée, héritées des différentes traditions :

Notation Origine Usage courant
\(f'(x)\) Lagrange Fonctions d'une variable
\(\frac{dy}{dx}\) Leibniz Physique, changements de variable
\(\dot{y}\) Newton Mécanique (dérivée par rapport au temps)
\(Df(x)\) Cauchy Analyse fonctionnelle

La notation de Lagrange \(f'(x)\) est la plus courante dans l'enseignement français. Celle de Leibniz \(\frac{dy}{dx}\) est particulièrement utile quand on travaille avec des courbes paramétriques, comme nous l'avons vu dans l'article sur les tangentes en CAO.

Ce qu'il faut retenir

La dérivée est née d'une question géométrique — tracer la tangente à une courbe — et d'une question physique — mesurer une vitesse instantanée. Sa définition repose sur un passage à la limite :

\(f'(x) = \lim_{h \to 0} \frac{f(x + h) - f(x)}{h}\)

En pratique, les formules de dérivation et les règles de calcul permettent de dériver rapidement n'importe quelle expression, sans revenir à cette définition à chaque fois.

Sur le même sujet