[go: up one dir, main page]

Comparaison asymptotique

étude du comportement d'une fonction au voisinage d'un point ou à l'infini

En mathématiques, plus précisément en analyse, la comparaison asymptotique est une méthode consistant à étudier la vitesse de croissance d'une fonction.

Comparaison asymptotique des fonctions utilisées en informatique plus précisément en algorithme. On voit par exemple que la fonction exponentielle () croit plus vite que la fonction linéaire ().

Par exemple, la fonction exponentielle croit plus vite qu'une fonction linéaire.

La comparaison asymptotique permet aussi d'étudier la vitesse d'une fonction quelconque par rapport à une fonction considérée comme plus « simple ». Celle-ci est souvent choisie sur une échelle de référence, contenant en général au moins certaines fonctions dites élémentaires, en particulier les sommes et produits de polynômes, d'exponentielles et de logarithmes[1]. La comparaison s'effectue en l'infini ou alors au voisinage d'un point.

Le concept de comparaison asymptotique est utilisé en physique[réf. nécessaire]. Il l'est aussi en informatique, par exemple pour décrire la complexité de certains algorithmes[2]. En effet, la comparaison asymptotique est intéressante en l'infini, car on s'intéresse au comportement d'un algorithme sur des données arbitrairement grandes. Cette méthode de comparaison est également employée en théorie analytique des nombres pour évaluer finement l'erreur commise en remplaçant une fonction irrégulière, comme celle comptant les nombres premiers, par une fonction de l'échelle choisie.

La méthode a été introduite par les travaux de Paul du Bois-Reymond à partir de 1872[1] ; pour faciliter les calculs et la présentation des résultats, diverses notations ont été développées, en particulier par Bachmann (1894), Landau (1909), Hardy (1910), Hardy et Littlewood (1914 et 1916), et Vinogradov (c. 1930).

Exemples de comparaison

modifier

La relation de prépondérance

modifier

Exemple

modifier

Soit f et g les fonctions réelles définies par les formules 

Par une étude des deux fonctions, on sait que g prend des valeurs aussi grandes que l'on veut au voisinage de l'infini, tandis que f ne peut prendre des valeurs qu'entre 1 et 3. Le quotient g divisé par f au voisinage de l'infini ne cesse d'augmenter et n'est pas borné. Dans ce contexte, on peut dire que f est négligeable devant g, ou que g est prépondérante devant f, au voisinage de l'infini, on écrit (notation de Landau[3]) :

 

ou (notation de Hardy[1],[4], désuète[5])

 

La notation de Hardy permet d'enchaîner les relations de prépondérance, par exemple :

 

Définition formelle lorsque la fonction g ne s'annule pas

modifier

Pour définir formellement cette propriété on considère le comportement du quotient  .

Soit  

Soient f et g deux fonctions de la variable réelle x. On suppose que g ne s'annule pas sur un voisinage de a[6]. On dit que f est négligeable devant g, ou que g est prépondérante[7] devant f en a, et on note  , lorsque

 

Si le contexte est clair, on ne précise pas le domaine d'étude et on note :  , voire  . Cependant, la notation est toujours associée à un lieu a et au voisinage de ce lieu : être négligeable est un concept local.

Dans cette notation de Landau   (parfois aussi  ), le symbole   se lit petit o. La notation équivalente de Hardy est  . On utilise aujourd'hui exclusivement la notation de Landau.

Propriétés

modifier

Par ce qui peut sembler un abus de langage, on effectue des opérations sur les « petits o ». En effet, on peut écrire :

  •   ;
  •  .

Dans les côtés gauche de chaque formule les deux symboles   représentent des fonctions a priori différentes. La première formule se lit : "la somme de deux fonctions qui sont toutes deux des petits   est une fonction qui est également un  ".

Exemples

modifier
  •  
  •  
  • Pour toute fonction  , telle que  , on a :  

Équivalence

modifier

Définition formelle

modifier

Soit  .

Soient f et g deux fonctions de la variable réelle x. On suppose que g ne s'annule pas sur un voisinage de a. On dit que f est équivalente à g en a, ou que g équivaut à f en a, et on note

 , lorsque  .

Exemple

modifier

 

Domination

modifier

La notation grand O de Landau dénote le caractère dominé d'une fonction par rapport à une autre. Généralement, comme Paul Bachmann qui a introduit ce symbole en 1894, on utilise la lettre O majuscule (de l'allemand Ordnung, « ordre »). C'est beaucoup plus tard (1976), par analogie avec le symbole oméga majuscule Ω (voir plus bas), que Donald Knuth a discrètement suggéré de rebaptiser le symbole O du nom de la lettre omicron majuscule[8] (qui n'apparaît que dans le titre de son article), celle-ci étant rarement dessinée de manière clairement différente du O. Dans les deux cas, le symbole utilisé est distinct du symbole 0 (zéro).

Définition formelle

modifier

Soient f et g deux fonctions de la variable réelle x. On dit que f est dominée par g en +∞, ou que g domine f en +∞, et on note (notation de Bachmann, 1894, ou de Landau, 1909)

 

ou (notation de Hardy[1], 1910, désuète)

 

ou encore (notation de Vinogradov, années 1930)

 

lorsqu'il existe des constantes N et C telles que

 

Intuitivement, cela signifie que f ne croît pas plus vite que g.

De même, si a est un nombre réel, nous écrivons

 

s’il existe des constantes d > 0 et C telles que

 

Ceci est équivalent, lorsque g ne s'annule pas, à  

Exemples

modifier
  •  
  •  
  • En un point a, si f est négligeable devant g ou équivalente à g, alors elle est dominée par g.
  • Une fonction f est bornée sur un voisinage de a si et seulement si  .

Absence de prépondérance et oscillations

modifier

Notation Ω de Hardy et Littlewood (théorie des nombres)

modifier

En 1914, Hardy et Littlewood ont introduit le nouveau symbole Ω[9] défini ainsi :

 .

Les fonctions f et g sont supposées définies, et g positive, dans un voisinage de l'infini. Ainsi   est la négation de  .

En 1916, les mêmes auteurs introduisent les deux nouveaux symboles ΩR et ΩL[10], définis de la façon suivante :

 ;
 .

Comme avant, les fonctions f et g sont supposées définies, et g positive, dans un voisinage de l'infini. Ainsi,   est la négation de  , et   la négation de  .

Contrairement à ce qu'affirmera plus tard D.E. Knuth[8], Edmund Landau a également utilisé ces trois symboles en 1924[11].

Ces notations de Hardy et Littlewood sont des prototypes, qui après Landau semblent n'avoir jamais été utilisés tels quels : ΩR est devenu Ω+, et ΩL est devenu Ω.

Ces trois symboles, à savoir  ,   et  , sont maintenant couramment utilisés en théorie analytique des nombres, de même que   pour signifier que les conditions   et   sont toutes deux satisfaites.

Il est clair que dans chacune de ces définitions on peut remplacer par –∞ ou par un nombre réel.

Exemples

modifier

On a

 

et plus précisément,

 

On a

 

et plus précisément,

 

cependant,

 

Deux définitions incompatibles

modifier

Il est important de souligner le fait que l'écriture

 

possède en mathématiques deux définitions incompatibles, toutes les deux très répandues, l'une en théorie analytique des nombres, qu'on vient de présenter, l'autre en théorie de la complexité des algorithmes. Lorsque ces deux disciplines se rencontrent, cette situation est susceptible de créer une grande confusion.

La définition de Knuth

modifier

En 1976, Knuth publie un article[8] dont le but principal est de justifier son utilisation du même symbole Ω pour décrire une autre propriété que celle décrite par Hardy et Littlewood. Il tente de convaincre le lecteur que la définition de Hardy et Littlewood n'est quasiment jamais utilisée (ce qui, même en 1976, est faux depuis en tout cas 25 ans[12]). Il va jusqu'à prétendre que Landau ne l'a jamais utilisée (ce qui est également faux[11]). Il ressent impérativement le besoin d'une autre notion (« For all the applications I have seen so far in computer science, a stronger requirement […] is much more appropriate »), et a décidé que l'utilisation du symbole Ω doit être réservé pour la décrire. Il est fortement contrarié par l'ancienne définition (« Unfortunately, Hardy and Littlewood didn't define Ω(f(n)) as I wanted to »).

Il prend donc le risque de créer la confusion, et définit

 [13].

Utilisation des comparaisons

modifier

Développements limités

modifier

En mathématiques, il est souvent important de garder un œil sur le terme d'erreur d'une approximation. Cette notation est particulièrement utilisée dès que l'on a affaire à des développements limités et à des calculs d'équivalents. Par exemple, le développement de la fonction exponentielle à l'ordre 2 peut aussi s'écrire :

 

pour exprimer le fait que l'erreur, la différence  , est négligeable devant   quand   tend vers 0.

Il faut préciser que le nombre d'opérandes dans ce genre d'écriture doit être borné par une constante qui ne dépend pas de la variable : par exemple l'assertion   est évidemment fausse si les points de suspension cachent un nombre de termes qui n'est pas borné lorsque x varie.

Échelle de comparaison

modifier

Voici une liste de catégories de fonctions couramment utilisées en analyse. La variable (notée ici n) tend vers +∞ et c est une constante réelle arbitraire. Lorsque c est une constante supérieure à 1, les fonctions apparaissent dans cette liste par ordre croissant de grandeur.

notation grandeur au plus
O(1) module majoré par une constante
O(log(n)) logarithmique
O((log(n))c) (polylogarithmique si c est entier positif)
O(n) linéaire
O(n log(n)) parfois appelée « linéarithmique »
O(n logc(n)) parfois appelé « quasi linéaire »
O(n2) quadratique
O(nc) (polynomiale si c est entier positif)
O(cn) (exponentielle si c est positif, parfois « géométrique »)
O(n!) factorielle

O(nc) et O(cn) sont très différents. Le dernier autorise une croissance bien plus rapide, et ce pour n'importe quelle constante c > 1. Une fonction qui croît plus rapidement que n'importe quel polynôme est dite superpolynomiale. Une fonction qui croît plus lentement que toute exponentielle est dite sous-exponentielle. Il existe des fonctions à la fois superpolynomiales et sous-exponentielles, comme la fonction nlog(n).

Remarquons aussi que O(log n) est exactement identique à O(log(nc)), puisque ces deux logarithmes sont multiples l'un de l'autre par un facteur constant et que la notation grand O « ignore » les constantes multiplicatives. De manière analogue, les logarithmes dans des bases constantes différentes sont équivalents.

La liste précédente est utile à cause de la propriété suivante : si une fonction f est une somme de fonctions, et si une des fonctions de la somme croît plus vite que les autres, alors elle détermine l'ordre de croissance de f(n).

Exemple :

si f(n) = 10 log(n) + 5 (log(n))3 + 7 n + 3 n2 + 6 n3,
alors f(n) = O(n3).

Fonction à plusieurs variables

modifier

Cette notation peut aussi être utilisée avec des fonctions de plusieurs variables :

L'écriture :   quand  
correspond à la proposition :  

Pour certains, cette notation abuse du symbole d'égalité, puisqu'elle semble violer l'axiome d'égalité : « des choses égales à la même chose sont égales entre elles » (autrement dit, avec cette notation, l'égalité n'est plus une relation d'équivalence). Mais on peut également considérer que dans l'écriture

 

la notation "=O" désigne un seul opérateur, dans l'écriture duquel le signe "=" n'a pas d'existence propre indépendante (et en particulier ne désigne pas une relation d'équivalence). Il n'y a dans ce cas plus d'abus de notation, mais évidemment toujours un risque de confusion. Il est également possible de définir O(g(x)) comme un ensemble de fonctions, dont les éléments sont toutes les fonctions qui ne grandissent pas plus vite que g, et d'utiliser les notations ensemblistes pour indiquer si une fonction donnée est un élément de l'ensemble ainsi défini. Par exemple :

 

Les deux conventions sont couramment utilisées mais la première (et plus ancienne) est jusqu'au début du XXIe siècle la plus souvent rencontrée. Pour éviter ce problème on utilise (tout aussi couramment) la notation de Vinogradov (voir ci-dessous).

 

Un autre problème est qu'il faut clairement indiquer la variable par rapport à laquelle le comportement asymptotique est examiné. Une affirmation telle que   n'a pas le même sens selon qu'elle est suivie de « quand   » ou, par exemple, de « (pour tout   fixé) quand   ».

La famille de notations de Landau O, o, Ω, ω, Θ, ~

modifier
Notation Nom Description informelle Lorsque  , à partir d'un certain rang... Définition rigoureuse
 

ou

 

Grand O
(Grand Omicron[8])

La fonction |f | est bornée par la fonction |g| asymptotiquement,
à un facteur près

  pour un k > 0  
 

ou

 

Grand Omega Deux définitions :

En théorie des nombres :
f n'est pas négligeable devant g

En théorie des nombres :

  pour un k > 0
et pour une suite de nombres  

En théorie des nombres :

 

En théorie des algorithmes :

f est minorée par g (à un facteur près)
(ou f domine g)

En théorie des algorithmes :

  pour un k > 0

En théorie des algorithmes :

 

 

ou

 

de l'ordre de ;
Grand Theta
Les fonctions f et g sont du même ordre de grandeur asymptotiquement  
pour un k1 > 0, et un k2 > 0
 
 
 

ou

 

Petit o f est négligeable devant g asymptotiquement  , quel que soit   > 0 (fixé).  
  Petit Omega f domine g asymptotiquement   pour tout k > 0  
  équivalent à f est approximativement égale à g asymptotiquement  , quel que soit   > 0 (fixé).  

Après grand-O, les notations Θ et Ω sont les plus utilisées en informatique ; le petit-o est courant en mathématiques mais plus rare en informatique. Le ω est peu usité.

Une autre notation parfois utilisée en informatique est Õ (soft-O en anglais) qui signifie grand-o à un facteur poly-logarithmique près. Autrement dit, f(n) = Õ(g(n)) signifie qu'il existe un entier k tel que f(n) = O(g(n) logk g(n)).

La notation f(x) g(x), introduite par Hardy en 1910[1], est couramment utilisée en théorie des nombres[4],[14]. Elle a la même signification que f(x) = Θ(g(x)), proposée par Knuth en 1976[8].

Systèmes de notations

modifier

Notations de Landau

modifier

Les notations de Landau portent le nom du mathématicien allemand spécialisé en théorie des nombres Edmund Landau qui utilisa le symbole O[3], introduit primitivement par Paul Bachmann[15], et s'en inspira pour inventer le symbole o. Il n'utilisa le symbole Ω que dans un seul article en 1924[11], pour signifier ≠ o ; cette notation avait été introduite (avec la même signification) en 1914 par G. H. Hardy et J. E. Littlewood[9] ; depuis, Ω est couramment utilisé en théorie des nombres, mais exclusivement dans ce même sens, et jamais dans le premier sens indiqué dans le tableau ci-dessus. Dans le même article Landau utilise les symboles ΩR et ΩL, également dus à Hardy et Littlewood[10], (et depuis notés Ω+ et Ω) pour signifier  , respectivement  . Il utilise bien sûr également la notation ∼, mais jamais ω ou Θ.

Des notations de Hardy

modifier

Les notations de Hardy   et  , introduites par G. H. Hardy dans son tract de 1910 Orders of Infinity[1] (parmi d'autres notations), jouent le même rôle que celles de Landau pour la comparaison asymptotique des fonctions.

En notation de Landau, on peut les définir comme suit :

 

et

 

Ces notations de Hardy sont désuètes et Hardy lui-même les a rapidement abandonnées ; il utilise les notations de Landau dans tous ses articles (soit près de 400 !) et dans ses livres[16] sauf dans son tract de 1910 et dans 3 articles (1910-1913). On peut noter que si Hardy a introduit dans son tract de 1910 quelques autres symboles pour la comparaison asymptotique des fonctions, il n'a par contre jamais défini ou utilisé la notation   (ou  ), qu'on doit à Vinogradov.

Notation de Vinogradov

modifier

Le théoricien des nombres russe Ivan Matveyevich Vinogradov introduisit dans les années 1930[17] la notation qui porte son nom,

 .

La notation ≪ de Vinogradov est couramment utilisée en théorie des nombres à la place de O ; parfois même les deux notations sont utilisées indifféremment dans le même article.

Notation L

modifier

En 1982, Carl Pomerance a introduit une nouvelle notation pour abréger les fonctions complexes intervenant dans l'étude asymptotique de la complexité des algorithmes. Ainsi, par exemple, une fonction f appartient à la classe   si on a   ; l'exponentielle « écarte » suffisamment les fonctions pour qu'il ne soit pas possible de ramener cette notation à la forme   par exemple.

Notes et références

modifier
(en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Big O notation » (voir la liste des auteurs).
  1. a b c d e et f (en) G. H. Hardy, « The "Infinitärcalcül" of Paul du Bois-Reymond », Cambridge Tracts in Mathematics, 12, 1910, deuxième édition 1924. Lire en ligne [PDF].
  2. Algorithmique, (lire en ligne)
  3. a et b (de) Edmund Landau, Handbuch der Lehre von der Verteilung der Primzahlen, Berlin 1909, p. 883.
  4. a et b (en) G. H. Hardy et E. M. Wright, An Introduction to the Theory of Numbers (1re éd. 1938) [détail des éditions], 4e éd., p. 7.
  5. Quoique toujours mentionnée dans la 4e édition du Hardy and Wright, p. 7, comme étant occasionnellement utilisée, elle n'est en fait jamais employée dans la suite de l'ouvrage, où les auteurs recourent systématiquement à la notation équivalente o. Hardy lui-même n'a plus jamais utilisé cette notation dans ses travaux publiés après 1913.
  6. Pour éviter cette condition, on peut remplacer la définition qui suit par "On dit que  , s'il existe une fonction   telle que   et  " ; mais cet élargissement de la définition n'a que peu d'intérêt pratique.
  7. E. Ramis, C. Deschamp et J. Odoux, Cours de mathématiques spéciales, tome 3, p. 148
  8. a b c d et e (en) Donald Knuth, « Big Omicron and big Omega and big Theta », SIGACT News, avril-juin 1976, p. 18-24 [lire en ligne] [PDF].
  9. a et b (en) G. H. Hardy et J. E. Littlewood, « Some problems of Diophantine approximation », Acta Mathematica, vol. 37, 1914, p. 225
  10. a et b (en) G. H. Hardy et J. E. Littlewood, « Contribution to the theory of the Riemann zeta-function and the theory of the distribution of primes », Acta Mathematica, vol. 41, 1916.
  11. a b et c (de) E. Landau, « Über die Anzahl der Gitterpunkte in gewissen Bereichen. IV », Nachr. Gesell. Wiss. Gött. Math-phys. Kl., 1924, p. 137-150
  12. (en) E. C. Titchmarsh, The Theory of the Riemann Zeta-Function, Oxford, Clarendon Press, 1951
  13. Il se justifie en écrivant : « Although I have changed Hardy and Littlewood's definition of Ω, I feel justified in doing so because their definition is by no mean in wide use, and because there are other ways to say what they want to say in the comparatively rare cases when their definition applies. »
  14. Gérald Tenenbaum, Introduction à la théorie analytique et probabiliste des nombres, Belin, , « Notations ».
  15. Zahlentheorie, tome 2, 1894, p. 402.
  16. Voir par exemple (en) G. H. Hardy et E. M. Wright, An Introduction to the Theory of Numbers (1re éd. 1938) [détail des éditions].
  17. Voir par exemple « Une nouvelle estimation pour G(n) dans le problème de Waring » (en russe), Doklady Akademii Nauk SSSR, vol. 5, n° 5-6, 1934, p. 249-253. Traduction en anglais dans : Selected works / Ivan Matveevič Vinogradov ; prepared by the Steklov Mathematical Institute of the Academy of Sciences of the USSR on the occasion of his 90th birthday, Springer-Verlag, 1985.

Voir aussi

modifier

Articles connexes

modifier

Lien externe

modifier

(en) Big-O Cheat Sheet, un site répertoriant une classification des complexités algorithmiques par domaine.