« Méthode de Newton » : différence entre les versions

Contenu supprimé Contenu ajouté
LeFit (discuter | contributions)
m v2.0 - Correction syntaxique (Modèle mal fermé)
 
(41 versions intermédiaires par 26 utilisateurs non affichées)
Ligne 1 :
{{Infobox Méthode scientifique
[[Image:GodfreyKneller-IsaacNewton-1689.jpg|thumb|right|Isaac Newton.]]
| image = Newton iteration.png
En [[analyse numérique]], la '''méthode de Newton''' ou '''méthode de Newton-Raphson'''<ref>Joseph Louis Lagrange et Louis Poinsot, [https://books.google.com/books?id=6jHrhC7CuW4C&pg=PA124&dq=Joseph+Raphson&lr=lang_fr&as_brr=1&hl=fr ''Traité de la résolution des équations numériques de tous les degrés''].</ref> est, dans son application la plus simple, un [[Algorithmique|algorithme]] efficace pour trouver numériquement une [[approximation]] précise d'un [[Zéro d'une fonction|zéro]] (ou racine) d'une [[fonction réelle d'une variable réelle]]. Cette méthode doit son nom aux mathématiciens anglais [[Isaac Newton]] (1643-1727) et [[Joseph Raphson]] (peut-être 1648-1715), qui furent les premiers à la décrire pour la [[algorithme de recherche d'un zéro d'une fonction|recherche des solutions d'une équation polynomiale]]. [[Thomas Simpson]] (1710-1761) élargit considérablement le domaine d'application de l'algorithme en montrant, grâce à la notion de dérivée, comment on pouvait l'utiliser pour calculer une solution d'une [[équation]] [[non linéaire]], pouvant ne pas être un polynôme, et d'un système formé de telles équations.
| légende = Une itération de la méthode de Newton.
}}En [[analyse numérique]], la '''méthode de Newton''' ou '''méthode de Newton-Raphson'''<ref>Joseph Louis Lagrange et Louis Poinsot, [https://books.google.com/books?id=6jHrhC7CuW4C&pg=PA124&dq=Joseph+Raphson&lr=lang_fr&as_brr=1&hl=fr ''Traité de la résolution des équations numériques de tous les degrés''].</ref> est, dans son application la plus simple, un [[Algorithmique|algorithme]] efficace pour trouver numériquement une [[approximation]] précise d'un [[Zéro d'une fonction|zéro]] (ou racine) d'une [[fonction réelle d'une variable réelle]]. Cette méthode doit son nom aux mathématiciens anglais [[Isaac Newton]] (1643-1727) et [[Joseph Raphson]] (peut-être 1648-1715), qui furent les premiers à la décrire pour la [[algorithme de recherche d'un zéro d'une fonction|recherche des solutions d'une équation polynomiale]]. [[Thomas Simpson]] (1710-1761) élargit considérablement le domaine d'application de l'algorithme en montrant, grâce à la notion de dérivée, comment on pouvait l'utiliser pour calculer une solution d'une [[équation]] [[non linéaire]], pouvant ne pas être un polynôme, et d'un système formé de telles équations.
 
== Présentation ==
Sous sa forme moderne, l'algorithme peut être présenté brièvement comme suit : à chaque itération, la fonction dont on cherche un zéro est linéarisée en l'itéré (ou point) courant et l'itéré suivant est pris égal au zéro de la fonction linéarisée. Cette description sommaire indique qu'au moins deux conditions sont requises pour la bonne marche de l'algorithme : la fonction doit être [[Différentielle|différentiable]]dérivable aux points visités (pour pouvoir y linéariser la fonction) et les dérivées ne doivent pas s'y annuler (pour que la fonction linéarisée ait un zéro) ; s'ajoute à ces conditions la contrainte forte de devoir prendre le premier itéré ''assez proche'' d'un zéro ''régulier'' de la fonction (i.e., en lequel la dérivée de la fonction ne s'annule pas), pour que la convergence du processus soit assurée.
 
L'intérêt principal de l'algorithme de Newton est sa [[Vitesse de convergence des suites#Convergence q-quadratique|convergence quadratique]] locale. En termes imagés mais peu précis, cela signifie que le nombre de [[Chiffre significatif|chiffres significatifs]] corrects des itérés double à chaque itération, ''asymptotiquement''. Comme le nombre de chiffres significatifs représentables par un ordinateur est d’environ 15 [[système décimal|chiffres décimaux]] (sur un ordinateur qui respecte la norme [[IEEE_754|IEEE-754]]), on peut simplifier grossièrement les propriétés de convergence de l'algorithme de Newton en disant que, soit il converge en moins de 10 itérations, soit il diverge. En effet, si l'itéré initial n'est pas pris suffisamment proche d'un zéro, la suite des itérés générée par l'algorithme a un comportement erratique, dont la convergence éventuelle ne peut être que le fruit du hasard (un des itérés est ''par chance'' proche d'un zéro).
 
L'importance de l'algorithme a incité les numériciens à étendre son application et à proposer des remèdes à ses défauts. Par exemple, l'algorithme permet également de trouver un zéro d'une [[fonction de plusieurs variables]] à valeurs vectorielles, voire définie entre [[espace vectoriel|espaces vectoriels]] de dimension infinie ; la méthode conduit d'ailleurs à des résultats d'existence de zéro (utilisés dans certaines preuves du [[théorème des fonctions implicites]], les théorèmes de [[Leonid Kantorovitch|Kantorovitch]]). On peut aussi l'utiliser lorsque la fonction est différentiable dans un sens plus faible (fonction différentiable par morceaux, [[Fonction B-différentiable|B-différentiable]], [[Fonction semi-lisse|semi-lisse]], obliquement différentiable, ''etc''), ainsi que pour résoudre des systèmes d'inégalité non linéaire, des problèmes d'[[inclusion fonctionnelle]], d'équations différentielles ou aux dérivées partielles, d’[[inéquation variationnelle|inéquations variationnelles]], de [[complémentarité]], ''etc''. On a également mis au point des ''techniques de globalisation'' de l'algorithme, lesquelles ont pour but de forcer la convergence des suites générées à partir d'un itéré initial arbitraire (non nécessairement proche d'un zéro), comme la [[algorithme à directions de descente|recherche linéaire]] et les [[algorithme à régions de confiance|régions de confiance]] agissant sur une fonction de mérite (souvent la fonction de moindres-carrés). Dans les versions dites ''inexactes'' ou ''tronquées'', on ne résout le système linéaire à chaque itération que de manière approchée. Enfin, la famille des [[Méthode de Quasi-Newton|algorithmes de quasi-Newton]] propose des techniques permettant de se passer du calcul de la dérivée de la fonction. Toutes ces améliorations ne permettent toutefois pas d'assurer que l'algorithme trouvera un zéro existant, quel que soit l'itéré initial.
 
Appliqué à la dérivée d'une fonction réelle, cet algorithme permet d'obtenir des [[point critique (mathématiques)|points critiques]] (i.e., des zéros de la fonction dérivée). Cette observation est à l'origine de son utilisation en [[Optimisation (mathématiques)|optimisation]] sans ou avec contraintes.
Ligne 14 ⟶ 16 :
 
[[Image:John Wallis by Sir Godfrey Kneller, Bt.jpg|thumb|left|John Wallis.]]
[[Fichier:Isaac Newton, English School, 1715-20.jpg|vignette|Isaac Newton.]]
La méthode de Newton fut décrite par le mathématicien anglais [[Isaac Newton]] dans ''De analysi per aequationes numero terminorum infinitas'', écrit en [[1669 en science|1669]] et publié en [[1711 en science|1711]] par [[William Jones (mathématicien)|William Jones]]. Elle fut à nouveau décrite dans ''{{lang|la|De metodis fluxionum et serierum infinitarum}}'' (''De la méthode des [[Fluxion (analyse)|fluxions]] et des suites infinies''), écrit en [[1671 en science|1671]], traduit et publié sous le titre ''Methods of Fluxions'' en [[1736 en science|1736]] par [[John Colson]]. Toutefois, Newton n'appliqua la méthode qu'aux seuls polynômes. Comme la notion de dérivée et donc de linéarisation n'était pas définie à cette époque, son approche diffère de celle décrite dans l'introduction : Newton cherchait à affiner une approximation grossière d'un zéro d'un polynôme par un calcul polynomial.
 
Ligne 39 ⟶ 42 :
-->
 
Cette méthode fut l'objet de publications antérieures. En [[1685 en science|1685]], [[John Wallis]] en publia une première description<ref>{{MathWorld|nom_url=WallissConstant|titre=Wallis's Constant}}.</ref> dans ''A Treatise of Algebra both Historical and Practical''. En [[1690 en science|1690]], [[Joseph Raphson]] en publia une description simplifiée dans ''Analysis aequationum universalis''. Raphson considérait la méthode de Newton toujours comme une méthode purement algébrique et restreignait aussi son usage aux seuls polynômes. Toutefois, il mit en évidence le calcul récursif des approximations successives d'un zéro d'un polynôme au lieu de considérer comme Newton une [[suite de polynômes]].
 
C'est [[Thomas Simpson]] ([[1710 en science|1710]]-[[1761 en science|1761]]) qui généralisa cette méthode au calcul itératif des solutions d'une équation non linéaire, en utilisant les dérivées (qu'il appelait [[Fluxion (analyse)|fluxions]], comme Newton)<ref>Voir Simpson (1740), pages 83-84, selon Ypma (1995).</ref>. Simpson appliqua la méthode de Newton à des systèmes de deux équations non linéaires à deux inconnues<ref>Voir Simpson (1740), page 82, selon Ypma (1995).</ref>, en suivant l'approche utilisée aujourd'hui pour des systèmes ayant plus de 2 équations, et à des problèmes d'optimisation sans contrainte en cherchant un zéro du gradient<ref>{{en}} T. Simpson (1737), ''A New Treatise of Fluxions''.</ref>. [[Arthur Cayley]] fut le premier à noter la difficulté de généraliser la méthode de Newton aux variables complexes en [[1879 en science|1879]]<ref>{{en}} Arthur Cayley (1789). ''The Newton-Fourier imaginary problem''.</ref>, par exemple aux polynômes de degré supérieur à 3.
Ligne 79 ⟶ 82 :
<math>f(x_k)+f'(x_k)(x-x_k)=0</math>.
 
Il se peut que la récurrence doive se terminer, si à l'étape {{mvar|k}}, {{mvar|x<sub>k</sub>}} n'appartient pas au [[Ensemble de définition|domaine de définition]] ou si la dérivée {{math|''f {{'}}''(''x{{ind|k}}'')}} est nulle ; dans ces cas, la méthode échoue.
 
Si le zéro inconnu {{mvar|α}} est isolé, alors il existe un [[Voisinage (mathématiques)|voisinage]] de {{mvar|α}} tel que pour toutes les valeurs de départ {{formule|''x''<sub>0</sub>}} dans ce voisinage, la [[suite (mathématiques)|suite]] {{math|(''x<sub>k</sub>'')}} va [[Limite de suite|converger]] vers {{mvar|α}}. De plus, si {{math|''f {{'}}''(''α'')}} est non nul, alors la convergence est (au moins) quadratique, ce qui signifie intuitivement que le nombre de chiffres corrects est approximativement doublé à chaque étape.
Ligne 86 ⟶ 89 :
 
=== Exemple ===
Pour illustrer la méthode, recherchons le nombre positif {{mvar|<math>x}}</math> vérifiant {{<math|>\cos(''x'') {{=}} ''x''{{^3}}}}</math>.
Reformulons la question pour introduire une fonction devant s'annuler :
on recherche le zéro positif (la racine) de {{<math|''>f''(''x'') {{=}} \cos(''x'') – ''-x''{{^3}}}}</math>.
La dérivation donne {{<math|''> f {{'}}''(''x'') {{=}} –sin-\sin(''x'') - 3''x''{{3x^2}}}} </math>.
 
Comme {{math|cos(''x'') < 1}} <math>\cos(x)\leqslant 1</math> pour tout {{formule|''<math>x''}}</math> et {{formule|''<math>x''{{^3}}>1}}</math> pour {{formule|''<math>x''>1}}, nous savons que notre zéro se situe entre 0 et 1. Nous essayons une valeur de départ de {{</math|''x''{{ind|0}} {{=}} 0>,5}}.
nous savons que notre zéro ne peut être supérieur à 1.
<br>
Comme de plus <math>\cos(0) = 1 > 0 = 0^3</math> et <math>\cos(1) < \cos(\pi/4) < 1 = 1^3</math>,
nous savons que notre zéro appartient à l'intervalle <math>[0,1]</math>.
<br>
Nous prenons comme valeur de départ <math>x_0 = 0{,}5</math> :
:<math>\begin{matrix}
x_1 & = & x_0 - \frac{f(x_0)}{f'(x_0)}
& = & 0,5 - \frac{\cos(0,5) - 0,5^3}{{}-\sin(0,5) - 3 \times 0,5^2}
& \simeq & 1{,}112\,141\,637\,1097\,2 \\
x_2 & = & x_1 - \frac{f(x_1)}{f'(x_1)}
& & \vdotscdots & \simeq & 0{,}909\,672\,693\,736\,8 \\
x_3 & & \vdotscdots & & \vdotscdots & \simeq & 0{,}866\,263\,818\,209208\,8 \\
x_4 & & \vdotscdots & & \vdotscdots & \simeq & 0{,}865\,477\,135\,298\,2 \\
x_5 & & \vdotscdots & & \vdotscdots & \simeq & 0{,}865\,474\,033\,111110\,9 \\
x_6 & & \vdotscdots & & \vdotscdots & \simeq & 0{,}865\,474\,033\,101\,6 \\
x_7 & & \vdotscdots & & \vdotscdots & \simeq & 0{,}865\,474\,033\,102101\,6
\end{matrix}
</math>
Les 7 premiers13 chiffres significatifs affichés de cettel'approximation valeur<math>x_7</math> coïncident avec les 713 premiers chiffres du vrai zéro exact.
En réalité, les nombres de chiffres significatifs exacts après la virgule (à l'arrondi près) à partir de <math>x_1</math> sont 0, 1, 2, 5, 10, 21, 43,
avec à peu près un doublement à chaque itération,
ce qui illustre le caractère quadratique de la convergence exposé ci-après.
 
=== Convergence ===
Ligne 108 ⟶ 126 :
Partant de l'approximation {{formule|''x''}}, la méthode de Newton fournit au bout d'une itération :
<center><math>N_f (x) -a=x-\frac{f (x)}{f'(x)} - a= \frac{f '' (\xi)}{2 \, f'(x)}(x-a) ^2</math>.</center>
Pour un intervalle compact {{mvar|I}} contenant {{mvar|x}} et {{mvar|a}} et inclus dans le domaine de définition de {{mvar|f}}, on pose : {{math|''m''{{ind|1}} {{=}} min{{ind|''x'' ∈ ''I''}} {{!}}''f {{'}}''(''x'') {{!}}}} ainsi que {{math|''M''{{ind|2}} {{=}} max{{ind|''x'' ∈ ''I''}} {{!}}''f {{''}}''(''x'') {{!}}}}. Alors, pour tout {{math|''x'' ∈ ''I''}} :
<center><math>\left|N_f (x) - a \right| \leqslant \frac{M_2}{2m_1} |x-a|^2</math>.</center>
Par récurrence immédiate, il vient :
Ligne 146 ⟶ 164 :
 
==== Racine carrée ====
[[Fichier:Heron visuel.gif|vignette|Construction de la suite de Héron à partir du graphe de <math>x\mapsto\frac12\left(x+\frac2x\right)</math>.]]
Un cas particulier de la méthode de Newton est la [[méthode de Héron]], aussi appelée méthode [[Mathématiques mésopotamiennes|babylonienne]] : il s'agit, pour calculer la [[racine carrée]] de {{mvar|a}}, d'appliquer la méthode de Newton à la fonction {{mvar|f}} définie par
 
Ligne 161 ⟶ 180 :
 
:<math>x_{k+1}:=x_k-\frac{x_k^n - a}{nx_k^{n-1}}=\frac1n\left({(n-1)x_k+\frac a{x_k^{n-1}}}\right)</math>.
[[Fichier:Inverse par Newton.gif|vignette|Construction de la suite convergeant vers <math>1/a</math> à partir du graphe de <math>x\mapsto x(2-ax) </math>.]]
 
==== Inverse ====
A partir de <math>f(x)=\frac1x-a</math>, on obtient l'itération <math>
x_{k+1}:=x_k(2-ax_k)
</math> qui converge vers l'inverse de {{mvar|a}} > 0. Cette méthode a l’intérêt de ne faire intervenir que des sommes ou produits. Elle est utilisée pour calculer l'inverse intervenant dans la méthode de Héron.
 
==== Intersection de graphes ====
 
On peut déterminer une intersection des [[Graphe d'une fonction|graphes]] de deux fonctions réelles dérivables {{mvar|f}} et {{mvar|g}}, c'est-à-dire un point {{mvar|x}} tel que {{formule|''f''(''x'') {{=}} ''g''(''x'')}}, en appliquant la méthode de Newton à la fonction {{formule||§=''f'' ''g''}}.
 
== Fonctions holomorphes ==
Ligne 197 ⟶ 222 :
=== Méthode de Newton approchée ===
 
Il arrive parfois que la dérivée (ou la matrice jacobienne pour un système d'équations à plusieurs variables) de la fonction {{mvar|f}} soit coûteuse à calculer. La dérivée peut alors être approximéeapprochée au moyen de [[différences finies]]. Par exemple, en approchant la dérivée {{math|''f {{'}}''(''x{{ind|k}}'')}} par
<center><math>
\frac{f(x_k)-f(x_{k-1})}{x_k-x_{k-1}},
Ligne 204 ⟶ 229 :
 
=== Méthode de Newton non lisse ===
 
{{article détaillé|Algorithme de Newton semi-lisse}}
Lorsque la fonction dont on cherche une racine est non-différentiable, mais seulement [[fonction semi-lisse|semi-lisse]], unla algorithmeméthode analoguede estNewton encorene possible.génère Unpas étatnécessairement une suite {{math|{''x{{ind|k}}''} }} convergente, même si les itérés sont des points de ldifférentiabilité de {{mvar|f}}, arbitrairement proches d'artun zéro de {{mvar|F}}. Un contre-exemple est donné par IzmailovKummer et Solodov(1988<ref>{{en}} AB. F. Izmailov, M. V. SolodovKummer (20141988). ''Newton-TypeNewton’s Methodsmethod for Optimization andnondifferentiable Variational Problemsfunctions''. SpringerIn Series{{ouvrage|lang=en|auteur1=J. inGuddat|auteur2=B. OperationsBank|auteur3=H. ResearchHollatz|auteur4=P. andKall|auteur5=D. FinancialKlatte|auteur6=B. EngineeringKummer|auteur7=K. SpringerLommatzsch|auteur8=L. Tammer|auteur9=M. Vlach|auteur10=K. Zimmerman|titre=Advances in Mathematical Optimization|pages=114–125|éditeur=Akademie-Verlag|lieu=Berlin}}.</ref>).
 
Un algorithme analogue est encore possible en supposant un peu plus que la lipschitzianité de {{mvar|F}}, mais sa semi-lissité. L'algorithme de Newton pour une fonction {{mvar|f}} semi-lisse consiste alors à générer une suite <math>\{x_k\}\subset\mathbb{E}</math>, où le nouvel itéré {{math|''x''{{ind|''k''+1}}}} est calculé à partir de l'itéré courant {{mvar|x{{ind|k}}}} par la récurrence suivante
 
{{Bloc emphase|espacement=1.5ex|<math>x_{k+1}:=x_k-J_k^{-1}f(x_k),</math>}}
 
où {{mvar|J{{ind|k}}}} est une jacobienne inversible du [[Différentiel généralisé#Différentiel de Clarke|différentiel de Clarke]] {{math|∂{{ind|CF}}(''x{{ind|k}}'')}}, qui est supposée exister.
 
Comme la méthode de Newton classique, l'algorithme de Newton semi-lisse converge sous deux conditions. La première spécifie que la fonction dont on cherche un zéro {{math|''x''{{ind|*}}}} est suffisamment lisse : elle doit être [[Fonction semi-lisse|semi-lisse]]. Il faut aussi qu'en ce zéro la fonction ait ses « pentes » qui ne s'annulent pas en {{math|''x''{{ind|*}}}} ; ceci s'exprime par l'hypothèse de [[Différentiel généralisé#C-régularité|C-régularité]] du zéro. Il s'agit aussi d'un résultat de convergence ''locale'', ce qui veut dire qu'il faut que le premier itéré soit choisi suffisamment près d'un zéro satisfaisant les conditions ci-dessus pour que la convergence ait lieu.
 
{{Théorème|Convergence locale de l'algorithme de Newton semi-lisse|Supposons que {{mvar|f}} soit [[Fonction semi-lisse|semi-lisse]] en une solution C-régulière {{math|''x''{{ind|*}}}} de l'équation {{math|''f''(''x'') {{=}} 0}}. Alors,
* il existe un voisinage {{mvar|V}} de {{math|''x''{{ind|*}}}} tel que si le premier itéré {{math|''x''{{ind|1}} ∈ ''V''}}, l'algorithme de Newton semi-lisse est bien défini et génère une suite {{math|{''x{{ind|k}}''} }} dans {{mvar|V}}, qui converge super-linéairement vers {{math|''x''{{ind|*}}}},
* la convergence est quadratique si {{mvar|f}} est fortement semi-lisse en {{math|''x''{{ind|*}}}}.}}
 
Un état de l'art est donné par Izmailov et Solodov<ref>{{article|lang=en|auteur1=A. F. Izmailov|auteur2=M. V. Solodov|année=2014|titre=Newton-Type Methods for Optimization and Variational Problems|périodique=Springer Series in Operations Research and Financial Engineering|éditeur=Springer}}.</ref>.
 
=== Méthode de Newton par intervalles ===
{{pertinence section|date=janvier 2019}}
Dans certains cas, il arrive que l'on veuille éviter la condition de proximité entre notre valeur de départ et le zéro de la fonction. Une solution est alors d'utiliser la méthode de Newton par intervalles<ref>{{ouvrage|lang=en|auteur=RE Moore|année=1979|titre=Methods and applications of interval analysis|volume=2|éditeur=Siam}}</ref>{{,}}<ref>{{article|lang=en|auteur=E. Hansen|année=1978|titre=Interval forms of Newtons method|périodique=Computing|numéro=20|volume=2|pages=153-163}}</ref>.
 
On considère <math>f \in \mathcal{C}^1(X)</math>, avec {{mvar|X}} un intervalle réel, et on suppose que l'on a une extension par intervalles {{mvar|F'}} de {{mvar|f '}}, c'est-à-dire une fonction {{mvar|F '}} prenant en entrée un intervalle {{math|''Y'' ⊆ ''X''}} et renvoyant un intervalle {{math|''F{{'}}''(''Y'')}} tel que :
<center><math>\begin{align}
F'([y,y]) &= \{f'(y)\}\\
F'(Y) &\supseteq \{f'(y)~|~y \in Y\}
\end{align}</math>.</center>
On suppose également que <math>0 \notin F'(X)</math>, donc en particulier {{mvar|f}} a au plus un zéro sur {{mvar|X}}.
On peut maintenant définir l'opérateur :
<center><math>N(Y) = m + \frac{f(m)}{F'(Y)} = \left\{\left. m + \frac{f(m)}{z} ~\right|~ z \in F'(Y)\right\}</math></center>
pour tout intervalle {{mvar|y}} de centre {{mvar|m}}. On notera que l'hypothèse sur {{mvar|F'}} implique que {{math|''N''(''Y'')}} est bien défini et est un intervalle (voir [[arithmétique d'intervalles]] pour plus de détails là dessus). On peut maintenant créer la suite d'intervalles suivante :
<center><math>
\begin{align}
X_0 &= X\\
X_{k+1} &= N(X_k) \cap X_k
\end{align}
</math>.</center>
Le [[théorème des accroissements finis]] certifie que, s'il y a un zéro de {{mvar|f}} dans {{mvar|X{{ind|k}}}}, alors il est encore dans {{math|''X''{{ind|''k''+1}}}}. De plus, l'hypothèse de positivité sur {{mvar|F'}} implique que la taille de {{math|''X''{{ind|''k''+1}}}} est au plus la moitié de celle de {{mvar|X{{ind|k}}}}, donc la séquence converge vers le singleton {{math|{''x''{{exp|*}}<nowiki/>} }}, où {{math|''x''{{exp|*}}}} est le zéro de {{mvar|f}} sur {{mvar|X}}.
 
== Annexes ==
Ligne 227 ⟶ 287 :
* [[Optimisation quadratique successive]], qui est un algorithme newtonien pour résoudre des problèmes d'optimisation sous contrainte
* [[Vitesse de convergence des suites]]
*[[Algorithme de Jaumain]]
 
=== Liens externes ===
Ligne 236 ⟶ 297 :
 
* {{en}} D. P. Bertsekas (1995), ''Nonlinear Programming''. Athena Scientific. {{ISBN|978-1-886529-14-4}}.
* {{en}} J. F. Bonnans, J. Ch. Gilbert, C. Lemaréchal, [[Claudia Sagastizábal|C. Sagastizábal]] (2006), ''Numerical Optimization - Theoretical and Practical Aspects'' {{détail des éditions|Référence:Optimisation (Bonnans, Gilbert, Lemaréchal, Sagastizábal, 2006)}}.
* J.-L. Chabert, É. Barbin, M. Guillemot, A. Michel-Pajus, J. Borowczyk, A. Djebbar, [[Jean-Claude Martzloff|J.-C. Martzloff]] (1994). ''Histoire d’Algorithmes – Du Caillou à la Puce''. Regards sur la Science. Belin, Paris.
* J.-P. Dedieu (2006). ''Points Fixes, Zéros et la Méthode de Newton''. Mathématiques et Applications 54. Springer Verlag, Berlin.
Ligne 247 ⟶ 308 :
* {{en}} T. J. Ypma (1995). Historical development of the Newton-Raphson method. ''SIAM Review'', 37, 531–551.
 
{{Palette|Méthodes de résolution|Analyse Numérique|Optimisation}}
{{portail|analyse}}
 
{{DEFAULTSORT:Methode de Newton}}
 
[[Catégorie:Itération|Newton]]
[[Catégorie:Algorithme de recherche d'un zéro d'une fonction|Newton]]
Ce document provient de « https://fr.wikipedia.org/wiki/Méthode_de_Newton ».