1 |
+ |
\begin{encadre}{Objectif du chapitre} |
2 |
+ |
Le monde théorique des mathématiques aiment manipuler des fonctions continues. Le monde réel de l'ingénierie est fait de prise de mesure à différents moments. On obtient ainsi des echantillons de données. Ce chapitre montre des méthodes qui permettent de retrouver un des fonctions continues à partir de points de mesure. |
3 |
+ |
\end{encadre} |
4 |
+ |
\\[1cm] |
5 |
+ |
\begin{encadre}{Connaissances antérieures nécessaires} |
6 |
+ |
\begin{itemize} |
7 |
+ |
\item les mathématiques : les polynomes. |
8 |
+ |
\item programmation de base en Basic ou C : les types, les opérations élémentaires et la structuration de programme en mode console. Excel pour afficher les résultats |
9 |
+ |
\end{itemize} |
10 |
+ |
|
11 |
+ |
\end{encadre} |
12 |
+ |
|
13 |
+ |
|
14 |
+ |
|
15 |
|
\section{Mise en situation} |
16 |
|
Lors d'un essai, la vitesse d'un véhicule est relevée toutes les 5 secondes pour obtenir le tableau de relevés suivant : \\ |
17 |
|
\\ |
42 |
|
\huge\danger\hspace{1cm}\normalsize Il faut bien faire la différence entre les méthodes d'interpolation et les méthodes d'approximation.\\ |
43 |
|
Les méthodes d'interpolation recherche une fonction qui passe exactement par les points donnés alors que les méthodes d'approximation recherche une fonction qui passe le plus proche possible des points sans forcement passer par ces points. |
44 |
|
\\Nous nous limitons dans ce cours aux méthodes d'interpolation. |
45 |
+ |
\section{Approximation par la méthode des moindres carrés} |
46 |
+ |
L'idée est de faire passer une courbe au plus proche de la série de point $(x_i,y_i)$. Pour cela, nous cherchons à faire correspondre la série de points avec une courbe modèle $f(x,\overrightarrow{\beta})$ où $\overrightarrow{\beta}$ est un vecteur de paramètres. |
47 |
+ |
L'objectif est de trouver les valeurs des différents paramètres $\beta$ afin que la courbe passe au plus proche des points. |
48 |
+ |
Pour cela on calcule la somme $S$ des carrés de l'écart de chaque point à la courbe à $m$ paramètres et on minimise cette somme. |
49 |
+ |
\subsection{Cas général} |
50 |
+ |
\begin{eqnarray*} |
51 |
+ |
S(\overrightarrow{\beta})=\sum_{i=1}^n\left(y_i-f(x_i,\overrightarrow{\beta})\right)^2 |
52 |
+ |
\end{eqnarray*} |
53 |
+ |
Pour minimiser cette somme il faut s'assurer que la dérivée par rapport à chaque paramètre est nulle : |
54 |
+ |
\begin{eqnarray*} |
55 |
+ |
\left \{ |
56 |
+ |
\begin{array}{l} |
57 |
+ |
\frac{\partial S(\overrightarrow{\beta})}{\partial \beta_1}=-2\sum_{i=1}^n\frac{\partial f(x_i,\overrightarrow{\beta})}{\partial \beta_1}\left(y_i-f(x_i,\overrightarrow{\beta})\right)=0 |
58 |
+ |
\\ \frac{\partial S(\overrightarrow{\beta})}{\partial \beta_2}=-2\sum_{i=1}^n\frac{\partial f(x_i,\overrightarrow{\beta})}{\partial \beta_2}\left(y_i-f(x_i,\overrightarrow{\beta})\right)=0 |
59 |
+ |
\\ \vdots\\ |
60 |
+ |
\frac{\partial S(\overrightarrow{\beta})}{\partial \beta_m}=-2\sum_{i=1}^n\frac{\partial f(x_i,\overrightarrow{\beta})}{\partial \beta_m}\left(y_i-f(x_i,\overrightarrow{\beta})\right)=0 |
61 |
+ |
\end{array} |
62 |
+ |
\right. |
63 |
+ |
\end{eqnarray*} |
64 |
+ |
On aboutit à un système d'équation de $m$ inconnues à $m$ variables. |
65 |
+ |
|
66 |
+ |
|
67 |
+ |
\subsection{Application à la régression linéaire} |
68 |
+ |
Dans le cas de la régression linéaire cela veut dire que la courbe recherchée est une droite de la forme $y=\beta_0+x\beta_1$. C'est le cas de l'exemple du paragraphe précédent. |
69 |
+ |
La fonction $S$ s'écrit alors |
70 |
+ |
\begin{eqnarray*} |
71 |
+ |
S(\beta_0,\beta_1)=\sum_{i=1}^n\left(y_i-\beta_0-x_i\beta_1\right)^2 |
72 |
+ |
\end{eqnarray*} |
73 |
+ |
La minimisation de S s'écrit |
74 |
+ |
\begin{eqnarray*} |
75 |
+ |
\left \{ |
76 |
+ |
\begin{array}{l} |
77 |
+ |
\frac{\partial S(\beta_0,\beta_1)}{\partial \beta_0}=-2\sum_{i=1}^n\left(y_i-\beta_0-x_i\beta_1\right)=0\\ |
78 |
+ |
\frac{\partial S(\beta_0,\beta_1)}{\partial \beta_1}=-2\sum_{i=1}^nx_i\left(y_i-\beta_0-x_i\beta_1\right)=0 |
79 |
+ |
\end{array} |
80 |
+ |
\right. |
81 |
+ |
\end{eqnarray*} |
82 |
+ |
On déduit de la première équation que |
83 |
+ |
\begin{eqnarray*} |
84 |
+ |
\sum_{i=1}^n\left(y_i-\beta_0-x_i\beta_1\right)=0\\ |
85 |
+ |
\sum_{i=1}^n y_i-\sum_{i=1}^n \beta_0-\sum_{i=1}^n x_i\beta_1=0\\ |
86 |
+ |
\sum_{i=1}^n y_i-n\beta_0-\beta_1\sum_{i=1}^n x_i=0\\ |
87 |
+ |
n\overline{y}-n\beta_0-\beta_1n\overline{x}=0\\ |
88 |
+ |
\overline{y}-\beta_1\overline{x}=\beta_0\\ |
89 |
+ |
\end{eqnarray*} |
90 |
+ |
En remplaçant $\beta_0$ dans le système précédent on a |
91 |
+ |
\begin{eqnarray*} |
92 |
+ |
\left \{ |
93 |
+ |
\begin{array}{l} |
94 |
+ |
\sum_{i=1}^n\left(y_i-\overline{y}+\beta_1\overline{x}-x_i\beta_1\right)=0\\ |
95 |
+ |
\sum_{i=1}^nx_i\left(y_i-\overline{y}+\beta_1\overline{x}-x_i\beta_1\right)=0 |
96 |
+ |
\end{array} |
97 |
+ |
\right. |
98 |
+ |
\end{eqnarray*} |
99 |
+ |
|
100 |
+ |
\begin{eqnarray*} |
101 |
+ |
\left \{ |
102 |
+ |
\begin{array}{l} |
103 |
+ |
\sum_{i=1}^n\left((y_i-\overline{y})-\beta_1(x_i-\overline{x})\right)=0\\ |
104 |
+ |
\sum_{i=1}^nx_i\left((y_i-\overline{y})-\beta_1(x_i-\overline{x})\right)=0 |
105 |
+ |
\end{array} |
106 |
+ |
\right. |
107 |
+ |
\end{eqnarray*} |
108 |
+ |
En multipliant la ligne 1 par $\overline{x}$ et en soustrayant les 2 équations on a |
109 |
+ |
\begin{eqnarray*} |
110 |
+ |
\sum_{i=1}^n(x_i-\overline{x})\left((y_i-\overline{y})-\beta_1(x_i-\overline{x})\right)=0\\ |
111 |
+ |
\sum_{i=1}^n(x_i-\overline{x})(y_i-\overline{y})-\beta_1\sum_{i=1}^n(x_i-\overline{x})^2=0\\ |
112 |
+ |
\beta_1=\frac{\sum_{i=1}^n(x_i-\overline{x})(y_i-\overline{y})}{\sum_{i=1}^n(x_i-\overline{x})^2}\\ |
113 |
+ |
\beta_1=\frac{\sum_{i=1}^n(x_iy_i+\overline{x}*\overline{y}-x_i\overline{y}-y_i\overline{x})}{\sum_{i=1}^n(x_i^2+\overline{x}^2-2x_i\overline{x})}\\ |
114 |
+ |
\beta_1=\frac{\sum_{i=1}^nx_iy_i+n*\overline{x}*\overline{y}-\sum_{i=1}^nx_i\overline{y}-\sum_{i=1}^ny_i\overline{x}}{\sum_{i=1}^nx_i^2+n*\overline{x}^2-2\overline{x}\sum_{i=1}^nx_i}\\ |
115 |
+ |
\beta_1=\frac{\sum_{i=1}^nx_iy_i+n*\overline{x}*\overline{y}-n*\overline{x}*\overline{y}-n*\overline{y}*\overline{x}}{\sum_{i=1}^nx_i^2+n*\overline{x}^2-2\overline{x}*n*\overline{x}}\\ |
116 |
+ |
\beta_1=\frac{\sum_{i=1}^nx_iy_i-n*\overline{x}*\overline{y}}{\sum_{i=1}^nx_i^2-n*\overline{x}^2}\\ |
117 |
+ |
\end{eqnarray*} |
118 |
+ |
Dans l'exemple donné on a $n=10$. On peut calculer $\beta_0$ et $\beta_1$ : \\ \\ |
119 |
+ |
\begin{tabular}{|r|r|r|r|r|} |
120 |
+ |
\hline |
121 |
+ |
&$x_i$ & $y_i$ &$x_i^2$ & $x_iy_i$ \\ |
122 |
+ |
\hline |
123 |
+ |
& $0$&$55$&$0$&$0$\\ |
124 |
+ |
&$5$&$60$&$25$&$300$\\ |
125 |
+ |
&$10$&$58$&$100$&$580$\\ |
126 |
+ |
&$15$&$54$&$225$&$810$\\ |
127 |
+ |
&$20$&$55$&$400$&$1100$\\ |
128 |
+ |
&$25$&$60$&$625$&$1500$\\ |
129 |
+ |
&$30$&$54$&$925$&$1620$\\ |
130 |
+ |
&$35$&$51$&$1225$&$1785$\\ |
131 |
+ |
&$40$&$52$&$1600$&$2080$\\ |
132 |
+ |
&$45$&$49$&$2025$&$2205$\\ |
133 |
+ |
\hline |
134 |
+ |
Total&$225$&$548$&$7125$&$11980$\\ |
135 |
+ |
Moyenne&$22.5$&$54.8$&&\\ |
136 |
+ |
\hline |
137 |
+ |
\end{tabular} |
138 |
+ |
\begin{eqnarray*} |
139 |
+ |
\beta_1&=&\frac{\sum_{i=1}^nx_iy_i-n*\overline{x}*\overline{y}}{\sum_{i=1}^nx_i^2-n*\overline{x}^2}\\ |
140 |
+ |
\beta_1&=&\frac{11980-10*22.5*54.8}{7125-10*22.5*22.5}=-0.16969696\\ |
141 |
+ |
\beta_0&=&\overline{y}-\beta_1\overline{x}=54.8+0.16969696*22.5=58.618181818\\ |
142 |
+ |
\end{eqnarray*} |
143 |
+ |
|
144 |
+ |
\begin{figure}[h] |
145 |
+ |
\begin{center} |
146 |
+ |
\includegraphics[width=10cm,bb=0 0 589 418]{./approximation.jpg} |
147 |
+ |
% approximation.jpg: 0x0 pixel, 300dpi, 0.00x0.00 cm, bb= |
148 |
+ |
\caption{Approximation de la vitesse d'un véhicule par une régression linéaire et vérification avec un logiciel (LibreOffice)} |
149 |
+ |
\end{center} |
150 |
+ |
\end{figure} |
151 |
+ |
\section{Méthodes des moindres carrées par les équations normales} |
152 |
+ |
L'idée de la méthode est de dire que l'on veut faire passer au plus proche de $n$ points une courbe $y=f(x,\overrightarrow{\beta})$ où $\overrightarrow{\beta}$ est un vecteur de $m$ paramètres |
153 |
+ |
\\ Pour les $n$ points on peut écrire que |
154 |
+ |
\begin{eqnarray*} |
155 |
+ |
y_i=f(x_i,\overrightarrow{\beta})\quad 1\leq i\leq n |
156 |
+ |
\end{eqnarray*} |
157 |
+ |
soit $n$ équations à $m$ variables. On obtient dont un système de $n$ inconnues à $m$ paramètres : |
158 |
+ |
\begin{eqnarray*} |
159 |
+ |
A(n,m)*x(m)=B(n) |
160 |
+ |
\end{eqnarray*} |
161 |
+ |
Ce système se transforme en un système d'équations normales de $m$ équations à $m$ inconnues |
162 |
+ |
\begin{eqnarray*} |
163 |
+ |
Ax=B\\ |
164 |
+ |
A^tAx=A^tB |
165 |
+ |
\end{eqnarray*} |
166 |
+ |
Ce système peut se résoudre grâce aux méthodes vues au chapitre précédent. |
167 |
+ |
\\[1cm] En reprenant l'exemple précédent il vient que l'on peut construire le système d'équations suivant : |
168 |
+ |
\begin{eqnarray*} |
169 |
+ |
\left \{ |
170 |
+ |
\begin{array}{l} |
171 |
+ |
\beta_0+0\beta_1=55\\ |
172 |
+ |
\beta_0+5\beta_1=60\\ |
173 |
+ |
\beta_0+10\beta_1=58\\ |
174 |
+ |
\beta_0+15\beta_1=54\\ |
175 |
+ |
\beta_0+20\beta_1=55\\ |
176 |
+ |
\beta_0+25\beta_1=60\\ |
177 |
+ |
\beta_0+30\beta_1=54\\ |
178 |
+ |
\beta_0+35\beta_1=57\\ |
179 |
+ |
\beta_0+40\beta_1=52\\ |
180 |
+ |
\beta_0+45\beta_1=49\\ |
181 |
+ |
\end{array} |
182 |
+ |
\right. |
183 |
+ |
\end{eqnarray*} |
184 |
+ |
soit sous un système matriciel |
185 |
+ |
\begin{eqnarray*} |
186 |
+ |
\begin{pmatrix} |
187 |
+ |
1&0\\ |
188 |
+ |
1&5\\ |
189 |
+ |
1&10\\ |
190 |
+ |
1&15\\ |
191 |
+ |
1&20\\ |
192 |
+ |
1&25\\ |
193 |
+ |
1&30\\ |
194 |
+ |
1&35\\ |
195 |
+ |
1&40\\ |
196 |
+ |
1&45\\ |
197 |
+ |
\end{pmatrix} |
198 |
+ |
\begin{pmatrix} |
199 |
+ |
\beta_0\\ |
200 |
+ |
\beta_1 |
201 |
+ |
\end{pmatrix} |
202 |
+ |
= |
203 |
+ |
\begin{pmatrix} |
204 |
+ |
55\\ |
205 |
+ |
60\\ |
206 |
+ |
58\\ |
207 |
+ |
54\\ |
208 |
+ |
55\\ |
209 |
+ |
60\\ |
210 |
+ |
54\\ |
211 |
+ |
57\\ |
212 |
+ |
52\\ |
213 |
+ |
49\\ |
214 |
+ |
\end{pmatrix} |
215 |
+ |
\end{eqnarray*} |
216 |
+ |
\begin{eqnarray*} |
217 |
+ |
\begin{pmatrix} |
218 |
+ |
0&5&10&15&20&25&30&35&40&45\\ |
219 |
+ |
1&1&1&1&1&1&1&1&1&1 |
220 |
+ |
\end{pmatrix} |
221 |
+ |
\begin{pmatrix} |
222 |
+ |
1&0\\ |
223 |
+ |
1&5\\ |
224 |
+ |
1&10\\ |
225 |
+ |
1&15\\ |
226 |
+ |
1&20\\ |
227 |
+ |
1&25\\ |
228 |
+ |
1&30\\ |
229 |
+ |
1&35\\ |
230 |
+ |
1&40\\ |
231 |
+ |
1&45\\ |
232 |
+ |
\end{pmatrix} |
233 |
+ |
\begin{pmatrix} |
234 |
+ |
\beta_0\\ |
235 |
+ |
\beta_1 |
236 |
+ |
\end{pmatrix} |
237 |
+ |
=\\ |
238 |
+ |
\begin{pmatrix} |
239 |
+ |
0&5&10&15&20&25&30&35&40&45\\ |
240 |
+ |
1&1&1&1&1&1&1&1&1&1 |
241 |
+ |
\end{pmatrix} |
242 |
+ |
\begin{pmatrix} |
243 |
+ |
55\\ |
244 |
+ |
60\\ |
245 |
+ |
58\\ |
246 |
+ |
54\\ |
247 |
+ |
55\\ |
248 |
+ |
60\\ |
249 |
+ |
54\\ |
250 |
+ |
57\\ |
251 |
+ |
52\\ |
252 |
+ |
49\\ |
253 |
+ |
\end{pmatrix} |
254 |
+ |
\end{eqnarray*} |
255 |
+ |
\begin{eqnarray*} |
256 |
+ |
\begin{pmatrix} |
257 |
+ |
225&7125\\ |
258 |
+ |
10&225\\ |
259 |
+ |
\end{pmatrix} |
260 |
+ |
\begin{pmatrix} |
261 |
+ |
\beta_0\\ |
262 |
+ |
\beta_1 |
263 |
+ |
\end{pmatrix} |
264 |
+ |
= |
265 |
+ |
\begin{pmatrix} |
266 |
+ |
11980\\548\\ |
267 |
+ |
\end{pmatrix} |
268 |
+ |
\end{eqnarray*} |
269 |
+ |
\begin{eqnarray*} |
270 |
+ |
\beta_0=\frac{11980*225-7125*548}{225*225-10*7125}=58.61818181\\ |
271 |
+ |
\beta_1=\frac{225*548-11980*10}{225*225-10*7125}=-0.169696969696 |
272 |
+ |
\end{eqnarray*} |
273 |
+ |
On retrouve exactement la même droite que précédemment $y=-0.1696969696x+58.6181818181$\\ |
274 |
+ |
On peut passer à un autre exemple pour faire passer une courbe de degré $2$ au travers des mêmes points. Dans ce cas la courbe a trois paramètres et s'écrit $y=\beta_0+\beta_1 x+\beta_2 x^2$. |
275 |
+ |
Les calculs précédents deviennent : |
276 |
+ |
\begin{eqnarray*} |
277 |
+ |
\left \{ |
278 |
+ |
\begin{array}{l} |
279 |
+ |
\beta_0+0\beta_1+0\beta_2=55\\ |
280 |
+ |
\beta_0+5\beta_1+25\beta_2=60\\ |
281 |
+ |
\beta_0+10\beta_1+100\beta_2=58\\ |
282 |
+ |
\beta_0+15\beta_1+225\beta_2=54\\ |
283 |
+ |
\beta_0+20\beta_1+400\beta_2=55\\ |
284 |
+ |
\beta_0+25\beta_1+625\beta_2=60\\ |
285 |
+ |
\beta_0+30\beta_1+900\beta_2=54\\ |
286 |
+ |
\beta_0+35\beta_1+1225\beta_2=57\\ |
287 |
+ |
\beta_0+40\beta_1+1600\beta_2=52\\ |
288 |
+ |
\beta_0+45\beta_1+2025\beta_2=49\\ |
289 |
+ |
\end{array} |
290 |
+ |
\right. |
291 |
+ |
\end{eqnarray*} |
292 |
+ |
\begin{eqnarray*} |
293 |
+ |
\begin{pmatrix} |
294 |
+ |
1&0&0\\ |
295 |
+ |
1&5&25\\ |
296 |
+ |
1&10&100\\ |
297 |
+ |
1&15&225\\ |
298 |
+ |
1&20&400\\ |
299 |
+ |
1&25&625\\ |
300 |
+ |
1&30&900\\ |
301 |
+ |
1&35&1225\\ |
302 |
+ |
1&40&1600\\ |
303 |
+ |
1&45&2025\\ |
304 |
+ |
\end{pmatrix} |
305 |
+ |
\begin{pmatrix} |
306 |
+ |
\beta_0\\ |
307 |
+ |
\beta_1\\ |
308 |
+ |
\beta_2\\ |
309 |
+ |
\end{pmatrix} |
310 |
+ |
= |
311 |
+ |
\begin{pmatrix} |
312 |
+ |
55\\ |
313 |
+ |
60\\ |
314 |
+ |
58\\ |
315 |
+ |
54\\ |
316 |
+ |
55\\ |
317 |
+ |
60\\ |
318 |
+ |
54\\ |
319 |
+ |
57\\ |
320 |
+ |
52\\ |
321 |
+ |
49\\ |
322 |
+ |
\end{pmatrix} |
323 |
+ |
\end{eqnarray*} |
324 |
+ |
\begin{eqnarray*} |
325 |
+ |
\begin{pmatrix} |
326 |
+ |
0&25&1000&225&400&625&900&1225&1600&2025\\ |
327 |
+ |
0&5&10&15&20&25&30&35&40&45\\ |
328 |
+ |
1&1&1&1&1&1&1&1&1&1 |
329 |
+ |
\end{pmatrix} |
330 |
+ |
\begin{pmatrix} |
331 |
+ |
1&0&0\\ |
332 |
+ |
1&5&25\\ |
333 |
+ |
1&10&100\\ |
334 |
+ |
1&15&225\\ |
335 |
+ |
1&20&400\\ |
336 |
+ |
1&25&625\\ |
337 |
+ |
1&30&900\\ |
338 |
+ |
1&35&1225\\ |
339 |
+ |
1&40&1600\\ |
340 |
+ |
1&45&2025\\ |
341 |
+ |
\end{pmatrix} |
342 |
+ |
\begin{pmatrix} |
343 |
+ |
\beta_0\\ |
344 |
+ |
\beta_1\\ |
345 |
+ |
\beta_2\\ |
346 |
+ |
\end{pmatrix} |
347 |
+ |
=\\ |
348 |
+ |
\begin{pmatrix} |
349 |
+ |
0&25&1000&225&400&625&900&1225&1600&2025\\ |
350 |
+ |
0&5&10&15&20&25&30&35&40&45\\ |
351 |
+ |
1&1&1&1&1&1&1&1&1&1 |
352 |
+ |
\end{pmatrix} |
353 |
+ |
\begin{pmatrix} |
354 |
+ |
55\\ |
355 |
+ |
60\\ |
356 |
+ |
58\\ |
357 |
+ |
54\\ |
358 |
+ |
55\\ |
359 |
+ |
60\\ |
360 |
+ |
54\\ |
361 |
+ |
57\\ |
362 |
+ |
52\\ |
363 |
+ |
49\\ |
364 |
+ |
\end{pmatrix} |
365 |
+ |
\end{eqnarray*} |
366 |
+ |
\begin{eqnarray*} |
367 |
+ |
\begin{pmatrix} |
368 |
+ |
10 & 245 &7150\\ |
369 |
+ |
245 & 8325 &261875\\ |
370 |
+ |
7150 & 261875 &9628750\\ |
371 |
+ |
\end{pmatrix} |
372 |
+ |
\begin{pmatrix} |
373 |
+ |
\beta_0\\ |
374 |
+ |
\beta_1\\ |
375 |
+ |
\beta_2\\ |
376 |
+ |
\end{pmatrix} |
377 |
+ |
= |
378 |
+ |
\begin{pmatrix} |
379 |
+ |
548\\ |
380 |
+ |
13080\\ |
381 |
+ |
373800 |
382 |
+ |
\end{pmatrix} |
383 |
+ |
\end{eqnarray*} |
384 |
+ |
\begin{eqnarray*} |
385 |
+ |
\begin{pmatrix} |
386 |
+ |
\beta_0\\ |
387 |
+ |
\beta_1\\ |
388 |
+ |
\beta_2\\ |
389 |
+ |
\end{pmatrix} |
390 |
+ |
= |
391 |
+ |
\begin{pmatrix} |
392 |
+ |
57.6540770222\\ |
393 |
+ |
-0.000126148741\\ |
394 |
+ |
-0.003987393535\\ |
395 |
+ |
\end{pmatrix} |
396 |
+ |
\end{eqnarray*} |
397 |
+ |
La courbe a pour équation $y=57.6540770222-0.000126148741x-0.003987393535x^2$ |
398 |
+ |
\\[1cm]Le problème principal de cette méthode est que les équations normales sont des systèmes d'équations linéaires souvent mal conditionnés. |
399 |
+ |
Il est préférable se solutionner le problème original non carré à l'aide des méthodes de Householder (méthode du QR) ou des transformations de Givens. |
400 |
+ |
|
401 |
+ |
|
402 |
+ |
|
403 |
|
|
404 |
|
|
405 |
|
\section{Interpolation par un polynôme} |
622 |
|
\begin{eqnarray*} |
623 |
|
P_n(x_2)&=&a_0+a_1(x_2-x_0)+a_2(x_2-x_0)(x_2-x_1)=y_2\\ |
624 |
|
& &f(x_0)+f[x_1,x_0](x_2-x_0)+a_2(x_2-x_0)(x_2-x_1)=f(x_2)\\ |
625 |
< |
a_2&=&\frac{1}{(x_2-x_0)(x_2-x_1)}\left(f(x_2)-f(x_0)-(x_2-x_0))f[x_0,x_1]\right)\\ |
625 |
> |
a_2&=&\frac{1}{(x_2-x_0)(x_2-x_1)}\left(f(x_2)-f(x_0)-(x_2-x_0)\right)f[x_0,x_1]\\ |
626 |
|
&=&\frac{1}{x_2-x_0}\left(\frac{f(x_2)-f(x_0)}{x_2-x_1}-\frac{x_2-x_0}{x_2-x_1}f[x_0,x_1]\right)\\ |
627 |
|
&=&\frac{1}{x_2-x_0}\left(\frac{f(x_2)-f(x_1)+f(x_1)-f(x_0)}{x_2-x_1}-\frac{x_2-x_0}{x_2-x_1}f[x_0,x_1]\right)\\ |
628 |
|
&=&\frac{1}{x_2-x_0}\left(\frac{f(x_2)-f(x_1)}{x_2-x_1}+\frac{f(x_1)-f(x_0)}{x_1-x_0}\frac{x_1-x_0}{x_2-x_1}-\frac{x_2-x_0}{x_2-x_1}f[x_0,x_1]\right)\\ |
703 |
|
\item Tout comme dans la formule d erreur de la formule de Taylor, on sait que $\zeta (x)$ existe mais on ne sait pas le calculer. |
704 |
|
\item L'erreur est nulle aux points d'interpolation. |
705 |
|
\item L'erreur est petite autour des points d'interpolation |
706 |
< |
\item L'erreur est un polynôme de degré $n$. Si $n$ est grand (plus grand que $3$) le polynôme est de degré important et l'erreur oscille beaucoup. L'erreur devient ainsi importante quand le degré est important. Et comme le degré est lié aux nombre de points d'interpolation cette manière d'interpoler est peu intéressante. |
706 |
> |
\item L'erreur est un polynôme de degré $n+1$. Si $n$ est grand (plus grand que $3$) le polynôme est de degré important et l'erreur oscille beaucoup. L'erreur devient ainsi importante quand le degré est important. Et comme le degré est lié aux nombre de points d'interpolation cette manière d'interpoler est peu intéressante. |
707 |
|
\end{itemize} |
708 |
|
|
709 |
|
|
922 |
|
|
923 |
|
Le résultat montre que le cercle n'est vraiment un cercle parfait. |
924 |
|
\subsubsection{Exemple de modification des splines cubiques pour les courbes fermées} |
925 |
< |
Pour que la courbe précédente parraisse bien lisse au point de départ et au point d'arrivée, il faut utiliser des relations pour fixer le début et la fin de la courbe au lieu de prendre des splines cubiques naturelles. |
925 |
> |
Pour que la courbe précédente paraisse bien lisse au point de départ et au point d'arrivée, il faut utiliser des relations pour fixer le début et la fin de la courbe au lieu de prendre des splines cubiques naturelles. |
926 |
|
Les conditions supplémentaires à imposer sont |
927 |
|
\begin{eqnarray*} |
928 |
|
\left \{ |
943 |
|
\begin{eqnarray*} |
944 |
|
\left \{ |
945 |
|
\begin{array}{l} |
946 |
< |
f[x_0,x_1]-h_0\frac{f''_0}{3}-h_1\frac{f''_1}{6}=f[x_{n-1},x_n]-h_{n-1}\frac{f''_{n-1}}{3}-h_{n-1}\frac{f''_1}{6}+h_{n-1}f''_{n-1}+\frac{h^2_{n-1}}{2}\frac{f''_n-f''_{n-1}}{h_{n-1}}\\ |
946 |
> |
f[x_0,x_1]-h_0\frac{f''_0}{3}-h_0\frac{f''_1}{6}=f[x_{n-1},x_n]-h_{n-1}\frac{f''_{n-1}}{3}-h_{n-1}\frac{f''_{n+1}}{6}+h_{n-1}f''_{n-1}+\frac{h^2_{n-1}}{2}\frac{f''_n-f''_{n-1}}{h_{n-1}}\\ |
947 |
|
f''_0=f''_{n-1}+h_{n-1}\frac{f''_n-f''_{n-1}}{h_{n-1}}\\ |
948 |
|
\end{array} |
949 |
|
\right. |
956 |
|
\end{array} |
957 |
|
\right. |
958 |
|
\end{eqnarray*} |
959 |
< |
En remplaçant la première et la dernière équations par ces équations dans le système, nous obtenons une courbe parfaitement lisse. Dans ce cas le système n'est plus tridiagonal l'algorithme LU fourni en annexe ne fonctionne plus. Il faut utiliser un algorithme de LU plus géneral comme celui vu au chapitre précédent. |
959 |
> |
En remplaçant la première et la dernière équations par ces équations dans le système, nous obtenons une courbe parfaitement lisse. Dans ce cas le système n'est plus tridiagonal l'algorithme LU fourni en annexe ne fonctionne plus. Il faut utiliser un algorithme de LU plus général comme celui vu au chapitre précédent. |
960 |
|
Le résultat donne la courbe suivante : |
961 |
|
\begin{center} |
962 |
|
\begin{center} |
963 |
|
\includegraphics[width=12cm,bb=0 0 929 604]{./splineex2.jpg} |
964 |
|
% splineex2.jpg: 1238x805 pixel, 96dpi, 32.76x21.30 cm, bb=0 0 929 604 |
965 |
|
\end{center} |
966 |
< |
\end{center} |
966 |
> |
\end{center} |
967 |
> |
\begin{encadre}{À retenir} |
968 |
> |
La compréhension de la différence entre l'approximation et l'interpolation est fondamentale. A partir de cette différence, il est nécessaire d'être capable d'approximer ou d'interpoler une série de points de mesure. |
969 |
> |
\end{encadre} |