Ajuste de retas
(Mínimos quadrados, incertezas, NR, Plotly)
Separador decimal:
lin-lin
|
Cada linha deve conter no mínimo a coordenada x e a coordenada y, separadas por um espaço, tabulação, ponto-e-vírgula ou vírgula (nesse caso o separador decimal deve ser obrigatoriamente o ponto). Opcionalmente, cada linha pode conter o erro em y.
Exemplos:
1.0,1.1 2.0,1.9 |
1.0 1.1 0.1 2.0 1.9 0.1 |
1,0 1,1 0,1 2,0 1,9 0,1 |
1,0;1,1 2,0;1,9 |
1.0;1.1 2.0;1.9 |
Os resultados serão apresentados com seis algarismos significativos. Caso você deseje ver mais algarismos significativos, acione o console (F12).
Os valores de $A$ e $B$ que minimizam este indicador podem ser encontrados calculando-se as derivadas parciais com relação a $A$ e $B$ e igualando-as a zero:
\begin{eqnarray} \frac{\partial \chi^2}{\partial A} & = & \sum_i \frac{(y_i - A - B x_i)}{\sigma_i^2} = 0 \\ \frac{\partial \chi^2}{\partial B} & = & \sum_i \frac{(y_i - A - B x_i) x_i}{\sigma_i^2} = 0 \\ \end{eqnarray}Distribuindo as somatórios e rearranjando os termos ficamos com:
\begin{eqnarray} \sum_i \frac{y_i}{\sigma_i^2} & = & A \sum_i \frac{1}{\sigma_i^2} + B \sum_i x_i \\ \sum_i x_i y_i & = & A \sum_i x_i + B \sum_i x_i^2 \\ \end{eqnarray}Cada uma das somatórias nas expressões acima são simples quantidades (números, tipo 3,18 etc.). Talvez mais uma simplificação na notação deixe isso mais claro. Se:
\begin{eqnarray} S & = & \sum_i \frac{1}{\sigma_i^2} \\ S_x & = & \sum_i \frac{x_i}{\sigma_i^2} \\ S_y & = & \sum_i \frac{y_i}{\sigma_i^2} \\ S_{x^2} & = & \sum_i \frac{x_i^2}{\sigma_i^2} \\ S_{xy} & = & \sum_i \frac{x_i y_i}{\sigma_i^2} \\ \end{eqnarray}Então:
\begin{eqnarray} S_y & = & A S + B S_x \\ S_{xy} & = & A S_x + B S_{x^2} \\ \end{eqnarray}O que temos é um sistema de duas equações com duas incógnitas ($A$ e $B$):
\begin{eqnarray} A & = & \frac{S_y S_{x^2} - S_x S_{xy}}{S S_{x^2} - (S_x)^2 } \\ B & = & \frac{S S_{xy} - S_x S_y}{S S_{x^2} - (S_x)^2 } \\ \end{eqnarray}As incertezas em $A$ e $B$ podem ser associadas à sua variância. A variância no valor de qualquer função é dada por:
\begin{equation} \sigma_f^2 = \sum_i \sigma_i^2 \left( \frac{\partial f}{\partial y_i}\right)^2 \end{equation}Para a reta, as derivadas de $A$ e $B$ com relação a $y_i$ são:
\begin{eqnarray} \frac{\partial A}{\partial y_i} & = & \frac{S_{x^2} - S_x x_i}{\sigma_i^2 (S S_{x^2} - (S_x)^2)} \\ \frac{\partial B}{\partial y_i} & = & \frac{S x_i - S_x}{\sigma_i^2 (S S_{x^2} - (S_x)^2)} \\ \end{eqnarray}Fazendo os somatórios, temos:
\begin{eqnarray} \sigma_A^2 & = & \frac{S_{x^2}}{S S_{x^2} - (S_x)^2} \\ \sigma_B^2 & = & \frac{S}{S S_{x^2} - (S_x)^2} \\ \end{eqnarray}Se as incertezas $\sigma_i$ das medidas não são conhecidas, fazemos $\sigma_i = 1$ em todas as equações, o que faz com que $S = \sum_i 1/\sigma_i^2 = N$ (o número de dados) e multiplicamos os valores encontrados para $\sigma_A$ e $\sigma_B$ por $\sqrt{\chi^2/(N-2)}$, onde $\chi^2$, definido no início dessa seção.
Podemos escrever $x$ como função de $y$ também como uma reta com coeficientes $A'$ e $B'$ dados por:
\begin{eqnarray} y & = & A + Bx \\ x & = & -\frac{A}{B} + \frac{1}{B} y \\ \\ A' & = & -\frac{A}{B} \\ B' & = & \frac{1}{B} \\ \\ x & = & A' + B' y \\ \end{eqnarray}A partir do fato de que $BB' = 1$, o coeficiente de correlação $R = \sqrt{BB'}$, cujo valor, no caso ideal, é 1, pode ser escrito em termos das somatórias:
\begin{equation} R = \frac {NS_{xy} - S_x S_y} {\sqrt{(NS_{x_i^2} - S_x^2)(NS_{y^2} - S_y^2)}} \\ \end{equation}O conteúdo desta página segue em grande medida a linha de raciocínio e a notação utilizadas no capítulo sobre modelagem de dados em um dos livros mais clássicos sobre métodos numéricos, Numerical Recipes: The Art o Scientific Computing, 3rd. Edition (2007), de W. H. Press, S. A. Teukolsky, W. T. Wetterling, B. P. Flannary, da Cambridge University Press, disponível online em http://numerical.recipes.