Ajuste de retas
(Mínimos quadrados, erros, NR, Plotly)

lin-lin
lin-log
log-log


$y = A + B\,x $
$ A $ =         $ B $ =


Entre com um ponto em cada linha. Cada linha deve conter no mínimo a coordenada x e a coordenada y. Opcionalmente, cada linha pode conter o erro em y. Se os valores forem separados por vírgulas, o separador decimal deve ser obrigatoriamente o ponto. Se os valores forem separados por ponto-e-vírgula, o separador decimal pode ser o ponto ou a vírgula.

Exemplos:

1.0,1.1
2.0,1.9
1,0;1,1
2,0;1,9
1.0;1.1;0.1
2.0;1.9;0.1

Os resultados serão apresentados com um número de algarismos significativos uma unidade maior do que o maior o número de algarismos significativos da grandeza com o menor número de algarismos significativos. Caso você deseje ver mais algarismos significativos, acione o console (F12).


\begin{equation} \chi^2 = \sum_i \left( \frac{y_i - y^\text{mod}_i}{\sigma_i} \right)^2 \end{equation} \begin{equation} y^\text{mod}_i = A + B x_i \end{equation} \begin{equation} \chi^2 = \sum_i \left( \frac{y_i - A - B x_i}{\sigma_i} \right)^2 \end{equation}

Os valores de $A$ e $B$ que minimizam este indicador podem ser encontrados calculando-se as derivadas parciais com relação a $A$ e $B$ e igualando-as a zero:

\begin{eqnarray} \frac{\partial \chi^2}{\partial A} & = & \sum_i \frac{(y_i - A - B x_i)}{\sigma_i^2} = 0 \\ \frac{\partial \chi^2}{\partial B} & = & \sum_i \frac{(y_i - A - B x_i) x_i}{\sigma_i^2} = 0 \\ \end{eqnarray}

Distribuindo as somatórios e rearranjando os termos ficamos com:

\begin{eqnarray} \sum_i \frac{y_i}{\sigma_i^2} & = & A \sum_i \frac{1}{\sigma_i^2} + B \sum_i x_i \\ \sum_i x_i y_i & = & A \sum_i x_i + B \sum_i x_i^2 \\ \end{eqnarray}

Cada uma das somatórias nas expressões acima são simples quantidades (números, tipo 3,18 etc.). Talvez mais uma simplificação na notação deixe isso mais claro. Se:

\begin{eqnarray} S & = & \sum_i \frac{1}{\sigma_i^2} \\ S_x & = & \sum_i \frac{x_i}{\sigma_i^2} \\ S_y & = & \sum_i \frac{y_i}{\sigma_i^2} \\ S_{x^2} & = & \sum_i \frac{x_i^2}{\sigma_i^2} \\ S_{xy} & = & \sum_i \frac{x_i y_i}{\sigma_i^2} \\ \end{eqnarray}

Então:

\begin{eqnarray} S_y & = & A S + B S_x \\ S_{xy} & = & A S_x + B S_{x^2} \\ \end{eqnarray}

O que temos é um sistema de duas equações com duas incógnitas ($A$ e $B$):

\begin{eqnarray} A & = & \frac{S_y S_{x^2} - S_x S_{xy}}{S S_{x^2} - (S_x)^2 } \\ B & = & \frac{S S_{xy} - S_x S_y}{S S_{x^2} - (S_x)^2 } \\ \end{eqnarray}

As incertezas em $A$ e $B$ podem ser associadas à sua variância. A variância no valor de qualquer função é dada por:

\begin{equation} \sigma_f^2 = \sum_i \sigma_i^2 \left( \frac{\partial f}{\partial y_i}\right)^2 \end{equation}

Para a reta, as derivadas de $A$ e $B$ com relação a $y_i$ são:

\begin{eqnarray} \frac{\partial A}{\partial y_i} & = & \frac{S_{x^2} - S_x x_i}{\sigma_i^2 (S S_{x^2} - (S_x)^2)} \\ \frac{\partial B}{\partial y_i} & = & \frac{S x_i - S_x}{\sigma_i^2 (S S_{x^2} - (S_x)^2)} \\ \end{eqnarray}

Fazendo os somatórios, temos:

\begin{eqnarray} \sigma_A^2 & = & \frac{S_{x^2}}{S S_{x^2} - (S_x)^2} \\ \sigma_B^2 & = & \frac{S}{S S_{x^2} - (S_x)^2} \\ \end{eqnarray}

Se as incertezas $\sigma_i$ das medidas não são conhecidas, fazemos $\sigma_i = 1$ em todas as equações, o que faz com que $S = \sum_i 1/\sigma_i^2 = N$ (o número de dados) e multiplicamos os valores encontrados para $\sigma_A$ e $\sigma_B$ por $\sqrt{\chi^2/(N-2)}$, onde $\chi^2$, definido no início dessa seção.

Podemos escrever $x$ como função de $y$ também como uma reta com coeficientes $A'$ e $B'$ dados por:

\begin{eqnarray} y & = & A + Bx \\ x & = & -\frac{A}{B} + \frac{1}{B} y \\ \\ A' & = & -\frac{A}{B} \\ B' & = & \frac{1}{B} \\ \\ x & = & A' + B' y \\ \end{eqnarray}

A partir do fato de que $BB' = 1$, o coeficiente de correlação $R = \sqrt{BB'}$, cujo valor, no caso ideal, é 1, pode ser escrito em termos das somatórias:

\begin{equation} R = \frac {NS_{xy} - S_x S_y} {\sqrt{(NS_{x_i^2} - S_x^2)(NS_{y^2} - S_y^2)}} \\ \end{equation}

O conteúdo desta página segue em grande medida a linha de raciocínio e a notação utilizadas no capítulo sobre modelagem de dados em um dos livros mais clássicos sobre métodos numéricos, Numerical Recipes: The Art o Scientific Computing, 3rd. Edition (2007), de W. H. Press, S. A. Teukolsky, W. T. Wetterling, B. P. Flannary, da Cambridge University Press, disponível online em http://numerical.recipes.