2 MEDIÇÃO DE DADOS EXPERIMENTAIS, INCERTEZA E PROPAGAÇÃO DE ERRO

2.1 O erro nos dados experimentais

        Vimos que nenhuma medida de qualquer grandeza física é exata. A acurácia (ou exatidão) e a precisão (número de algarismos significativos do valor medido) de um certo dado medido estarão sempre limitadas tanto pela sofisticação do equipamento utilizado, pela habilidade do sujeito que realiza a medida, pelos princípios físicos básicos tanto do instrumento de medida, quanto do fenômeno que gerou o experimento e o conhecimento que se tem sobre o valor "verdadeiro" da grandeza física.  Note que ter um instrumento preciso, que faça leituras de temperatura como 20,01 oC, não implica em que ele seja mais exato que aquele que mede 19 oC. Mesmo sem números decimais, este pode ser mais preciso que aquele. Em palavras, é necessário que o instrumento seja coerente com o experimento que se realiza.

        Para deixar claros estes termos, considere um anemômetro de fio quente, um instrumento utilizado para medir a velocidade de uma corrente de ar. Uma corrente elétrica flui através do fio, gera um fluxo de calor por efeito Joule, o qual é dissipado para a corrente de ar que se deseja medir. O fio então estabiliza a uma certa temperatura, proporcional à velocidade do ar. Anemômetros de fio são disponíveis para aplicações comerciais, por exemplo, medir a velocidade do ar em um duto de ar condicionado. Um anemômetro deste tipo, cujo fio tem diâmetro de 0,1mm ou 0,2mm, pode medir com acurácia e precisão, em uma estreita faixa de valores reais possíveis, a velocidade média da corrente de ar em dutos de ar condicionado. O sensor do anemômetro é inserido, através de um furo no duto, e mede em várias posições transversais a velocidade do ar. Assim, o instrumento está coerente com o experimento e com os princípios básicos do fenômeno. Entretanto, este mesmo anemômetro não seria capaz de medir as flutuações de velocidade inerentes à turbulência da mesma corrente de ar. Neste caso não há coerência entre fenômeno que se deseja medir e instrumentação: talvez porque a inércia térmica do fio de 0,1 mm é grande demais, e as flutuações de velocidade que se quer medir não afetam a dissipação de calor e, consequentemente, a temperatura do fio. Para tanto, necessitar-se-ía de anemômetro muito mais sofisticado em termos da eletrônica do circuito alimentador, e sensores com fios de 20mm ou mesmo 10 mm de diâmetro.

        Em experimentos temos que nos contentar muitas vezes com um  número limitado, algumas vezes até restrito de medidas. Neste contexto, devemos considerar também a faixa dos valores efetivos (ou reais) possíveis e recorrer à estatística para auxiliar o processamento e entendimento do conjunto de dados medidos. Neste texto usam-se os termos  de mesmo significado, erro, incerteza ou desvio ("bias"), para expressar a variação do dado medido em relação a um valor de referência (o valor "verdadeiro" da grandeza física, no caso do erro). Mesmo com limitações, em alguns casos,  um dado experimental é, via de regra, apenas uma amostra de uma população estatística que pode ser gerada pelo processo de medida com o instrumento.  Se conhecermos as características do processo, podemos estabelecer limites para o erro em uma única leitura, embora não possamos determinar o valor do erro (já que isto implicaria no conhecimento do valor verdadeiro). Isto é, estaremos em condições de afirmar algo a respeito da exatidão (ausência de erro) das leituras.

Conceitos

        Se o processo de medida for repetido inúmeras vezes em condições supostamente idênticas, serão obtidas inúmeras leituras do instrumento que normalmente não serão todas iguais. Isto significa que nunca é possível garantir condições perfeitamente idênticas para cada tentativa. Todavia, estas leituras podem ser usadas para a estimativa numérica do erro associado ao processo de medida. Para tal, os dados acima devem compor uma seqüência aleatória ou, em outras palavras, o processo de medida deve estar em condições de controle estatístico. A este respeito, deve-se notar que o conceito de exatidão de um instrumento envolve na verdade o instrumento, o seu ambiente e o método de utilização, ou seja, o instrumento e as suas várias entradas. Este agregado constitui o processo de medida ao qual se aplica o conceito de exatidão.

  Os fatores que podem afetar a saída de um instrumento, mesmo que marginalmente, são infinitos. Os efeitos das condições ambientais,  pressão atmosférica, temperatura e umidade, além de oscilações da fonte de alimentação do instrumento, são apenas os mais óbvios. Ao definirmos um procedimento de calibração para um instrumento específico, afirmamos que determinadas entradas devem permanecer “constantes” dentro de certos limites. Estas entradas, espera-se, são responsáveis pelas maiores parcelas do erro global do instrumento. As infinitas entradas restantes permanecem fora de controle, esperando-se que o efeito individual de cada uma seja muito pequeno e que, no conjunto, o seu efeito sobre a saída do instrumento seja aleatório. Se este for realmente o caso, o processo de medida está em condições de controle estatístico.

  Admitindo-se que um processo de medida qualquer esteja em condições de controle estatístico satisfatórias, podemos voltar ao problema de calibração estática do instrumento. Neste caso, não há repetição múltipla de um dado valor verdadeiro. O procedimento normalmente empregado é simplesmente variar o valor verdadeiro em incrementos crescentes e decrescentes, cobrindo-se assim uma determinada faixa de interesse da grandeza em ambos os sentidos. Isto significa que um dado valor verdadeiro é repetido no máximo duas vezes se forem utilizados os mesmos valores nas leituras crescentes e decrescentes.

  Como exemplo, a Tabela 1 apresenta os resultados da calibração de um manômetro de Bourdon na faixa de pressão de 0 a 10 kPa.

 

Pressão real

Pressão

indicada

kPa

Aumentando

Diminuindo

0,00

-1,12

-0,69

1,00

0,21

0,42

2,00

1,18

1,65

3,00

2,09

2,48

4,00

3,33

3,62

5,00

4,50

4,71

6,00

5,26

5,87

7,00

6,59

6,89

8,00

7,73

7,92

9,00

8,68

9,10

10,00

9,80

10,20

 

Neste instrumento (como na maioria dos instrumentos, mas não em todos), a relação entrada-saída é idealmente uma linha reta. No momento estamos interessados na decomposição do erro global do processo de medida em duas partes: o desvio (“bias”) e a incerteza. Na equação mostrada na Fig. 1, Pi representa o valor verdadeiro da pressão aplicada na entrada do manômetro de Bourdon (variável independente) e Po representa o valor lido na escala do instrumento, ou seja, o valor de saída (variável dependente). Para obtermos a curva de calibração, isto é, a equação a que nos referimos, duas corridas experimentais foram realizadas, uma para a pressão crescente de zero até 10 kPa (símbolo +, azul) e outra para a pressão decrescente, de 10 kPa até zero (símbolo o, vermelho)..

Figura 1. Curva de aferiçãode um manômetro Bourdon

 

Ao utilizarmos os resultados da calibração, a situação é tal que Po (pressão indicada) é conhecida e gostaríamos de poder afirmar algo a respeito de Pi (pressão verdadeira). Assim, para uma leitura do manômetro de 4,32 kPa sabemos da curva de calibração que o valor verdadeiro é 4,72 ± 0,66 kPa (comentaremos adiante o cálculo do desvio-padrão, por enquanto considere que o desvio padrão para Po é 0,23 kPa e que, como consequência, o desvio-padrão para é 0,22 kPa. A incerteza para Pi será considerada como 3 vezes seu desvio-padrão, 0,66 kPa) conforme mostrado na Fig. 1.  Logo o desvio na leitura é qo- qi = - 0,40 kPa e a incerteza é ± 0,66 kPa. Observamos então que a calibração do instrumento permite a correção do desvio e que o único erro restante é aquele devido à incerteza. O desvio é também chamado de erro sistemático já que para qualquer leitura de 4,32 kPa ele será sempre - 0,40 kPa.  O erro devido à incerteza é chamado de erro aleatório ou não-repetibilidade já que ele é diferente para cada leitura e podemos apenas estimar a sua faixa de variação.  Calibração é, portanto, o processo através do qual o desvio em uma leitura é corrigido e a incerteza é definida numericamente (quantificada).

Outros conceitos, próprios do projeto de um instrumento ou que surgem no processo de calibração de um instrumento, são:

Sensibilidade estática - Quando se obtém uma curva de calibração entrada-saída como aquela da Fig. 1, a inclinação desta curva é chamada de sensibilidade estática do instrumento.  A sensibilidade estática é, então, a função de transferência para uma entrada constante. Na Figura 2 temos um instrumento cuja curva de calibração é uma reta em uma certa faixa inicial de operação, com desvio crescente da linearidade à medida em que a faixa de operação aumenta. Note então que podemos definir a faixa operacional do instrumento como aquela na qual a linearidade estática é constante. Se a curva não for uma linha reta, a sensibilidade variará em função da entrada conforme mostrado na Fig. 2.

 

Figura 2. Curva de aferiçãode um instrumento sensibilidade constante e variável, de acordo com faixa de operação.

A fim de se ter uma definição adequada da sensibilidade de um instrumento, a quantidade de saída deve ser tomada como a quantidade física real e não como aquela representada pelos números da escala (por exemplo, usar a rotação angular do ponteiro do manômetro e não a variação de pressão a ela associada). 

A calibração entrada-saída mencionada acima refere-se à entrada desejada do instrumento. Entretanto, a sua sensibilidade às entradas interferentes e/ou modificadoras também deve ser conhecida.  Como mostrado na Fig. 3, o  deslocamento do zero (“zero drift”) refere-se ao efeito de uma entrada interferente cuja magnitude é independente do valor da entrada desejada. Por outro lado, o  deslocamento da sensibilidade (“sensitivity drift” ou “scale-factor drift”) refere-se ao efeito de uma entrada modificadora cuja magnitude é função da variável de entrada.

Figura 3. Deslocamento de zero (zero drift) e deslocamento de sensibilidade (sensitivity drift).

No caso de um manômetro, por exemplo, ao qual a Figura 3 pode se aplicar, a temperatura ambiente representa ao mesmo tempo uma entrada interferente e modificadora.  Ao causar uma expansão ou contração dos componentes do manômetro, haverá uma variação da leitura da pressão mesma quando esta se mantiver constante (deslocamento do zero).  Deste ponto de vista, a temperatura é uma entrada interferente.  Além disso, a temperatura pode alterar o módulo de elasticidade da mola do manômetro, o que afetará a sua sensibilidade à pressão (deslocamento da sensibilidade).  Neste sentido, a temperatura representa uma entrada modificadora.

Há, por conseguinte, a necessidade de testes de calibração apropriados para se quantificar estes efeitos.  A fim de se quantificar o deslocamento do zero, a pressão é mantida constante (por exemplo, uma pressão relativa nula) enquanto se faz variar a temperatura ambiente.  Para faixas de temperatura não muito amplas, a variação da leitura da pressão em função da temperatura é aproximadamente linear, podendo ser especificada como, digamos, 0,01 rad/°C.  Com relação ao deslocamento da sensibilidade, os testes são feitos mantendo-se a temperatura constante e procedendo-se a uma calibração da pressão de modo a se determinar a sensibilidade do manômetro.  Repetindo-se este procedimento para várias temperaturas, obtém-se o efeito da temperatura sobre a sensibilidade do manômetro à pressão.  Se este efeito for aproximadamente linear, ele pode ser especificado como, por exemplo, 0,0005 (rad/kPa)/°C. Observe então que a sensibilidade de um instrumento é a razão entre o incremento de saída e o incremento de entrada, isto é, sinal de saída/sinal de entrada. Alguns exemplos: transdutor de pressão eletrônico, S = 2,0 x 10-3 mA/Pa; termopar, S = 50 mV / oC; multímetro, S = 50,00 Ohms/VDC. Finalmente, o desejável é que um instrumento tenha alta sensibilidade.

Linearidade - É o desvio máximo entre os pontos experimentais e a curva de calibração representada por uma linha reta. É geralmente expressa como uma combinação da porcentagem da leitura real e uma porcentagem do fundo de escala do instrumento. Tem-se então uma especificação do tipo :

  não-linearidade  ± A % da leitura ou

                     ± B % do fundo de escala, o que for maior. 

A primeira definição está ligada à condição idealizada de uma não-linearidade porcentual constante. A segunda definição leva em consideração a impossibilidade prática de se testar desvios muito pequenos, próximos ao zero da escala do instrumento. A este respeito, deve-se lembrar que os instrumentos de calibração devem ser cerca de dez vezes mais exatos do que o instrumento sendo calibrado. Isto significa que, próximo ao zero deste instrumento, variações absolutas muito pequenas da entrada desejada, que corresponderiam a um valor constante da porcentagem da leitura, não podem ser detectadas. A Fig. 4 mostra as faixas de tolerância associadas à especificação da não-linearidade feita acima.

 

Figura 4. Definições de linearidade

Histerese - Consideremos a situação em que a pressão de entrada do manômetro da Fig. 6 seja lenta e gradualmente aumentada de zero até o fundo de escala e então trazida de volta a zero. Caso não houvesse atrito devido ao deslizamento de partes móveis, o gráfico da relação entrada-saída seria como mostrado na Fig. 5(a). A não coincidência das curvas ascendente e descendente é devida ao atrito interno ou amortecimento histerético das partes sob tensão (no caso do manômetro, principalmente a mola). Isto é, nem toda energia introduzida nas partes sob tensão durante o carregamento pode ser recuperada durante o descarregamento conforme previsto pela segunda lei da termodinâmica.  Para instrumentos cuja faixa de operação se estende de ambos os lados do zero, o comportamento é como mostrado na Fig. 5(b)

Caso fosse possível eliminar completamente o atrito interno, mas não o atrito externo devido ao deslizamento de partes móveis, o comportamento seria como mostrado nas Figs. 5(c) e 5(d), admitindo-se constante a força de atrito. Um comportamento semelhante é obtido no caso de haver folga no mecanismo de um instrumento.

  Em um dado instrumento, a combinação dos vários fatores acima resulta em um efeito de histerese global como mostrado na Fig. 5(e). Deve-se salientar, porém, que quando o componente devido ao atrito interno for grande pode haver efeitos temporais associados ao relaxamento e recuperação das várias partes.  Assim, a leitura obtida imediatamente após a variação da entrada pode mudar após o decorrer de alguns instantes.

Figura 5. Efeitos de histerese

Faixa de Operação - Faixa entre os valores mínimo e máximo da variável de entrada para a qual se projetou o instrumento de medida, veja na Figura X abaixo.

Figura 6. Ilustrando definições com o manômetro Bourdon

 Limiar (“threshold”) - Todo instrumento tem um valor mínimo de entrada, abaixo do qual ele não tem qualquer sinal de saída. Este valor mínimo corresponde ao menor valor mensurável da entrada, sendo denominado limiar do instrumento, ver na Figura 6 do manômetro Bourdon, acima

 Menor Divisão da Escala - Nos instrumentos de indicação analógica, as leituras em geral são obtidas a partir da posição de um elemento indicador (ponteiro, coluna de líquido, etc.) em relação a uma escala.  O parâmetro menor divisão da escala corresponde ao valor nominal da variação da leitura entre dois traços adjacentes da escala, veja na Figura 6. Algumas vezes o limite de erro de um instrumento analógico é fixado como sendo a menor divisão da escala. Mas pode também ser um critério subjetivo, definido pelo experimentalista. Se a menor divisão da escala do instrumento for suficientemente grande, você pode achar que o limite de erro pode ser estabelecido em 1/5 da menor divisão da escala, por exemplo. Se a menor divisão da escala for muito pequena, talvez seja conveniente estabelecer o limite de erro à menor divisão. Via de regra, pode-se estabelecer que bons instrumentos analógicos têm a escala de tal forma que o limite de erro é igual a 1/2 da menor leitura.  Há que ser cuidadoso com os instrumentos digitais: alguns mostram um número de algarismos significativos que não é coerente com o fenômeno físico medido ou com a instrumentação adotada.

 Incremento Digital - Nos instrumentos de indicação digital, o conceito de divisão da escala não é mais pertinente e passa-se a falar em incremento digital.  Este termo refere-se à variação da entrada capaz de causar a variarão do último dígito da leitura (observar que esta variação nem sempre é unitária).

Resolução - Se a entrada do instrumento for aumentada gradualmente a partir de um valor arbitrário qualquer diferente de zero, mais uma vez a saída do instrumento não variará até que um certo valor do incremento seja excedido. Define-se então resolução como a menor variação da entrada que pode ser medida pelo instrumento, veja na Figura 6 acima. 

Largura de banda (bandwidth) - É a banda (ou faixa) de frequência na qual pode operar o instrumento. Um instrumento com largura de banda de 100 Hz mede a variável de interesse com frequência de até 100 Hz.

Faixa dinâmica (dinamic range) - É determinada pelos limites superior e inferior de entrada ou saída que mantêm a medição no nível adequado de precisão.

Legibilidade da Escala - Em um instrumento analógico, a quantificação da saída depende da leitura por um observador humano, subjetiva até certo ponto, da posição de um ponteiro em uma escala. Assim sendo, antes de efetuar quaisquer leituras o observador deve decidir até que ponto ele ou ela consegue quantificar diferentes posições do ponteiro entre duas graduações da escala.  A esta característica do processo de medida, que depende tanto do instrumento quanto do observador, dá-se o nome de legibilidade da escala. 

Repetibilidade - É o desvio máximo do valor da grandeza indicada pelo instrumento, para uma dada entrada constante, em relação ao valor de referência, em um conjunto de medições. Por exemplo, "melhor que +/- 0,2%", " < +/- 0,15%

Calibração e Aferição - Teste no qual valores conhecidos da variável medida são aplicados e os correspondentes valores de saída são registrados.  A função de uma aferição é estabelecer uma escala de saída correta para o sistema de medidas. A calibração exige uma intervenção no instrumento para alterar a saída de acordo com uma aaferição prévia.

Há dois tipos de calibração/aferição: estática, na qual o sinal de entrada é constante, e a dinâmica, na qual a entrada é um sinal que varia com o tempo.

Apresentados os conceitos próprios dos instrumentos e de seu processo de calibração, convém agora retornarmos aos conceitos de precisão e exatidão, mais especificamente no que se refere à sua conceituação idiomática e à prática corrente.

 

Exatidão: Qualidade daquilo que é exato, em conformidade com um padrão.  Medidas exatas implicam na inexistência de erros.   

Precisão: Qualidade do que é preciso, definido claramente.  Ou seja, medidas precisas significam medidas com pouca dispersão.  A precisão está, portanto,

                ligada ao conceito de repetibilidade e estabilidade de um instrumento, isto é, a precisão  e os erros aleatórios são conceitos interligados. Por isso a

                precisão é também chamada de limite de erro do instrumento.

Na prática, o termo precisão é o mais difundido. Entretanto a combinação de exatidão e precisão, isto é, um instrumento onde exatidão e precisão são maximizados,  é o melhor qualificador de um instrumento.

A tabela seguinte apresenta os conceitos recém-discutidos, que se aplicam a instrumentos e ao procedimento de medição:

 

 

1

Exatidão

2

Precisão

3

Coerência (do instrumento)

4

Erro / incerteza / desvio

5

Sensibilidade estática

6

Linearidade

7

Histerese

8

Faixa de operação

9

Limiar (ou threshold)

10

Menor divisão

11

Incremento digital (do display)

12

Resolução

13

Largura de banda (bandwidth)

14

Faixa dinâmica (dynamic range)

15

Legibilidade (da escala ou display)

16

Repetibilidade

17

Aferição/Calibração

 

Assim sendo, na medida em que exatidão (acurácia) e precisão são, em última instância, erro e limite de erro, os instrumentos e os processo de medição podem ser qualificados nestes termos: erro sistemático e erro aleatório.  

O erro sistemático é resultado do uso de um equipamento não-aferido ou da utilização de técnica de medida não-coerente. Os resultados serão, sempre, valores medidos com desvios positivos ou negativos em relação ao valor "verdadeiro". Há um erro sistemático constante, que pode ser eliminado com a aferição do instrumento, mas há, também, um erro sistemático de natureza determinística. O resultado é que a precisão de um instrumento está relacionada com estes dois tipos de erros sistemáticos, apesar da confusão semântica.  Quando for inevitável o seu uso, o termo precisão deve estar associado ao erro global do instrumento, isto é, não somente ao erro aleatório. E erro global é a combinação do erro sistemático com o erro aleatório.

       Alguns outros autores trabalham com o conceito de  erro variável: a superposição do erro aleatório convencional mais a parcela determinística do erro sistemático.

    Não custa chamar a atenção, mais uma vez, para tal o fato de que medir uma grandeza implica, na maioria das vezes, em interferir no processo que a gera. Portanto, o próprio processo de medição altera o valor "verdadeiro" da grandeza. Considere como exemplo, a medição da temperatura do ar em uma sala condicionada. O instrumento a ser usado será um termômetro, que todos conhecem. Para medir a temperatura de ar na sala, o termômetro foi colocado no centro da sala, pendurado no teto. Um intervalo de tempo suficientemente longo foi dado para que entrasse em regime com o ar insuflado pelo sistema de condicionamento. Há pelo menos quatro opções para a definição da temperatura “verdadeira”:

 

     T(1):     a temperatura indicada pelo termômetro (o valor obtido, isto é, que o instrumentista lê na escala do termômetro);

     T(2):     a temperatura do ar condicionado em torno do bulbo do termômetro (o valor disponível);

     T(3):      a temperatura que o ar teria caso o termômetro não tivesse perturbado a distribuição de temperaturas da sala (o valor não- perturbado);

     T(4):      a temperatura que o ar teria na exata posição do bulbo do termômetro caso a instrumentação não tivesse perturbado a

                   distribuição de temperaturas e velocidades do ar insuflado na sala (o valor conceitual).

 

    Dentre estas opções, qual é o valor verdadeiro da temperatura? A lista das possíveis fontes de erro depende do que se define, estabelece como "valor verdadeiro". Os erros do procedimento de medida são então classificados em:

 

    Erros do Sistema de Medida

     Se T(1) for tomada como o valor verdadeiro, somente os erros do sistema de medida são levados em consideração. Aqui estão incluídos todos os erros fixos e variáveis    introduzidos por cada componente do sistema de medida tais como erro no ganho (fixo), flutuações na fonte de tensão (aleatório) e oscilações causadas pelas variações de temperatura no instrumento.

     Estes erros podem ser estimados experimentalmente através de uma calibração do sistema de medida. Os erros fixos serão evidenciados por um desvio do valor médio da saída com relação ao valor constante da entrada enquanto que os erros variáveis serão evidenciados por variações dos valores individuais da saída. Cabe notar que em uma calibração, as medidas devem ser realizadas durante um intervalo de tempo e em condições ambientes representativas do teste real.  Caso contrário, os componentes variáveis mas determinísticos do erro global não serão sentidos.

 

    Erros da Interação Sensor-Meio

     Se a temperatura do ar, T(2), for tomada como o valor verdadeiro, esta deve ser determinada a partir do valor obtido para a temperatura da junção do termopar, T(1).  A interação sensor-meio é normalmente dada por uma equação analítica relacionando o valor obtido ao valor disponível, mas que envolve parâmetros cujos valores estão sujeitos a erros. Por exemplo, o bulbo do termômetro troca calor por condução com sua haste, por radiação com as paredes da sala e por convecção com o ar. Desprezando-se a troca por condução, a interação sensor-meio seria dada pelo seguinte balanço de energia (calor ganho na troca radiativa entre a parede da sala e o termômetro igual ao calor perdido pelo termômetro por convecção para o ar ambiente):

          

 

onde s é a constante de Stephan-Boltzmann, e é a emissividade do sensor, Tt é a temperatura do termômetro - o valor obtido T(1), Tpar a temperatura da parede, Tar é a temperatura do ar na posição do bulbo do termômetro de mercúrio [o valor disponível T(2)] e h é o coeficiente de película ar-bulbo do termômetro.

     Há quatro variáveis nesta equação sujeitas a erros: h, e, Tpar e Tt. Portanto, ao se utilizar esta equação os erros em h, e e Tpar, que não são erros relacionados ao instrumento que mede Tt, também afetarão o valor calculado (que se espera "verdadeiro") para Tar. Esta equação pode então ser vista como um pequeno “programa de tratamento de dados” para se calcular Tar a partir de Tt e a sua incerteza deve ser calculada separadamente.

 

    Erros de Perturbação do Meio

Se o valor não perturbado, T(3), for tomado como valor verdadeiro, todas as perturbações no meio introduzidas pelo sistema de medição devem ser levadas em consideração e a incerteza no seu cálculo será uma incerteza residual na medida realizada. Como regra geral, os sensores usados devem ser tão pequenos quanto possível a fim de se minimizar a perturbação e a estimativa desta deve ser feita por meio de uma equação simples. Ou então a medição deve ser realizada com instrumento não-intrusivo.

     No caso do termômetro que mede a temperatura do ar na sala, a perturbação introduzida depende de vários fatores. A haste do termômetro comporta-se como uma aleta se há um certo gradiente de temperatura do ar condicionado. Este é um efeito típico de perturbação do meio: a presença do termômetro resfriará ou aquecerá (depende do gradiente de temperatura) o ar em torno do bulbo. 

Admitindo-se, por simplicidade, que não haja outras fontes de erro, a indicação do termômetro (valor obtido) pode ser admitida igual `a temperatura do ar na posição do bulbo (valor disponível). A temperatura não perturbada do meio nesta mesma posição pode então ser calculada de

 

   

onde    

     

 

Na equação acima, há seis variáveis sujeitas a erro (h, D, kar, kt, Tar e T2) e a incerteza envolvida no uso desta equação deve ser estimada ao se calcular T3. A abordagem é análoga àquela usada no caso dos erros na interação sensor-meio.

   

Erros Conceituais

     Se a temperatura de mistura, T(4), for tomada como a temperatura verdadeira no exemplo acima, os efeitos das distribuições de temperatura e velocidade na seção transversal devem ser levados em conta por meio da aplicação de correções pertinentes. Mais uma vez, as incertezas nestas correções devem ser estimadas quando do cálculo do valor verdadeiro, T(4).  Como é evidente, o processo de determinação do valor "verdadeiro" da temperatura do ar torna-se cada vez mais complexo. Cabe enfatizar que em muitas situações os erros conceituais são muito maiores que os demais (por exemplo, qual o valor exato de h? E do kt? Etc, etc. Assim, pode-se concluir que, aparentemente, não há limites para as interpretações errôneas que uma pessoa pode dar ao resultado da medição de uma certa grandeza.

 

     Em muitos casos os experimentalistas não consideram a influência do erro variável (mas determinístico) na determinação da incerteza de uma certa medida. O motivo é simples: ele é o mais difícil de ser analisado e processado. No confronto com as diferentes opções para a definição do valor verdadeiro, deve- se perguntar: “Qual será a utilização final desta medida?  Qual é o seu significado físico nas equações que descrevem o fenômeno em estudo?” O bom experimentalista deve estar ciente, no entanto, de que os erros da interação sistema-meio, os erros de perturbação do meio e os erros conceituais são geralmente maiores do que os erros do sistema de medição.  Esta afirmação é válida principalmente para experimentos envolvendo transferência de calor e medidas de temperatura.

    Assim, mesmo que todo erro sistemático seja eliminado, seja a parcela constante, por aferição, ou até mesmo a parcela variável determinística, permanecerão ainda os erros aleatórios, isto é, um segundo tipo de desvio dos valores medidos em relação ao valor de referência, que resultam das entradas interferente e modificadora no ssitema que é o instrumento. O tratamento dos erros aleatórios é tema do ítem seguinte. 

    Concluindo, para se eliminar o erro sistemático as soluções são: (1) a escolha de instrumento coerente com a medição a ser realizada e (2) sua aferição (e eventual calibração) apropriada. O análise de grandeza de erros aleatórios requer procedimento estatístico, que será discutido na sequência.

 

2.2 O tratamento dos erros aleatórios.

Várias abordagens, dependendo da aplicação, podem ser usadas para tratar os erros aleatórios provenientes de uma medição.

2.2.1 A incerteza estimada de um conjunto de dados

 Frequentemente ocorre em experimentos que a incerteza seja maior que o limite de erro do instrumento. Isto se dá, por exemplo, quando a variável que se deseja medir tem um comportamento intrinsecamente variável. Considere novamente a medição da velocidade de ar com um anemômetro de fio quente. Há uma natural flutuação da velocidade provocada pelas singularidades do sistema (as curvas, tês, dampers, etc) e pelo ventilador (digamos +/- 0,5 m/s). O valor da velocidade do ar pode então oscilar no painel do instrumento em amplitude superior ao limite de erro do mesmo (+/- 0,1 m/s). A solução é então estabelecer uma incerteza estimada, a metade da maior amplitude de oscilação do dado experimental, igual a +/- 0,5 m/s, que será mais que duas vezes maior que o limite de erro.

Para se determinar a incerteza de um conjunto de dados experimentais pode-se usar também alguns conceitos estatísticos. Para encontrar o valor médio de uma grandeza experimental e sua incerteza deve-se realizar a medição diversas vezes, calcular a média (o valor médio dos dados) e também o desvio médio e o desvio padrão. A grandeza passa então a ser referida pelo seu valor médio +/- a incerteza ( p. exemplo,  22,6 +/- 0,2 Volts, ou 10,2 +/- 0,38 s). Isto é, a média é um indicador pontual, ela é o ponto central em torno do qual a incerteza  é estabelecida. Em outras palavras, a média está cercada pela incerteza, com seus limites inferior e superior.

A Tabela 1 mostra o procedimento de cálculo do valor médio e das grandezas que podem caracterizar a incerteza de "n" medições do tempo X (no caso, n = 4):

Tabela 1. Valor médio e desvio padrão de n medições de tempo

Tempo,

s

m = (X - <X>),

s

| m |,

s

  ( | m | )2

s2

( | m | )2

s2

10,3

m = 0,1

0,1

0,01

0,01

10,7

m = 0,5

0,5

0,25

0,25

9,9

m = -0,3

0,3

0,09

0,09

9,9

m = -0,3

0,3

0,09

0,09

< X  > = 10,2

< m >= 0,0

<DX> = S | m | / n = 0,3

S( | m | )2 / 4 = 0,11

s2=S( | m | )2 / 3 = 0,15
SD = (0,15)1/2 = +/- 0,38

< X > representa o valor médio de X, S é o somatório do conjunto de n dados medidos. 

 

A média simples, <X>, é a soma dos quatro termos dividida por 4, obtendo-se 10,2. O desvio do dado medido em relação ao valor médio, m, está na coluna 2. O valor médio < m > é nulo, 0,0, e não traz qualquer informação adicional. A terceira coluna é o valor absoluto do desvio; seu valor médio é o que se denomina de desvio médio, <DX> = 0,3.

Na coluna 4 estão os valores dos quadrados dos desvios médios, ( | m | )2, e seu valor médio. A coluna 5 reproduz a coluna quatro: se a soma dos quadrados dos desvios médios (S | m | )2 ) é agora dividida pelo número de amostras menos um (n-1 = 3), obtém-se a variância, s. A raiz quadrada da variância é o desvio padrão, SD. Observe que o desvio padrão é maior que o desvio médio, SD = 0,38 e < DX > = 0,3, mas cada um deles pode ser adotado para caracterizar a variação dos dados experimentais.

 

2.2.2 Média, desvio padrão, distribuição Normal

Surgiram então os primeiros conceitos estatísticos: a média aritmética e o desvio padrão. A média não é eficiente em informar sobre o conjunto dos dados medidos. Pode-se ter dados com valores muito grandes e pequenos no mesmo conjunto, e também muitos dados com valores próximos da média. Observa-se, então, que a média é uma medida de localização dos dados experimentais. Mas, além da localização dos dados, é necessário conhecer como estes dados estão espalhados. A maior parte é de valores menores que a média? Ou de valores maiores que a média? Informar sobre o espalhamento dos dados medidos será é o papel da faixa de valores medidos, da variância, do desvio padrão, das distribuições estatísticas e suas características.

A faixa dos valores medidos  ( a diferença entre o maior e o menor valor medido) é importante, evidentemente, para os valores no topo e na base do conjunto de dados. Por exemplo, pode-se questionar se são representativos frente ao conjunto de dados e ao experimento em questão: 

FVM = Xmáx - Xmín

A variância indica a dispersão do conjunto de dados em relação à média. Ela é a média do quadrado dos desvios: na tabela acima, some os valores e divida por 3, o número de dados da amostra menos 1: 

s2 = ( 0,01 + 0,25 + 0,09 + 0,09) / 3 = 0,15s


A fórmula é então,

s 2 = S ( X - < X >)2 / (N-1)

Uma informação mais detalhada que a variância sobre quão espalhados estão os dados experimentais será obtida, entretanto, com o uso do conceito de desvio padrão. O desvio padrão é a base adequada de interpretação de dados experimentais quando estes apresentam uma distribuição chamada de "Normal" ou Gaussiana.  O desvio padrão é definido como: 

SD = (s2)1/2

A distribuição Normal é representada por uma família de curvas definidas unicamente por dois parâmetros, a média e o desvio padrão do conjunto de dados. Uma curva de distribuição dos dados experimentais é obtida em um gráfico cartesiano tipo (x versus y): no eixo x estão os valores dos dados medidos; no eixo y, estão as probabilidades de ocorrência dos valores dos dados experimentais ou o número de ocorrência do valores conjunto de dados. A figura abaixo mostra uma distribuição Gaussiana. Os valores medidos estão no eixo x; o eixo y indica o número de ocorrências dos valores medidos. O gráfico foi elaborado inicialmente como um gráfico de colunas.

Figura 8. A PDF de uma distribuição Gaussiana

Note que a Gaussiana é uma curva simétrica com a forma de sino. O "eixo de simetria" da curva indica a média, < X > = 82.. Quão "achatada ou esticada" ou "magra ou gorda" é a Gaussiana, os valores do desvio padrão vão estabelecer. Deve-se observar que o simples fato da curva ter a forma de sino não é indicador de distribuição Normal. Entretanto, esta é uma distribuição muito comum na área de engenharia e deve ser considerada. A ordenada y da Gaussiana, para um certo valor X é:

Observe na figura anterior que as linhas tracejadas verticais representam o número de desvios-padrão (SD) que a curva abriga: estão marcados, de dentro para fora, +/-1 SD, +/- 2 SD e +/- 3 SD. E esta é a razão do desvio-padrão ser importante se a distribuição dos dados medidos for Normal. Para +/-1 SD, a curva abriga 68% dos dados experimentais. Para +/-2 SD, a curva abriga 95% e para +/-3 SD, a curva abriga 99,7% dos dados experimentais.

Consequentemente, se a média e o desvio padrão de um conjunto de dados experimentais são conhecidos, pode-se obter informações úteis com cálculos aritméticos simples. Colocando 1, 2 ou 3 SD acima e abaixo da média, <X>, pode-se obter a faixa de valores que inclui, respectivamente, 68%, 95% e 99,7% dos dados experimentais.

 

2.2.3 Outras distribuições estatísticas

A distribuição normal tem destaque na engenharia mecânica pois muitas variáveis típicas dos processos da área apresentam distribuição normal. Entretanto, ela não é a única e outras distribuições devem ser consideradas. Antes de apresentá-las, convém definir com mais rigor as distribuições estatísticas em geral, as quais são, via de regra, definidas em termos da  PDF, ou função densidade de probabilidade. Entretanto, há outras funções de probabilidade que podem ser usadas e convém conhecer algumas.

Para uma função contínua, a função densidade de probabilidade, PDF, indica a probabilidade que a variável tenha um valor específico, p. ex. X = 1,978126387. Desde que para funções contínuas a probabilidade de ocorrência de um certo valor específico é nula, ela é usualmente expressa em termos de uma integral entre dois valores:

INTEGRAL[f(x)dx] = PR[a <= X <= b]  where the integration is
 from a to b

Para uma função discreta, a PDF indica a probabilidade que a variável assuma o valor X:

f(x) = Pr[X=x]

 

Observe que a figura anterior mostra uma PDF Gaussiana contínua (a linha tracejada) obtida a partir de uma distribuição discreta (isto é, não-contínua) dos dados. Observe também que a integral de uma PDF de menos infinito até um valor X = b indica a probabilidade de que a variável tenha valor igual ou inferior a b. Este valor é o que se denomina de percentil de uma distribuição.

Uma função distribuição de probabilidade, também conhecida por função de distribuição cumulativa (CDF), é a probabilidade que a variável assuma valor menor ou igual a X, isto é,

F(x) = Pr[X <= x] = alpha

Se a função é contínua, 

F(x) = INTEGRAL[f(u)du where the integration is from minus 
infinity to x

Se a função é discreta,

F(x) = SUM[f(i)]  where the summation is from i = 0 to x

plot of normal cumulative distribution function

Figura 9. A CDF de uma distribuição Gaussiana

 

A figura acima exemplifica uma CDF Gaussiana. O eixo horizontal é o domínio dos valores que a variável X pode assumir. O eixo vertical indica a probabilidade que cada valor de X tem de ocorrer. No caso ela varia de 0 a 1 (poderia ser de 0 a 100%). Já que essa é uma distribuição normal, observe que 50% dos valores de X são menores que zero. Observe também que à medida em que o eixo horizontal vai "varrendo" os valores possíveis de X, a probabilidade obrigatoriamente aumenta até que 100% dos valores estejam contemplados (no caso, quando X varia de -3 até 3).

A função de pontos percentuais, PPF, é a inversa da CDF. Por esta razão a função de pontos percentuais é muito conhecida como a função de distribuição inversa. Isto é, dada uma certa função de distribuição, calcula-se a probabilidade que variável seja igual ou maior que um dado valor X.

plot of the normal percent point function

Figura 10. A PPF de uma distribuição Gaussiana 

 

A figura acima é a PPF da função mostrada na figura anterior. Note que o eixo horizontal representa agora a probabilidade de ocorrência de valores maiores que X. E o eixo vertical, a faixa de valores que X pode assumir.

Isto posto, vamos conhecer a influência do valor do desvio padrão na forma da distribuição Normal e algumas outras distribuições estatísticas de uso comum na engenharia:  Log-normal e t-Student. A figura abaixo mostra a PDF de uma função Normal cuja média é 10 e o desvio padrão é 2; na sequência está uma distribuição Normal com média 10 e desvio padrão 1. 

                

Figura 11. PDF's de funções normais

As duas figuras seguintes trazem duas funções estatísticas com distribuição Log-Normal:

Figura 12. Funções Log-Normais

 

A função Log_Normal é definida por

f (X) = exp{-1/2 [[ln(X)-m]/s] 2}/( 2 Pi s2 X2 )1/2

 

A figura seguinte mostra a distribição t-Student. O nome deve-se a William Gosset, que escreveu com o pseudônimo Student, em 1908, o trabalho intitulado "The Probable Error of a Mean". Neste trabalho Gosset especulou sobre a importância de se obter o valor médio de uma amostra de uma população de dados indicador do valor médio da população, isto é, de uma "população de valores obtidos sob as mesmas condições de ensaio". Considere um certo aparato experimental que gera valores adquiridos por um sistema de aquisição de dados computadorizado. O experimento opera em regime permanente e produz 1 Gbyte de dados, na forma de valores colocados em uma coluna de uma tabela, fazendo leituras com uma frequência de 10 KHz, digamos. A pergunta é a seguinte: precisamos fazer a média de todo o conjunto de 1 Gbytes de valores para conhecer o valor médio? Não bastaria fazer a média de, digamos, 10 Mbytes de dados, na forma dos valores medidos, para conhecer o valor médio? Quão distante do valor médio "verdadeiro"está este valor médio da amostra de 10 Mbytes?  Quantos bytes de valores medidos são necessários para que se obtenha uma estimativa do valor médio "verdadeiro" com um certo intervalo de confiança, 95%, ou 99,5%? Esta idéia de amostrar uma população de dados para estimar, com menos custo, mais rapidamente, etc, o valor "verdadeiro", com uma certa confiabilidade, gerou o que se denomina atualmente de distribuiçao de médias amostradas. Quando se amostra um experimento as seguintes observações são válidas:

    - à medida em que se aumenta o tamanho da amostra sobre a qual a média é calculada, a distribuição obtida tende progressivamente a uma distribuição normal. Isto se deve ao teorema do limite central, que postula que a distribuição da média tende à normalidade (distribuição normal) à medida em que o número de amostras cresce;

    - a distribuição da médias é centradas na média da população. O razão é evidente: que o valor esperado da amostra que cresce infinitamente é o valor médio da população.

A distribuição t-Student é útil quando se deseja especificar a incerteza do valor médio da amostra de um experimento para um dado intervalo de confiança. Neste caso não se conhece o desvio padrão da população de dados experimentais, sendo o intervalo de confiança a probabilidade de que a média esteja incluída na faixa de valores calculados. 

Por exemplo, seja a seguinte amostra de uma população de dados experimentais: 

107, 119, 99, 114, 120, 104, 88, 114, 124, 116, 101, 121, 152, 100, 125, 114, 95, 117. 

A unidade da medida é o segundo. São n = 18 valores, cuja média (média da amostra) é 112,778 s e o desvio padrão é 14,424. 

Calcula-se então o que se denomina de erro padrão da amostra (ou sem, standard error of the mean):

sem = SD / n1/2 = 14,424 / 181/2 = 3,4

e a média da amostra e sua incerteza, para um intervalo de confiança de 95%, é obtida de

<X> = 112,78 +/- (tn-1,1-0.05/2) 3,4 = 112,78 +/- (2,11)(3,4) = 112,78 +/- 7,17 

onde tn-1,1-a/2 é o (1-a/2) percentil de uma distribuição t-Student com (n-1) graus de liberdade (valor obtido em tabela de percentil de distribuição t-Student), sendo a = (1-intervalo de confiança). 

Quanto maior o grau de liberdade de uma t-Student, mais ela se aproxima de uma distribuição normal (isto é, quanto mais o número de pontos amostrados aproxima-se da população de dados, mais a distribuição t-Student  aproxima-se de uma distribuição normal). Uma t-Student com grau de liberdade baixo tem caudas "gordas".

Um extrato de uma t-Table está abaixo:

n-1

t0,90

t0,95

t0,975

t0,99

5

1,48

2,02

2,57

3,36

6

1,44

1,94

2,45

3,14

7

1,41

1,89

2,36

3,00

8

1,40

1,86

2,31

2,90

9

1,38

1,83

2,26

2,82

10

1,37

1,81

2,23

2,76

11

1,36

1,80

2,20

2,72

12

1,36

1,78

2,18

2,68

13

1,35

1,77

2,16

2,65

14

1,35

1,76

2,14

2,62

15

1,34

1,75

2,13

2,60

16

1,34

1,75

2,12

2,58

17

1,33

1,74

2,11

2,57

18

1,33

1,73

2,10

2,55

 

 

Dentre as distribuições mostradas acima observe que a distribuição Log-Normal não é simétrica. A não-simetria das PDFs pode ser usada para caracterizá-las e são medidas pelos terceiro e quarto momentos da população de dados experimentais em relação à médias. Os momentos de uma população são própria média (o chamado primeiro momento), a variância (o segundo momento), a  "skewness" (o terceiro momento) e pela "kurtosis" (o quarto momento). 

A skewness é definida por:

m3 = S( X - <X>)3 / N

As figura abaixo mostra a duas distribuições, a primeira com skewness positiva, a segunda com skewness negativa. Veja que a skewness quantifica a distorção da distribuição em relação à média (evidentemente, se a distribuição for simétrica, a skewness será nula).

           

 

A kurtosis é uma medida do tamanho da "cauda" da distribuição, sendo calculada por

m4 = S( X - <X>)4 / N

A distribuição normal padrão isto é, aquela que tem média igual a zero, <X> = 0, e desvio padrão igual a SD =1, tem  kurtosis m4 3. Quando uma distribuição tem kurtosis superior a 3 diz-se que há "excesso de kurtosis". A figura abaixo mostra distribuições com diferentes kurtosis, a da direita, com pico mais acentuado e cauda mais ampla e "gorda", tem kurtosis, m4direita > m4esquerda , maior que a da esquerda.

            

 

2.2.4 A decisão final sobre a incerteza a adotar

Até agora temos quatro conceitos  para especificar a incerteza do conjunto dos dados medidos:  a menor leitura do instrumento, o desvio médio, a incerteza estimada e o desvio padrão. Qual deles adotar no seu experimento? 1) escolha o maior entre os três; 2) Arredonde a incerteza para 1 ou dois algarítimos significativos; 3) Arredonde a resposta de forma que tenha o mesmo número de algarismos que a incerteza.

 

2.2.5. Erros relativo e absoluto

Se o dado medido é X, o erro absoluto é DX. O erro relativo, ou incerteza fracionária, é ( DX/X ). O erro percentual ó o erro relativo multiplicado por 100. Cada um deles pode ser utilizado. O que acontece é que certas áreas de trabalho tradicionalmente optaram por expressar o erro de uma forma particular. Em eletrônica, por exemplo, é comum dar o erro percentual. Na mecânica, por outro lado, as dimensões de peças são apresentadas com erros absolutos. Assim, escreva seus o resultado final do processamento de seus dados como o valor médio mais ou menos o erro absoluto ou relativo. Escolha a unidade apropriada (m, cm, ou mm, qual seja) de forma a deixar claro a acurácia da medida. Uma boa possibilidade é adotar a notação científica. E lembre-se de que, se usar o desvio padrão como o erro escolhido, não tem sentido em escrevê-lo com mais que dois algarismos significativos, já que é um conceito estatístico.

 

2.4 Propagação de  Erro em Operações de Cálculo

Viu-se anteriormente que qualquer dado experimental, mesmo quando livre de erros sistemáticos, terá erros aleatórios, isto é, um desvio padrão diferente de zero. A questão apresentada aquí trata de discutir como estes erros se propagam através de cálculos. Em suma, a propagação de erro é uma forma de combinar dois ou mais erros aleatórios para obter um terceiro erro. Considere que você necessita calcular a quantidade de movimento de um carrinho de controle remoto. Se quantidade de movimento é o produto da velocidade com a massa, uma forma é medir vária vezes comprimento, tempo e massa (comprimento e o tempo que o carro leva para percorrê-lo, além de pesá-lo). A quantidade de movimento é QM = M ( L/ t ), e cada um dos dados tem uma incerteza associada, o que resultará em uma incerteza para QM. Como se propagam a incertezas de M, L e t na equação acima até chegar a QM? É o tema deste ítem, observando que todas as equações apresentadas assumem que os erros aleatórios dos dados primários são de natureza Gaussiana. 

Vamos então para um novo exemplo, o conhecido cálculo da aceleração da gravidade através da medida do comprimento e do período de um pêndulo. Sabe-se que o período de oscilação de um pêndulo relaciona-se com seu comprimento por

Assim,

isto é, para determinar g é necessário medir L e T. Por sua vez, cada uma destas medidas é suscetível a erros, e como se combinam estes erros no cálculo de g? Vamos olhar um caso mais geral, onde a variável dependente u é uma função qualquer das duas variáveis independentes x e y, isto é, u = f(x,y). Seja então 

ui = <u> + dui,    xi = <x> + dxi,    yi = <y> + dyi

onde o delta, d, é usado para indicar um resíduo. Então,

<u> + du = f( <x> + dx, <y> + dy) 

que, se expandido em uma série de Taylor, resulta em

Desde que f(<x>,<y>) = <u>, ele pode ser eliminado de ambos os lados da equação, o que produz

Esta equação pode ser estendida para incluir quantas variáveis se desejar. Vamos voltar agora ao exemplo do pêndulo:

Observe que o sinal de um resíduo individual não é conhecido, de forma que toma-se sempre o pior caso, isto é, os resíduos se superpõem com o mesmo sinal. Levando isto em consideração e rearranjando a equação, 

Dividindo ambos os termos por g,

Esta, então, pode ser uma regra para combinar erros individuais na composição de um erro total de uma expressão. Note que o termo que na expressão aparece elevado ao quadrado, isto é, o período T, na composição do erro total é o de maior peso, pois o valor da potência o multiplica. Esta regra, entretanto, tem uma restrição fundamental, pois considera sempre o pior caso, em outras palavras, soma os erros individuais na composição do erro total. E a intuição nos diz que dificilmente todos os erros se comporão aditivamente. Mas como chegar a uma combinação de erros individuais mais realística? É o que veremos na sequência.

Se n medidas de x e y forem feitas para o cálculo de u, a variância da amostra é dada por

Substituindo o valor de du,

Os resíduos de x e y, no caso, são positivos. Consequentemente, também será positivo o produto dos resíduos, dxdy. Quando n é muito grande, entretanto, haverá tanto produtos de resíduos com valores positivos quanto negativos, fazendo com que o termo na expressão acima se anule. Pode-se então escrever:

ou

Este resultado, como o anterior, pode ser estendido para contemplar qualquer número de variáveis, isto é, o erro resultante de uma expressão contendo j variáveis, x1, x2, x3, ..., xj, é

A equação anterior é chamada de Teorema de Superposição dos Erros.

Podemos voltar e aplicar agora o Teorema da Superposição dos Erros ao problema do pêndulo:

Dividindo tudo por   g2 e rearranjando,

Compare a expressão que deduzimos anteriormente para o erro relativo em g e fica claro que esta acima produz um erro menor, é menos conservadora que a anterior. Ficamos então com as duas opções para o cálculo da incerteza na propagação de erro em operações matemáticas, as quais serão aplicadas a várias operações matemáticas na sequência do texto.

Sejam então x e y duas variáveis cujos valores médios são <x> e <y> e seja z o resultado da operação matemática de de x e y. Deseja-se obter o valor médio e a incerteza absoluta de z, <z> e Dz, sabendo-se que Dx e Dy são as incertezas absolutas de x e y.

 

2.3.1 Adição e subtração, z=x+y e z=x-y

   z=<z>+Dz=(<x>+<y>)+(Dx+Dy)

Veja que a perspectiva mais otimista foi considerada, isto é, os valores positivos das incertezas se somando para dar o mais alto valor de Dz. O mesmo vale para a subtração. Assim, a regra geral para a soma e a subtração é de que as incertezas absolutas sejam somadas. Caso a incerteza seja dada como o desvio padrão, SD, some em quadratura (isto é, a raiz quadrada do quadrado do valor) as incertezas de x e y.

 Dz = (Dx + Dy) para erros absolutos, e

Dz = [(Dx)2 + (Dy)2]1/2  se o erro for dado como o SD

 

Exemplo: (1,50 +/- 0,03) + (3,35 +/- 0,08) = 4,85 +/- 0,09 (SD)

 

2.3.2 Multiplicação e divisão, z=xy e z=x/y

   z = <z> + Dz = (<x> <y>)+ x Dy + y Dx + Dx Dy = (<x> <y>)+ x Dy + y D

Há um termo de segunda ordem que pode ser desprezado. Se o erro for dado em termos percentuais,

 Dz = (Dx / x) + (Dy / y)

ou ainda, 

Dz = [(Dx / x)2 + (Dy / y)2]1/2  se o erro for dado como o SD

 

Exemplo: (2,50 +/- 0,03) * (6,75 +/- 0,08) = 9,25 +/- 0,02 (SD)

A mesma regra se aplica à divisão e à combinação de multiplicação e divisão em uma expressão matemática mais complexa.

 

2.3.3 Potência,  z=xn 

   Dz =  n Dx  se o erro é absoluto,

 Dz = n (Dx / x)  se o erro é relativo, e

Dz = [(n Dx / x)2 ]1/2 se o erro for dado como o SD.

 

Exemplo: (2,50 +/- 0,03) ^ 2 = 6,25 +/- 0,06 (valor absoluto)

 

2.3.4 Produto de potências, z = xm xn

  Dz = m Dx  + n Dy  se o erro é absoluto,

 Dz = [m (Dx / x) + n (Dy / y)] se o erro é relativo, e

Dz = [(m Dx / x)2 + (n Dy / y)2  ]1/2 se o erro for dado como o SD.

 

Exemplo: (2,50 +/- 0,03) ^ 2 + (4,0 +/- 0,2) ^ 3 = 70,25 +/- 0,15  (SD)

 

2.3.5 Funções simples, como z = sen(x)

A abordagem mais simples deve ser adotada, encontrando o valor máximo ou mínimo que a função pode ter e fazendo a diferença do valor médio:

  Dz =  Dsen(x)  = | sen (x + Dx) - sen(x) |  se o erro é absoluto,

 Dz = | sen (x + Dx) - sen(x)] / sen(x) | se o erro é relativo

 

Exemplo: sen(30 +/- 3) = 0,5 +/- = | sen(27)-sen(30) | / sen(30) = 0,5 +/- 9,2%

                cos(60 +/- 3) = 0,5 +/-  | cos(63)-cos(60) | / cos(60)  = 0,5 +/- 9,2%

 

2.3.6 Funções complexas, como z = f(x, y, w, ...)

O método geral é usar a derivada total da função. Assim, se z é uma função x, y, w, ..., as quais são variáveis independentes, a derivada total de z é

e os erros

se o erro é absoluto,

se o erro for dado como o SD.  

 

Exemplo: z = x cos(t), para x = 2,0 +/- 0,2 cm e t = 530 +/- 20 = 0,925 +/- 0,0035 rad.

O valor médio de z é z = 2 cm cos(530) = 1,204. A incerteza em termos do desvio padrão:  Ds = {[cos(t) Dx]2+[- x sen(t)Dt]2}1/2 = 0,120 cm. Assim, z = 1,204 +/- 0,120 cm.

 

2.5 Arredondamento Numérico

Na realização de cálculos numéricos com dados experimentais deparamo-nos frequentemente com questões acerca de quantos algarismos significativos usar e do arredondamento do valor de várias grandezas. Estes procedimentos serão agora revistos.

Um algarismo significativo é qualquer um dos dígitos 1, 2, 3, 4, 5, 6, 7, 8, 9. O número zero é também um algarismo significativo exceto quando for usado para precisar número de casas decimais ou para ocupar o lugar de dígitos desconhecidos ou desprezados. Assim, no número 0,000532 os algarismos significativos são 5, 3 e 2, enquanto que no número 2076 todos os algarismos são significativos, incluindo o zero. Em um número como 2300 os zeros podem ser significativos ou não. A fim de evitar dúvidas, este número é reescrito como 2,3x103 se houver apenas dois algarismos significativos, 2,30x103 se houver três e 2,300x103 se houver quatro.

 Ao realizar cálculos as quantidades podem ter diferentes números de algarismos significativos.  Por exemplo, na multiplicação 4,62 x 0,317856 o primeiro número possui três algarismos significativos enquanto que o segundo possui seis .  Pode-se mostrar que o produto de ambos terá apenas três algarismos significativos.  Portanto, o número de seis algarismos deve ser arredondado antes da multiplicação para se evitar um trabalho desnecessário.  Uma regra de arredondamento largamente usada é a seguinte:

A fim de se arredondar um número para n algarismos significativos, despreze todos os algarismos à direita da n-ésima casa.  Se a porção desprezada for menor do que a metade da unidade na n-ésima casa, mantenha o n-ésimo dígito inalterado.  Se a porção desprezada for maior do que a metade da unidade na n-ésima casa, acrescente 1 ao n-ésimo dígito.  Se a porção desprezada for exatamente a metade da unidade na n-ésima casa, mantenha o n-ésimo dígito inalterado caso seja um número par ou acrescente 1 caso seja um número ímpar.

  A seguir são dadas as regras de arredondamento para as várias operações matemáticas.

 Adição : Nos números mais exatos, mantenha uma casa decimal a mais do que o correspondente ao número menos exato.  ( Os números mais exatos são aqueles com o maior número de algarismos significativos).  Arredonde então o resultado da soma para o mesmo número de casas decimais que o número menos exato.  Por exemplo,

 

+  2,635

 

+  2,64

 

    0,9

 

    0,9

 

    1,52

¾¾®

    1,52

 

    0,7345

 

    0,73

 

 

 

    5,79

®¾ 5,8

 

 Subtração : Arredonde o número mais exato para o mesmo número de casas decimais que o número menos exato.  Dê o resultado com o mesmo número de casas decimais que o número menos exato. Por exemplo,

 

 -  7,6345

¾¾¾®

-   7,634

 

    0,031

 

    0,031

 

 

 

    7,603  

® 7,603

  

Multiplicação e Divisão : Arredonde os números mais exatos para um algarismo significativo a mais do que o número menos exato.  Arredonde então o resultado para o mesmo número de algarismos significativos que o número menos exato.  Por exemplo,

  (1,2 x 6,335 x 0,0072) / 3,14159  --»  (1,2 x 6,34 x 0,0072) / 3,14 = 0,0174  --»  0,017

 Raiz n-ésima: Mantenha o mesmo número de significativos que no radicando.

 Logab : Mantenha o mesmo número de significativos que na base

 

2.6 Exemplos

 2.6.1 Escolha de um Método de Medida

Um resistor tem um valor nominal de 10W ± 1%.  Ele é submetido a uma diferença de voltagem e a potência dissipada pode ser calculada de duas maneiras diferentes : (1) de P = E2/R; (2) de P=EI, sendo E a diferença de potencial, R a resistência e I a corrente.  Deseja-se saber qual é o método mais preciso para a determinação da potência sabendo-se que

E = 100 V ± 1%     (em ambos os casos)                

I = 10 A ± 1%

 Solução : Pelo primeiro método, somente a medida da voltagem é necessária, enquanto que o segundo método requer a medida da voltagem e da corrente.  O método mais preciso é aquele cuja incerteza em P for menor.

 Assim, seja o cálculo da incerteza no primeiro método.  A equação para P pode ser rescrita

 P = E2/R = E2 R-1

 e a incerteza é

 

DP/P = [ (2 x 0,01) 2 + (-1 x 0,01) 2 ] 1/2 = 0,02236 ou 2,236 %

 A potência no segundo método é

P = EI    

 e a incerteza,

= [ (1 x 0,01) 2 + (1 x 0,01) 2 ] 1/2 = 0,01414 ou 1,414 %

 Observamos então que o segundo método, mesmo envolvendo a realização de duas medidas experimentais, permite chegar-se a uma incerteza bastante menor no resultado para a potência. Todavia, se a incerteza no valor do resistor fosse mais baixa, este quadro poderia se inverter.

 

2.6.2  Seleção de Instrumentos

A medida de potência do exemplo anterior deverá ser realizada agora medindo-se a voltagem e a corrente com um voltímetro.  O voltímetro tem uma resistência interna Rm e o valor do resistor, R, é conhecido apenas de maneira aproximada.  Calcule o valor da potência dissipada em R e a incerteza a ele associada nas seguintes condições:

R = 100W          (conhecido apenas aproximadamente)

Rm = 1000W ± 5 %

I = 5A ± 1 %

E = 500V ± 1 %

Solução: Um balanço de corrente no circuito fornece

I1 + I2 = I,  ou  (E/R) + (E/Rm) =I

Assim,

I1 = I - I2 = I - (E/Rm)

A potência no resistor 

P = E I1 = E I - (E2/Rm)

Portanto, o valor nominal da potência dissipada é

 P = 500 x 5 - 5002/1000  = 2250W

A fim de calcularmos a incerteza em P, sabemos que P=f(E, I, Rm) e temos as seguintes derivadas:

 

 e a incerteza na potência é então

 

DP = [400 + 625 + 156,25]1/2 = 34,4 Watts       ou

DP/P =  34,4/2250 = 0,0153 Watts ou 1,53% 

Observe que:

  1.   A incerteza no resultado para a potência é causada, em ordem decrescente de importância, pelos seguintes fatores: incerteza na medida da corrente, incerteza na medida da voltagem e incerteza no valor da resistência interna do voltímetro.

  2.   Se o multímetro tivesse uma impedância baixa comparada à resistência R, a incerteza em Rm seria o fator dominante na incerteza em P.  Por outro lado, para um multímetro com uma impedância muita alta, a contribuição desta para a incerteza em P seria muito pequena mesmo que a incerteza em Rm fosse alta.  Concluímos então que, ao selecionarmos um multímetro para uma dada medida, devemos fazê-lo de modo que a razão Rm/R seja a mais alta possível.

 

2.6.3: Medida da potência em um eixo rotativo

Em um experimento a medida da potência média transmitida por um eixo rotativo é realizada por um dinamômetro de balança.  A fórmula para o cálculo da potência é

P = 2(pR/t) F L           [Watts

onde

R º rotações do eixo durante o intervalo de tempo t

F º força na extremidade da alavanca de torque [N]

L º comprimento da alavanca de torque [m]

t  º tempo de amostragem [s]

 

O contador de rotação é ligado ou desligado por meio de um interruptor e estes instantes são registrados por um cronômetro.  Admitindo-se que o contador não deixe de marcar nenhuma revolução, o máximo erro em R é ±1, dada a natureza digital deste dispositivo. Há, entretanto, um erro associado à determinação do tempo t, já que um sincronismo perfeito entre o disparo e a parada do cronômetro e o contador de revoluções não é possível.  Seja então a incerteza na medida de t de ± 0,50s.

A escala usada para a medida do comprimento L pode ser estatisticamente calibrada ou calibrada apenas segundo um procedimento relativamente grosseiro.  Suponhamos que encontremo-nos nesta última situação e que decidimos então que a incerteza em L seja ± 0,13cm.

  Com relação à medida da força F, suponhamos que o dinamômetro tenha sido calibrado com pesos mortos de modo que a incerteza na medida seja ± 0,178N.  Mais uma vez, porém, a situação não é tão simples quanto parece.  Ao ser realmente usado, o dinamômetro estará sujeito à vibração, o que pode reduzir o efeito do atrito e aumentar a precisão.  Por outro lado, o ponteiro na escala não permanecerá completamente imóvel e o observador deverá decidir acerca de uma leitura média, o que introduzirá um certo erro.  Estes efeitos são claramente de difícil quantificação e devemos então tomar uma decisão baseada parcialmente em experiência e julgamento.  Admitindo-se um tanto arbitrariamente que estes efeitos se cancelem mutuamente, tomamos ± 0,178N como a incerteza na medida da força.

Para um dado teste, temos:

R = 1202 ± 1,0 revolução

F = 45,0 ± 0,18 N

L = 39,7 ± 0,13 cm

t  = 60,0 ± 0,50 seg

onde todas as incertezas foram expressas com dois algarismos significativos.

 Seja agora o cálculo das derivadas parciais:

  expressas com três algarismos significativos.

  Utilizando a Eq. (2.4), calculamos wR e o expressamos com dois algarismos significativos.

 

    D=[ (50,0x0,18)2 + (1,87x1,0) 2 + (5,66x103x0,0013) 2 + (-37,5x0,50) 2]1/2

                                                            

DR = [ 81,0 + 3,5 + 54,1 + 351,6 ]1/2 = 22 W

   

Calculemos agora o valor nominal da potência:

 

  que arrendondamos para P = 2249 W. O resultado do experimento é então expresso como

  P = 2249 ± 22W  ou  2249 ± 1,0 %

  Deve-se notar que o erro na medida do tempo é responsável pela maior parcela do erro total, seguido pelo erro na medida da força, do comprimento e das revoluções.  A parcela correspondente a esta última é, percebe-se, desprezível.

  Finalmente, suponhamos que seja necessário medir-se a potência com 0,5 % de precisão.  Desejamos então determinar a precisão necessária nas medidas primárias.  Temos

  DR = 0,005 x 2249 = 11,2 W   ou   DR = 11 W   e

 

Se, por exemplo, o melhor instrumento disponível para a medida da força tiver uma precisão de apenas 0,2 N ao invés de 0,11 N, isto não significa que necessariamente a medida da potência não poderá ser feita com 0,5 % de precisão.  Significa sim que uma ou mais das outras grandezas __ R, L e t  __  deve ser medida com mais precisão do que o estipulado acima de maneira a compensar a imprecisão excessiva na medida de F.