La précision de mesure d’un instrument de mesure est souvent désignée par le terme « précision de base ».
Cette valeur possède l’unité [%] et indique de quel pourcentage maximum le résultat mesuré par l’instrument peut s’écarter de la valeur physiquement correcte.
Une précision de base de ±0,05% signifie que la valeur mesurée s’écarte au maximum de +0,05% ou -0,05% de la valeur physiquement correcte.
La précision de base indiquée par le fabricant correspond généralement à l’écart le plus faible possible, qui peut encore être augmenté en modifiant des paramètres tels que la fréquence ou la vitesse de mesure.
Par exemple, si la valeur de la résistance doit être mesurée avec une précision de 0,5 Ω, il faut un appareil de mesure avec une résolution minimale de 0,5Ω.
Plus les exigences posées à l’appareil de mesure sont connues au préalable, mieux l’appareil de mesure peut être adapté à l’application.
On obtient alors le calcul suivant : 10 mΩ (0.01 Ω) * 5% = 0.5 mΩ.
Comme 0,2 mΩ de variation est inférieur à 0,5 mΩ, la précision de l’ohmmètre DU5010 serait largement suffisante.
L’écart de 0,1 Ω correspond alors au pourcentage d’écart suivant : (0,1 Ω / 5 Ω) * 100 = 2 %.
Il faut donc un instrument de mesure qui possède une précision de base inférieure à 2 %.
Ainsi, 2 exigences sont claires : Résolution ≤ 0,1 Ω.
Précision de base ≤ 2 %.