Question:
Incertitude de mesure du centre de gravité calculé à partir d'une image pixel
Match Maker EE
2018-05-08 04:15:43 UTC
view on stackexchange narkive permalink

L'établissement de la position des corps célestes (étoiles et autres objets) repose sur la technologie d'imagerie. En fonction de la résolution du capteur d'imagerie utilisé, un objet est identifié par un groupe de pixels voisins (lumineux). Ces pixels entourent le centre de gravité du corps céleste détecté.

Dans le traitement d'image, la position centrale d'un objet rond (une sphère) est généralement déterminée en calculant le centre de gravité des pixels entourant l'objet détecté objet. Les poids sont les intensités des pixels à proximité du pixel (central) le plus brillant.

Ma question: comment la variance de cette estimation du centre de gravité est-elle calculée , dans l'astronomie?

Quatre réponses:
#1
+4
Hannes
2018-05-08 22:38:53 UTC
view on stackexchange narkive permalink

Chaque valeur de pixel $ S_i $ sur le détecteur à $ \ vec x_i $ a une erreur $ N_i $: les CCD par exemple ont un bruit de fond $ N_ \ text {bkg} $ de l'électronique de lecture, du bruit thermique et fond de ciel, plus un bruit de photon poissonien $ N_S = \ sqrt {S} $. Dans de nombreux cas, ce bruit suit assez bien une distribution gaussienne. Après avoir soustrait l'arrière-plan, une mesure de position

$$ \ vec x = \ frac {\ sum {S_i \ vec x_i}} {\ sum {S_i}} $$

a l'incertitude

$$ \ operatorname {std} \ vec x = \ left [\ sum_i \ left (\ frac {\ partial x} {\ partial S_i} N_i \ right) ^ 2 \ right] ^ {1/2} = \ frac {\ left [\ sum_i \ left (\ sum_j \ frac {(x_i - x_j) S_j} {\ sum_k S_k} N_i \ right) ^ 2 \ right] ^ {1/2}} {\ sum_k S_k} $$

$$ N_i ^ 2 = N_ \ text {bkg} ^ 2 + N_ {S_i} ^ 2 $$

en utilisant la propagation d'erreur gaussienne. J'espère avoir exécuté les calculs correctement. La façon dont je l'ai écrit est un peu bizarre, mais montre une propriété importante de cette méthode: si vous regardez la somme sur $ j $, vous pouvez voir comment le bruit d'un pixel est essentiellement pondéré par la distance du pixel au résultat du centre de gravité. La même erreur sur une valeur de pixel a plus d'impact si le pixel est plus éloigné du centre de gravité.

De meilleures méthodes tiennent compte de l'incertitude $ N_i $ sur les valeurs de pixel dans la première équation déjà. Vous pouvez le faire en introduisant des poids supplémentaires dans votre centroïde ou en accédant aux modèles d'ajustement, qui est la méthode «habituelle» en astrométrie, d'après ce que j'ai vu.

Cette approche plus complexe de la mesure des positions utilise la fonction d'étalement de points $ P (\ vec x_i - \ vec x_ \ text {obj}) $ de l'instrument dans des conditions d'observation données. Le modèle peut être une approximation, par ex. une fonction de Moffat ou un modèle empirique construit à partir d'étoiles brillantes non confondues dans l'image, par ex. une interpolation spline. Pour les sources ponctuelles, l'ajustement typique des moindres carrés de la position et du flux du modèle sur une image produit facilement des résultats proches de l'optimum statistique d'estimation de paramètre en termes d'incertitude. Avec notre puissance de calcul moderne, le moyen le plus simple d'obtenir l'incertitude pour un modèle donné et le bruit des données est souvent un algorithme d'amorçage.

Bien sûr, les objets étendus nécessitent un peu plus de travail dans le modèle, par exemple des hypothèses sur leur forme, comme vous l'avez indiqué dans votre question.

Une hypothèse sous-jacente de votre dérivation, std x, est que le vrai centre de gravité (tel que mesuré par l'intensité des pixels) est centré dans la (sous) image sur laquelle x_i est additionné. Vous ne savez pas a priori que le pixel le plus brillant est le vrai centre, c'est pourquoi le centre de gravité est calculé à partir des intensités de pixels, en premier lieu.
Si la région de pixels sur laquelle vous additionnez est connectée et convexe (par exemple un carré), le résultat pour $ \ vec x $ est toujours dans cette région, car la première équation n'est pas seulement notre (sorte de définition arbitraire) de position mais aussi la condition pour $ \ vec x $ étant dans la [coque convexe de la région] (https://en.wikipedia.org/wiki/Convex_hull#Convex_hull_of_a_finite_point_set), tant que $ S_i \ geq0 $.
Donc, oui, dans l'approximation linéaire de la propagation d'erreur gaussienne, on suppose que le résultat est raisonnablement proche de la valeur vraie. Cependant, la _vraie valeur_ est le résultat idéal sans bruit et donc toujours à l'intérieur de la région. Si la position de l'objet est en dehors de la région, cet algorithme est tout simplement le mauvais choix. Dans ce cas, l'estimation de $ \ operatorname {std} \ vec {x} $ est certainement fausse. la position vraie prévue mais toujours correcte. le résultat idéal de l'algorithme. (Remarque: le pixel le plus brillant ne bénéficie d'aucun traitement spécial.)
#2
+3
Peter Erwin
2018-05-16 20:17:44 UTC
view on stackexchange narkive permalink

Vous pouvez jeter un œil à cet article de 2006 de Thomas et al. sur les algorithmes de centroïde pour les systèmes d’optique adaptative astronomique (AO), qui comprend une discussion détaillée des estimations d’erreurs pour la position du centroïde en utilisant différents algorithmes. L'approche que vous décrivez dans votre réponse correspond à ce qu'ils appellent un «centre de gravité simple» (section 3); ils se réfèrent à un chapitre de livre de Rousset (1999) pour l'analyse détaillée (qui, je crois, inclut les contributions de Poisson et de bruit de lecture, et n'est donc pas identique à votre résultat).

Plus généralement, le "centre L'approche -of-gravity "semble être utilisée dans les situations où l'on a besoin d'estimations rapides et peu coûteuses en calcul, comme dans les systèmes AO (où un centroïde stellaire doit être déterminé plusieurs fois par seconde), ou comme première estimation grossière pour fournir un point de départ pour une analyse plus sophistiquée. L'analyse post-observation des images astronomiques utilise généralement des approches plus complexes / sophistiquées, selon que la source est une étoile ou d'autres sources ponctuelles par rapport à une source étendue, que vous ayez un modèle précis de la fonction d'étalement des points (qui peut être non circulaire ), déblending des sources voisines, quelles sont les caractéristiques de bruit de vos données, etc.

En pratique, je suppose que la plupart de ces analyses utilisent une sorte d'analyse des moindres carrés non linéaires ou du maximum de vraisemblance qui implique l'ajustement d'un modèle aux données. Les erreurs dans les paramètres du modèle ajusté (y compris la position du centre de gravité) peuvent être dérivées d'hypothèses simplistes sur le paysage d'ajustement (par exemple, Levenberg-Marquardt et d'autres algorithmes de minimisation basés sur le gradient fournissent parfois des matrices de covariance basées sur le traitement des $ \ chi ^ { 2} $ landscape as a parabola), du rééchantillonnage bootstrap, ou des approches Markov Chain Monte Carlo. Cela peut être complété par l'exécution de simulations du processus d'ajustement sur des images artificielles de modèles simples d'étoiles ou de galaxies, pour obtenir des estimations ou des corrections quasi empiriques pour les incertitudes du centroïde (et d'autres paramètres).

#3
+1
Carl Witthoft
2018-05-08 20:31:42 UTC
view on stackexchange narkive permalink

Je ne sais pas à propos de "... généralement déterminé ...", mais dans un travail similaire, j'ai effectué (et vu) un ajustement de spline bidimensionnel est effectué sur les données d'intensité des pixels pour déterminer la résolution du centre de gravité à sous-pixel . Comme vous l'avez noté, nous faisons l'hypothèse raisonnable que l'objet est proche de la sphère et proche de la densité azimutale constante (c'est-à-dire que la densité peut varier avec le rayon mais pas avec l'angle).

L'incertitude (variance) de ce calcul est généralement calculée en appliquant des méthodes statistiques standard aux variances observées dans le signal reçu dans chaque pixel, après prise en compte de la gigue dans la position de la ligne de visée. (et bien sûr en tenant compte du bruit électronique, etc.). Essentiellement, on peut regarder la variance du pic calculé par spline sur N images, ou regarder la variance de tous les pixels, déterminer leur contribution à l'ajustement de la spline et pondérer leurs contributions en conséquence.

#4
+1
Match Maker EE
2018-05-13 04:44:19 UTC
view on stackexchange narkive permalink

Ce problème intéressant est également clairement pertinent en astronomie. En imagerie médicale, la détermination du centre d'un objet entre également en jeu dans plusieurs domaines d'application spéciaux.

J'ai posé la question ici pour savoir quelles formules sont utilisées en astronomie: comment est l'incertitude du 'COG' étant estimé, en présence de bruit de mesure (additif)?

En 2002, nous avons dérivé une formule générale de la variance du centre de gravité estimé, en présence d'additif normalement distribué bruit, associé à chaque valeur de pixel. La référence est la suivante:

H.C. van Assen, M. Egmont-Petersen, J.H.C. Reiber. "Localisation précise des objets dans les images de niveau de gris à l'aide de la mesure du centre de gravité: précision contre précision", IEEE Transactions on Image Processing , Vol. 11, No. 12, pp. 1379-1384, 2002.

Je vais d'abord donner la formule générale, qui suppose seulement que le centre de la fenêtre entourant l'objet est $ (0,0) $. L'objet n'a pas besoin d'être positionné au centre pour que cette formule soit maintenue.

Définissez le bruit de mesure additif associé à chaque pixel comme $ \ epsilon \ sim U (0, \ sigma ^ 2) $, avec $ \ sigma $ étant son écart type.

Définit une (sous) image au carré $ {\ cal W} $ de dimensions $ (d + 1) \ times (d + 1 ) $ pixels, avec coordonnées, $ x = - \ frac {d} {2}, \ frac {d} {2} +1, \ ldots, \ frac {d} {2} $, et $ y = - \ frac {d} {2}, \ frac {d} {2} +1, \ ldots, \ frac {d} {2} $. Soit $ {\ bf w} _ {x, y} $ la véritable intensité de pixel du pixel $ (x, y) $ en l'absence de tout bruit, en $ {\ cal W} $. Définissez l'image signal plus bruit $ W $ comme suit: $ w_ {x, y} = {\ bf w} _ {x, y} + \ epsilon $. Définissez le nombre total de pixels de la (sous) image comme suit: $ N = (d + 1) ^ 2 $, ce qui inclut la 0ème ligne centrale et la 0ème colonne de $ W $.

Les valeurs de $ w_ {x, y} $, avec ($ w_ {x, y} \ geq 0 $), sont celles réellement observées. Près du centre $ (x = 0, y = 0) $ un objet brillant d'intérêt a été localisé.

Le centre de gravité estimé $ cog $ de cet objet est calculé comme suit: $$ \ widehat {cog} (x, y) = \ left (\ dfrac {\ sum_ {x, y} \; x \, w_ {x, y}} {\ sum_ {x, y} \; w_ {x, y}}, \ dfrac {\ sum_ {x, y} \; y \, w_ {x, y}} {\ sum_ {x, y} \; w_ {x, y}} \ right) $$ où $ x $ et $ y $ exécutent des indices tels que chaque pixel de $ W $ entre dans le calcul d'une somme (sigma) exactement une fois . $ cog $ est la mesure qui est influencée par le bruit de mesure.

En utilisant la règle delta deux fois de suite, nous avons dérivé une formule générale approximative pour la variance du rouage, étant donné un niveau de bruit connu.

Définissez $ x2 $ comme suit: $$ x2 = \ sum_ {x} \; \ sum_ {y} \; x ^ 2 $$ et de même $ y2 $ comme: $$ y2 = \ sum_ {x} \; \ sum_ {y} \; y ^ 2 $$ Enfin, le «poids» moyen (intensité moyenne des pixels) est donné par: $$ \ hat {\ mu} _w = N ^ {- 1} \; \ somme_ {x} \; \ sum_ {y} \; w_ {x, y} $$ Soit $ \ widehat {cog} (x) $ le centre de gravité estimé $ x $ -coordonnée et $ \ widehat {cog} (y) $ le centre de gravité estimé $ y $ - coordonnée.

Les estimations de variance dérivées MLE de $ \ widehat {cog} (x) $ et $ \ widehat {cog} (y) $ sont: $$ \ text {var} (\ widehat {cog } (x)) = \ left (\ frac {\ sigma ^ 2 \; x2} {\ left [N \; \ hat {\ mu} _w \; \ widehat {cog} (x) \ right] ^ 2} + \ frac {\ sigma ^ 2} {N \; (\ hat {\ mu} _w) ^ 2} \ right) \; (\ widehat {cog} (x)) ^ 2 $$ et $$ \ text {var} (\ widehat {cog} (y)) = \ left (\ frac {\ sigma ^ 2 \; y2} {\ left [N \; \ hat {\ mu} _w \; \ widehat {cog} (y) \ right] ^ 2} + \ frac {\ sigma ^ 2} {N \; (\ hat {\ mu} _w) ^ 2} \ droite) \; (\ widehat {cog} (y)) ^ 2 $$ Il s'avère que lorsque le vrai rouage est précisément $ (0,0) $, alors les formules limites (simplifiées) pour le rouage- variance hold: $$ \ lim_ {cog (x) \ to 0} \; \; \ lim_ {cog (y) \ à 0} \; \ text {var} (\ widehat {rouage} (x)) = \ frac {\ sigma ^ 2 \; x2} {(N \; \ hat {\ mu} _w) ^ 2} $$ et $$ \ lim_ {cog (x) \ à 0} \; \; \ lim_ {cog (y) \ à 0} \; \ text {var} (\ widehat {rouage} (y)) = \ frac {\ sigma ^ 2 \; y2} {(N \; \ hat {\ mu} _w) ^ 2} $$ comme deuxième terme de variance (additif) entre parenthèses extérieures puis disparaît.

Mes simulations récentes montrent qu'au-dessus de 95 $ \% $ de la variance réelle résulte de notre formule de variance définie, comme présenté ici. Ce résultat de simulation est également valable lorsque le vrai rouage dévie de plus d'une coordonnée par rapport à la position centrale $ (0,0) $.

Graphique de simulation montrant la précision de l'estimation de la variance être ajouté à cette réponse, un des jours à venir.

Bruit multiplicatif

Le bruit de Poisson se produit dans les caméras CCD, son influence peut notamment être observée dans transitions en dégradé de l'intensité de l'image des zones très sombres aux zones très lumineuses. L'amplitude du bruit de Poisson est connue pour être proportionnelle à l'intensité du signal. Dans ce cas, le bruit multiplicatif est présent dans l'image observée: $$ w_ {x, y} = {\ bf w} _ {x, y} \, \, \ cdot \ alpha \, \ cdot \, \ epsilon $$ avec $ \ alpha $ étant une constante de proportionnalité et $ \ epsilon $ le terme de bruit normalement distribué (qui se rapproche bien d'une distribution de Poisson pour $ w_ {i, j} >0 $ modéré).

Effectuer une simple transformation $ \ ln (\ cdot) $, $ lw_ {i, j} = \ ln (w_ {i, j}) $ donne une image transformée $ lw $ perturbée par additif bruit. Par la suite, l'estimateur cog-variance peut être appliqué à l'image $ lw $.

Vos équations semblent supposer que l'écart type $ \ sigma $ du bruit associé à chaque pixel est constant, ce qui ne sera pas vrai; comme le souligne Hannes dans leur réponse, une meilleure description du premier ordre est l'approximation gaussienne des statistiques de Poisson, où $ \ sigma $ est la racine carrée de l'intensité dans un pixel donné.


Ce Q&R a été automatiquement traduit de la langue anglaise.Le contenu original est disponible sur stackexchange, que nous remercions pour la licence cc by-sa 4.0 sous laquelle il est distribué.
Loading...