APPLICATION DU RECUIT SIMULE A L'INVERSION DE LA TRANSFORMATION DE POISSON-MANDEL

RESUME

Nous présentons dans ce papier la mise en oeuvre de recuit simulé ainsi que l'application de deux types de régularisations pour inverser la transformation de Poisson-Mandel.

INTRODUCTION

La transformation de Poisson-Mandel [1] (TPM) intervient en optique pour les faibles flux lumineux où l'observation s'effectue en comptage de photons. La TPM est la transformation qui, appliquée à la densité de probabilité (DDP) de l'intensité lumineux à fort flux d'un processus aléatoire donne la répartition du nombre de photons détectés. Si l'on note X(I) la DDP à fort flux, la répartition Y(n) du nombre de photons détectés s'obtient par la relation (1) :

                          (1)

qui décrit la TPM. Du point de vue physique, dans de nombreuses applications, on cherche à obtenir X(I) à partir de la mesure de Y(n).
Dans le travail que nous présentons, nous avons appliqué le recuit simulé pour inverser cette équation intégrale. Nous nous sommes proposés de résoudre numériquement l'équation (1) pour un cas particulier oò X(I) est constitué par l'addition de deux structures de speckles non corrélées. Il s'agit d'un cas classique [2].
La résolution de l'équation (1) est un problème inverse mal posé car il ne satisfait pas les conditions de l' unicité, l'existence et la stabilité de la solution vis à vis des incertitudes de mesures dues au bruit [3]. La résolution numérique de cette intégrale passe par une étape de discrétisation qui conduit à :

Y=A.X + b                                                             (2)

oò Y désigne le vecteur des données, A la matrice de transformationt, X le vecteur des paramètres à estimer et b le vecteur contenant les bruits de mesures due aux erreurs d'estimation (bruit statistique). L'équation (1) a une solution (de norme minimale qui est unique) : X*=A+.Y A+ désigne l'inverse généralisée, qui est obtenue comme solution du problème des moindre carrés par minimisation de :

                                 (3)

oò || .||2 désigne la distance quadratique .

REGULARISATION

Le mauvais conditionnement de la matrice A ne permet pas d'obtenir une solution stable du problème. Un principe général pour s'affranchir des problèmes d'instabilités est celui de la régularisation. Régulariser un problème c'est admettre qu'on ne peut pas obtenir la vraie solution à partir des données entachées d'erreurs, et que le système d'équations initial ne permet pas de définir un ensemble de solutions possibles parmis lesquelle une solution acceptable doit être choisie. Ainsi on est conduit à introduire, dans la formulation du problème, des informations sur les propriètés "a priori" de la solution. Cette information se présente sous forme d'une (ou plusieurs) contrainte(s). En ce qui concerne notre problème une contrainte de douceur est physiquement raisonnable. On est donc amené à minimiser une fonctionnelle avec contrainte qui peut s'écrire de façon générale [4],[5]:

             (4)

oò D1(X,X0) est la distance quadratique entre X et X0 et D2(X,X) est une distance (à déterminer) qui a pour rôle de régulariser la solution X en la contraignant à tendre vers la solution "a priori" (infiniment lisse) par le biais de l . Le coefficient de régularisation l traduit l'importance que l'on donne à la contrainte par rapport à la distance D1(X,X0) qui elle assure le lien entre les données et le paramètres à estimer. Deux types de régularisations sont utilisés : A-La première et la plus classique fait partie de classe des régularisation au sens de Tikhonov [6]. Dans ce cas l'information "a priori" de douceur est introduite sous forme d'un operateur différentiel. Ainsi on cherche une solution telle que la norme de sa dérivée soit inferieure à une limite fixée. La fonctionnelle à minimiser s'écrit sous la forme suivante

                 (5)

C représente l'opérateur de différentiation. B-Le principe de régularisation peut Þtre interprété dans un cadre probabiliste. Dans ce contexte la connaissance "a priori" de l'objet est traduite par une loi de probabilité. Djafary [3] montre que le principe de maximum d'entropie permet de déterminer cette dernière. Si cette connaissance "a priori" se limite à une contrainte globale sur l'entropie de l'objet, la loi de probabilité de l'objet s'écrit comme :

                                 (6)

avec S(X) donné par la relation ci-dessous :

                             (7)

La solution X est obtenue en minimisant la fonctionelle ci-dessous :

             (8)


RECUIT SIMULE

Le recuit simulé est une méthode de minimisation d'une fonctionnelle qui a la proprieté de converger vers le minimum glogal. A l'origine cette technique s'inspire de la physique statistique. En effet, en thermodynamique statistique à une température T et à l'équilibre thermique, la probabilité pour qu'une particule se trouve à un état d'énergie E est donnée par la distribution de Boltzmann :
                                     (9)

Lorsque la température approche zéro, la seule probabilité non nulle pour que la particule se trouve à un état d'énergie E correspond à l'état d'énergie minimale du système. Si on considère un système de particules à haute température, cet état de la matière correspond à un état de désordre total (maximum d'entropie). Si on refroidit subitement celui-ci, le solide que l'on obtiendra ne sera pas dans son état d'ordre maximal. En effet, en refroidissant brutalement, on fige les particules dans leurs positions désordonnées et aléatoires (ceci est un état métastable.). Par contre si on abaisse la température de façon lente et si pour chaque température on laisse s'établir l'équilibre thermique, lorsque l'on approche la température nulle le solide que l'on obtiendra sera dans son état d'énergie minimale. Donc il se trouvera dans son état d'ordre maximal. Le recuit simulé est basé sur le mÞme principe, la fonctionnelle à minimiser joue le rîle de l'énergie.
A une température initiale assez élevée, pour qu'aucune solution (configuration) ne soit privilégiée, on part d'une configuration initiale (solution uniforme dans notre cas). On associe à cette configuration gi une valeur d'énergie Ei. A cette mÞme température on choisi aléatoirement un pixel et on lui ajoute (ou retranche) de faÛon aléatoire une quantité D (le grain). L'énergie associée à cette configuration est Ei+1. Deux cas peuvent se présenter:

  1. La différence des énergies Ei+1-Ei est négative, cela correspond bien à une décroissance de l'énergie de l'erreur. On accepte donc cette nouvelle configuration.
  2. La différence de l'énergie DE=Ei+1-Ei est positive ce qui correspond à une augmentation du coût. L'algorithme de recuit simulé permet d'accepter des configurations correspondant à une augmentation de coôt si exp(-DE/T) est plus grand que qu'un nombre aléatoire entre zéro et un (critère de Metropolis [8]).
On répète cette operation de pérturbation des pixels de l'image jusqu'à ce que le coôt atteigne une valeur stationnaire, ce qui correspond à l'équilibre thermique à température constante. Dès lors que cette convergence est atteinte, on abaisse d'une petite quantité la température et on recommence le mÞme procédé. On arrête l'algorithme dès que le coùt atteint sa convergence asymptotique (système physique à température nulle). La mise en oeuvre de l'algorithme va donc consister à contrôler les points suivants :
  1. Choix de la température initiale.
  2. Choix de la taille de la perturbation.
  3. Estimation de l'équilibre approché à une T donnée.
  4. Loi de l'abaissement de la température.
  5. critère d'arrêt.

1-

La température dans l'algorithme de recuit simulé joue un rôle très important. C'est elle qui fixe la probabilité d'accepter ou de refuser les configurations défavorables à la minimisation (critère de Metropolis [8]). Celui-ci conduit à accepter des configurations correspondant à une augmentation de coôt et permet au système de sortir des minima locaux. Le choix de la température initiale se fait de faÛon empirique [9]. Il est basé sur principe de taux d'acceptation des configurations: x=le nombre de configurations augmentant le coôt et acceptées. e=le nombre de configurations augmentant le coôt. Le rapport de x sur e définit le taux d'acceptation. Nous avons opté pour un taux d'acceptation de 80%; ce qui correspond à une température assez élevée, c'est à dire, exp(-DE/T)>>1.

2-

La taille du grain D est un sujet traité assez évasivement dans la littérature concernant le recuit simulé. Nous avons travaillé avec des grains de l'ordre de 1000 ème ou 10000 ème de de l'énergie totale des données expérimentales. Il est évident qu'un grain très petit augmente considérablement le temps de calcul, alors que inversement un grain grand conduit à une solution non optimale [10].

3-

Théoriquement, la convergence du coôt à température constante est asymptotique. Pour atteindre cette convergence approchée il faut itérer un grand nombre de fois pour que l'équilibre s'installe. En pratique ce n'est jamais réalisable, car il faudrait générer un très grand nombres de configurations pour atteindre la stationnarité. Nous nous sommes basés sur deux méthodes différentes:

4-

La loi d'abaissement de la température joue un rîle important dans l'algorithme. Plusieurs méthodes sont proposées dans la littérature. Nous avons utilisé la loi dite géométrique :

                                 (10)

Avec 0.85-Le critère d'arrêt de l'algorithme est basé sur la variation relative du coût. Soit m1 la valeur moyenne du coût sur N paliers de températures, m2 étant la moyenne sur N autres paliers suivants. On considère que la convergence est atteinte quand (m2-m1)/m2 est inférieur à un seuil fixé [10].

Fig 1: Variation du coût en fonction de la température. On constate que le coût converge de façon asypmtotique au delà du 50 ème pas de température.

RESULTATS

Pour le problème qui nous intéresse, la DDP à fort flux correspondant à la somme de deux structures de speckles X(I) est donnée par la relation suivante :

                     (11)

L'équation (1) permet de calculer analytiquement la répartition du nombre de photons Y(n) :

                     (12)

où m correspond au nombre moyen de photons par pixel et b désigne le rapport des intensités des deux structures . Les données Y(n) sont simulées pour 10000 évènements à partir de la relation (12).

Fig 2-Nous présentons sur la même échelle les données exactes à partir de la relation (12) ainsi la DDP à fort flux correspondante (11) déterminée analytiquement suivant la relation (1).Illustration de la résolution de l'équation (1) dans le cas théorique (analytique) oò on montre la solution X(I) en trait plein et la distribution Y(n) sous forme d'histogramme pour un rapport d'intensité de 0.7 et une moyenne de 1.
 

Fig 3 : En pointillé nous présentons la solution reconstruite X(I) pour m=4 et b=0.7 régularisée par un opérateur différentiel (gradient l=0.1) pour des données Y(n) simulées sur 10000 évènements. La solution théorique étant illustrée en trait plein.
 

REFERENCES

Aarts A & Korst J Simulated Annealing and Boltzmann Machine. Jones Wiley & Son (1990).
  1. Mandel L Proc.Phys. Soc. 74,233 (1953).
  2. Goodman J.W Statistical Optics J.Wiley & Son.
  3. Nashed M. Z. Operator Theoriticl and Computational Approaches to Ill Posed Probeml with Applications to Antenna Theory.IEEE Trans ap 29 p 220-231 (1981).
  4. Demoment G. Image Reconstruction and Restoration: Overview of Common Estimation Structures and Problems. IEEE Trans on Accoustics Speech and Signal proccessing vol 37 n° 12 dec(1989).
  5. Titterington D.M. General Structure of the Regularisation Procedure in Image Reconstruction. Astronomy and Astrophysics 144,381-387 (1985).
  6. Tikhonov A.V & Arsenin V.Y Solutions of Ill Problems. V.H Winston and Son Washington (1977).
  7. Mohammed-Djafary A.A. Synthèse de Fourier Multivariables à Maximum d'Entropie.Thèse de Doctorat D'Etat. Univ Paris-sud Orsay (1987).
  8. Metropolis
  9. Kirckpatrick .S & Gelatto.C.O Optimisation by Simulated annealing. Sciences, Vol 220, n°4598 13 May (1983).
  10. :Sultani.F Inversion de la Transformation de Poisson par Recuit simulé. Rapport de DEA. Université de Nice.