Une nouvelle r`egle de combinaison repartissant le conflit - Applications en imagerie Sonar et classification de cibles Radar

These last years, there were many studies on the problem of the conflict coming from information combination, especially in evidence theory. We can summarise the solutions for manage the conflict into three different approaches: first, we can try to …

Authors: Arnaud Martin (E3I2), Christophe Osswald (E3I2)

Une nouvelle r`egle de combinaison repartissant le conflit -   Applications en imagerie Sonar et classification de cibles Radar
Une nouv elle règle de om binaison répartissan t le onit - Appliations en imagerie Sonar et lassiation de ibles Radar Arnaud MAR TIN et Christophe OSSW ALD Résumé Le problème du onit in trinsèque à la om binaison d'informations a p oussé à de nom breuses réexions es dernières années, en partiulier dans le adre de la théorie des fon- tions de ro y ane. Nous p ouv ons résumer les solutions app ortées par trois façons de onsidérer le problème : premièremen t, nous p ouv ons  her her à réduire v oire supprimer le onit a v an t la om binaison d'informations, deuxièmemen t nous p ouv ons gérer le onit de façon à e qu'il n'in tervienne pas lors de la om binaison et nous le onsidérons seulemen t lors de la déision nale, et troisièmemen t nous p ouv ons tenir ompte du onit lors de l'étap e de om binaison. Si la première solution paraît la meilleure elle n'est pas toujours réalisable ou susan te. Il p eut être diile de  her her à départager philosophiquemen t les deux dernières stratégies. Cep en- dan t d'un p oin t de vue appliatif seule la déision ompte, et 'est don dans ette optique que nous  her herons à les omparer. Nous prop osons ii une nouv elle règle qui a p our prinip e de répartir le onit prop ortionnellemen t sur les élémen ts pro duisan t e onit. Nous omparons les diéren tes règles à partir de données réelles en imagerie Sonar et en lassiation de ibles Radar. Mots Clés : F ontions de ro y ane, Conit, Règle de Com binaison, Imagerie Sonar, Classiation de ibles Radar Abstrat These last y ears, there w ere man y studies on the problem of the onit oming from information om bination, esp eially in evidene theory . W e an summarise the solutions for manage the onit in to three dieren t approa hes : rst, w e an try to suppress or redue the onit b efore the om bination step, seondly , w e an manage the onit in order to giv e no inuene of the onit in the om bination step, and then tak e in to aoun t the onit in the deision step, thirdly , w e an tak e in to aoun t the onit in the om bination step. The rst approa h is ertainly the b etter, but not alw a ys feasible. It is diult to sa y whi h approa h is the b est b et w een the seond and the third. Ho w ev er, the most imp ortan t is the pro dued results in appliations. W e prop ose here a new om bination rule that distributes the onit prop ortionally on the elemen t giv en this onit. W e ompare these dieren t om bination rules on real data in Sonar imagery and Radar target lassiation. Key W ords : Belief F untions, Conit, Com bination Rule, Sonar Imagery , Ra- dar T arget Classiation 1 1 In tro dution La fusion d'informations a depuis plusieurs années p ermis d'app orter des solutions à la om binaison d'informations issues de div erses soures an d'améliorer la prise de déision par exemple dans un système de lassiation. Le fait de dev oir tenir ompte de plusieurs soures a p oussé le dév elopp emen t de plusieurs théories p ermettan t de mo déliser nemen t les informations issues de es soures en terme de abilité, inertitude, impréision ou enore inomplétude. P armi es théories de l'inertain, la théorie des fontions de ro y ane issue des re her hes de Dempster et Shafer [4, 17 ℄ a onn u es dernières années un dév elopp emen t imp ortan t notammen t dans sa mise en forme p our de nom breuses appliations. La théorie des fontions de ro y ane est fondée sur la manipulation des fontions de masse (ou masse élémen taire de ro y ane). Les fontions de masse son t dénies sur l'ensem ble de toutes les disjontions du adre de disernemen t Θ = { C 1 , . . . , C n } et à v aleurs dans [0 , 1] , où les C i représen ten t les h yp othèses supp osées exhaustiv es et exlusiv es. Cet ensem ble est noté 2 Θ . Généralemen t, il est a jouté une ondition de normalité, donnée par : X X ∈ 2 Θ m j ( X ) = 1 , (1) où m j ( . ) représen te la fontion de masse p our une soure (ou un exp ert) S j , j = 1 , ..., M . Les élémen ts X tels que m ( X ) > 0 son t app elés les élémen ts fo aux. La première diulté est don de dénir es fontions de masse selon le problème. A partir de es fontions de masse, d'autres fontions de ro y ane p euv en t être dénies, telles que les fontions de rédibilité, représen tan t l'in tensité que toutes les soures roien t que les élémen ts fo aux d'une soure armen t la ro y ane en un élémen t. Elles son t données p our tout X ∈ 2 Θ par : b el( X ) = X Y ∈ 2 X ,Y 6 = ∅ m ( Y ) , (2) ou enore les fontions de plausibilité, représen tan t l'in tensité a v e laquelle on ne doute pas en un élémen t, données p our tout X ∈ 2 Θ par : pl( X ) = X Y ∈ 2 Θ ,Y ∩ X 6 = ∅ m ( Y ) = b el(Θ) − b el( X c ) = 1 − m ( ∅ ) − b el( X c ) , (3) où X c est le omplémen taire de X . An de onserv er un maxim um d'informations, il est préférable de rester à un niv eau rédal ( i.e. de manipuler des fontions de ro y ane) p endan t l'étap e de om binaison des informations p our prendre la déision sur les fontions de ro y ane issues de la om binaison. Si la déision prise par le maxim um de rédibilité p eut être trop p essimiste, la déision issue du maxim um de plausibilité est bien souv en t trop optimiste. Le maxim um de la probabilité pignistique, in tro duite par [20℄, reste le ompromis le plus emplo y é. La probabilité pignistique est donnée p our tout X ∈ 2 Θ , a v e X 6 = ∅ par : b etP( X ) = X Y ∈ 2 Θ ,Y 6 = ∅ | X ∩ Y | | Y | m ( Y ) 1 − m ( ∅ ) . (4) 2 Notons que nous obtenons ainsi une probabilité p eu onforme à la notion de fontion de masse. Le maxim um de probabilité pignistique est généralemen t onsidéré uniquemen t sur les h yp o- thèses singletons C i à ause de l'additivité des probabilités. En eet : b etP( C 1 ∪ C 2 ) ≥ b etP( C i ) , i = 1 , 2 . De la même façon la roissane des fontions de rédibilité et de plausibilité p ousse à prendre une déision uniquemen t sur les singletons. Si l'appliation autorise à prendre une déision nale sur une disjontion, il est alors préférable de onsidérer les fontions de masse diretemen t ou de dév elopp er une autre fontion de ro y ane non roissan te adaptée à l'appliation. Dans un as général une fontion de ro y ane non roissan te sur le treillis d'inlusion mène à des résultats rapidemen t on tre in tuitif. Il p eut égalemen t être in téressan t de ne plus onsidérer l'unique h yp othèse la plus vraisem blable, mais un sous-ensem bles des h yp othèses les plus vraisem blables [2℄. Cher her à om biner des informations issues de plusieurs soures qui ne son t pas en aord fait bien souv en t apparaître un onit en tre les soures. Ce onit p eut pro v enir d'un manque d'exhaustivité des soures, ou enore d'un manque de abilité de elles-i [1 ℄. Plusieurs ap- pro  hes son t en visageables p our gérer e onit. Dans le as d'un manque d'exhaustivité des soures, une appro  he lassique est la te hnique du he dging qui onsiste à a jouter un élémen t au adre de disernemen t. Lorsque la abilité des soures p eut être estimée, une appro  he onsiste à aaiblir les masses selon ette abilité. Cep endan t, depuis le problème p osé par Zadeh, que nous reprendrons plus loin, de nom breuses règles de om binaison on t été prop osées an de manager le onit [23, 7 , 19, 10, 21, 12, 11 , 3 , 18, 8℄. Nous prop osons ii une nouv elle règle qui a p our prinip e de répartir le onit prop or- tionnellemen t sur les élémen ts pro duisan t e onit. Dans un premier temps nous rapp elons les diéren tes règles de om binaison, puis nous mon trons en quoi il p eut être in téressan t de onsidérer ette nouv elle règle. Les diéren tes règles prop osées au ours de es dernières années p euv en t être p erforman tes selon les appliations onsidérées. Dans une dernière partie, nous étudions le omp ortemen t de es règles en terme de déision, dans le adre de deux appliations à partir de données réelles : en imagerie Sonar et en reonnaissane de ibles Radar. 2 La om binaison Diéren tes appro  hes de om binaison des fontions de masse on t été prop osées. La règle orthogonale de Dempster-Shafer non normalisée prop osée par Smets [19℄, est dénie p our deux fontions de masse m 1 et m 2 et p our tout A ∈ 2 Θ par : m Conj ( A ) = X B ∩ C = A m 1 ( B ) m 2 ( C ) := ( m 1 ⊕ m 2 )( A ) . (5) Elle est donnée p our M exp erts, p our tout X ∈ 2 Θ par : m Conj ( X ) = X Y 1 ∩ ... ∩ Y M = X M Y j =1 m j ( Y j ) := ( M ⊕ j =1 m j )( A ) , (6) 3 où Y j ∈ 2 Θ est un élémen t fo al de la fontion de masse de l'exp ert j , et m j ( Y j ) la masse asso iée. Cette op érateur est asso iatif et omm utatif. La masse aetée sur l'ensem ble vide s'in ter- prète omme une mesure de onit. Ce onit p eut pro v enir d'un manque d'exhaustivité des soures, ou enore d'un manque de abilité [1 ℄. Dans le premier as le fait d'a v oir une masse non n ulle sur l'ensem ble vide (as d'un monde ouv ert) est onev able. Si l'on souhaite rester en monde fermé, la te hnique du he dging onsiste à répartir le onit sur le nouv el élémen t e , et la règle est alors donnée par : m h ( X ) = m Conj ( X ) , ∀ X 6 = ∅ m h ( e ) = m Conj ( ∅ ) . (7) Si les soures ne son t pas ables, lorsqu'il est p ossible de quan tier la abilité de  haune des soures il est imp ortan t de pro éder à un aaiblissemen t en redénissan t les fontions de masse par :  m ′ j ( X ) = α j m j ( X ) , ∀ X ∈ 2 Θ m ′ j (Θ) = 1 − α j (1 − m j (Θ)) . (8) α j ∈ [0 , 1] est le o eien t d'aaiblissemen t de la soure S j qui est alors une estimation de la abilité de l'exp ert S j , év en tuellemen t omme une fontion de X ∈ 2 Θ . Les exp erts p ouv an t s'exprimer dans 2 Θ (s'ils ne son t ni sûrs ni préis), l'apparition de onit est inévitable. En eet, la règle orthogonale n'est pas idemp oten te, ainsi nous p ouv ons dénir un auto- onit d'ordre n p our  haque soure j par : a n ( j ) = n ⊕ k =1 m j ( ∅ ) , (9) où l'op érateur ⊕ est l'op érateur de om binaison onjontiv e de l'équation ( 6) et nous a v ons la propriété : a n ( j ) ≤ a n +1 ( j ) . (10) Initialemen t, Dempster et Shafer on t prop osé une règle orthogonale normalisée, an de rester en monde fermé. Ainsi la répartition du onit se fait de manière uniforme lors de la om binaison, p our tout X ∈ 2 Θ , X 6 = ∅ par : m DS ( X ) = 1 1 − m Conj ( ∅ ) X Y 1 ∩ ... ∩ Y M = X M Y j =1 m j ( Y j ) = m Conj ( X ) 1 − m Conj ( ∅ ) , (11) où Y j ∈ 2 Θ est la rép onse de l'exp ert j , et m j ( Y j ) la fontion de masse asso iée. Smets ne répartit le onit établi sur l'ensem ble vide lors de la om binaison, qu'à l'étap e de déision en prenan t le maxim um de la probabilité pignistique. Il m ultiplie toutes les masses par 1 1 − m Conj ( ∅ ) ( f. équation (3)). Ce ritère de déision présen te un ompromis en tre une déision p essimiste par le maxim um de rédibilité et une déision optimiste par le maxim um de 4 plausibilité, aussi bien en monde ouv ert qu'en monde fermé. Mais es trois ritères pro duisen t la même déision que l'on normalise lors de l'étap e de om binaison ou bien lors de la déision. La gestion du onit p eut ep endan t être réalisée lors de la om binaison de manière diéren te que dans le as de la règle orthogonale normalisée, omme nous le v errons en rapp elan t l'exemple de Zadeh. Ainsi Y ager [23℄ répartit le onit sur l'ignorane totale ( i.e. sur la masse de Θ ) an de rester en monde fermé et onsidère qu'on ne sait rien en as de onit. Ainsi la règle qu'il prop ose est donnée par : m Y ( X ) = m Conj ( X ) , ∀ X ∈ 2 Θ , X 6 = ∅ , X 6 = Θ m Y (Θ) = m Conj (Θ) + m Conj ( ∅ ) m Y ( ∅ ) = 0 . (12) Dans la plupart des appliations, nous  her hons à prendre une déision sur les singletons et non sur l'ensem ble 2 Θ . C'est e qui est réalisé par la déision du maxim um de probabilité pignistique. Ainsi, le problème soulev é par Zadeh ( f. tableau 1) lors d'un fort onit n'est pas résolu, et la déision sur les singletons reste C . T ab. 1  Exemple de Zadeh ∅ A B A ∪ B C Θ m 1 0 0.9 0 0 0.1 0 m 2 0 0 0.9 0 0.1 0 m DS 0 0 0 0 1 0 m Conj 0.99 0 0 0 0.01 0 m Y 0 0 0 0 0.01 0.99 Dub ois et Prade [7 ℄ on t prop osé une gestion plus ne du onit en répartissan t le onit partiel (par exemple issu uniquemen t de deux soures, l'une annonçan t A et l'autre B ) sur les ignoranes partielles ('est-à-dire A ∪ B ). Cette règle est donnée p our tout X ∈ 2 Θ , X 6 = ∅ par : m DP ( X ) = X Y 1 ∩ ... ∩ Y M = X M Y j =1 m j ( Y j ) + X Y 1 ∪ ... ∪ Y M = X Y 1 ∩ ... ∩ Y M = ∅ M Y j =1 m j ( Y j ) , (13) où Y j ∈ 2 Θ est un élémen t fo al de l'exp ert j , et m j ( Y j ) la fontion de masse asso iée. Si nous reprenons l'exemple de Zadeh, nous obtenons : 5 ∅ A B A ∪ B C A ∪ C B ∪ C Θ m DP 0 0 0 0.99 0.01 0 0 0 b el DP 0 0 0 0.99 0.01 0.01 0.01 1 pl DP 0 0.99 0.99 0.99 0.01 1 1 1 b etP DP 0 0.495 0.495 0.99 0.01 0.505 0.505 1 Ainsi a v e le maxim um de probabilité pignistique ou de la plausibilité nous  hoisissons A ou B sans p ouv oir les distinguer à ause de l'égalité des masses données par les diéren ts exp erts sur A et B . Si es masses son t diéren tes la déision est alors p ossible, omme l'illustre l'exemple  hoisi suiv an t : ∅ A B A ∪ B C A ∪ C B ∪ C Θ m 1 0 0.5421 0.0924 0 0.2953 0 0 0.0702 m 2 0 0.2022 0.0084 0 0.6891 0 0 0.1003 m DP 0 0.1782 0.0106 0.0233 0.2815 0.4333 0.0662 0.007 b el DP 0 0.1782 0.0106 0.2120 0.2815 0.8929 0.3583 1 pl DP 0 0.6417 0.1071 0.7185 0.7880 0.9894 0.8218 1 b etP DP 0 0.4088 0.0577 0.4665 0.5335 0.9423 0.5912 1 Sur et exemple la déision prise sera don la lasse C . De manière générale, la répartition du onit p eut s'érire [10, 12, 13 ℄ : m c ( X ) = m Conj ( X ) + w ( X ) m Conj ( ∅ ) , (14) où X X ∈ 2 Θ w ( X ) = 1 . T outes les règles prééden tes p euv en t être vues omme un as partiulier de elle-i, la diulté étan t le  hoix de p oids w ( X ) . De plus ette règle ne fait pas apparaître la gestion ne des onits partiels telle quelle est onsidérée dans la règle de Dub ois et Prade, même s'il est toujours p ossible d'en tenir ompte selon la dénition des p oids w ( X ) . A notre onnaissane les seules règles répartissan t les onits partiels sur les élémen ts don t la om binaison rée le onit, son t la règle du minC prop osée par [ 3℄ et elles prop osées par Dezert et Smaranda he [18 , 8℄. Ces règles p euv en t égalemen t être vues omme des as partiuliers de la répartition du onit total de l'équation (14 ) a v e des p oids  hoisis de manière adéquate. La règle la plus ab outie de Dezert et Smaranda he est la PCR5 donnée p our 2 exp erts par : m PCR5 ( X ) = m 12 ( X )+ X Y ∈ 2 Θ , X ∩ Y = ∅  m 1 ( X ) 2 m 2 ( Y ) m 1 ( X ) + m 2 ( Y ) + m 2 ( X ) 2 m 1 ( Y ) m 2 ( X ) + m 1 ( Y )  , (15) 6 où m 12 ( . ) est la om binaison orthogonale p our deux exp erts, et le dénominateur est non n ul. L'extension à M exp erts p eut s'érire : m PCR5 ( X ) = m Conj ( X ) + M X i =1 m i ( X ) X M − 1 ∩ k =1 Y σ i ( k ) ∩ X = ∅ ( Y σ i (1) ,...,Y σ i ( M − 1) ) ∈ (2 Θ ) M − 1 M − 1 Y j =1 m σ i ( j ) ( Y σ i ( j ) ) 1 l j >i ! Y Y σ i ( j ) = X m σ i ( j ) ( Y σ i ( j ) ) X Z ∈{ X,Y σ i (1) ,...,Y σ i ( M − 1) } Y Y σ i ( j ) = Z  m σ i ( j ) ( Y σ i ( j ) ) .T ( X = Z,m i ( X ) )  , (16) où σ i prend des v aleurs de 1 à M selon i :  σ i ( j ) = j si j < i, σ i ( j ) = j + 1 si j ≥ i, (17) et :  T ( B , x ) = x si B est vraie , T ( B , x ) = 1 si B est fausse . (18) Si nous reprenons l'exemple de Zadeh, ette règle donne : m PCR5 ( A ) = 0 . 486 , m PCR5 ( B ) = 0 . 486 , m PCR5 ( C ) = 0 . 028 . La masse équiv alen te sur A et B pro vien t des masses initiales des deux exp erts, p our lev er l'indétermination il sut d'une légère diérene en tre les deux exp erts. 3 Une nouv elle règle de om binaison répartissan t le onit La règle prééden te (équation (16)) n'est pas toujours satisfaisan te omme nous le mon trons dans les onsidérations i-dessous. Ainsi nous a v ons prop osé une autre extension à M exp erts (équiv alen te dans le as de deux exp erts) : m PCR MO ( X ) = m Conj ( X ) + M X i =1 m i ( X ) 2 X M − 1 ∩ k =1 Y σ i ( k ) ∩ X = ∅ ( Y σ i (1) ,...,Y σ i ( M − 1) ) ∈ (2 Θ ) M − 1        M − 1 Y j =1 m σ i ( j ) ( Y σ i ( j ) ) m i ( X ) + M − 1 X j =1 m σ i ( j ) ( Y σ i ( j ) )        , (19) où σ est déni par l'équation (17 ). 7 Nous p ouv ons prop oser deux règles enore plus générales données par : m PCR MOf ( X ) = m c ( X )+ M X i =1 m i ( X ) f ( m i ( X )) . X ( Y 1 ,...,Y M − 1 ) ∈ (2 Θ ) M − 1 \{ X M − 1 } ∩ M − 1 k =1 Y k ∩ X = ∅ M − 1 Y j =1 m σ i ( j ) ( Y σ i ( j ) ) f ( m i ( X )) + M − 1 X j =1 f ( m σ i ( j ) ( Y σ i ( j ) )) , (20) a v e les mêmes notations que dans l'équation (19), et f est une fontion roissan te dénie sur ]0 , 1] et à v aleurs dans I R + ∗ . m PCR MOg ( X ) = m c ( X )+ M X i =1 m i ( X ) g ( m i ( X )) . X ( Y 1 ,...,Y M − 1 ) ∈ (2 Θ ) M − 1 \{ X M − 1 } ∩ M − 1 k =1 Y k ∩ X = ∅ M − 1 Y j =1 m σ i ( j ) ( Y σ i ( j ) ) g m i ( X ) + M − 1 X j =1 m σ i ( j ) ( Y σ i ( j ) ) ! , (21) a v e les mêmes notations que dans l'équation (19), et g est une fontion roissan te dénie sur ]0 , 1] et à v aleurs dans I R + ∗ . P ar exemple, f ( x ) = g ( x ) = x α , a v e α ∈ I R + . Sur es deux dernières règles, la diulté du  hoix de la fontion f ou g s'apparen te à elle du  hoix des p oids dans l'équation (14 ). 3.1 Remarques sur ette nouv elle règle de om binaison  Le problème prinipal des règles de redistribution du onit est p eut-être la non-asso iativité. Prenons l'exemple de trois exp erts et de deux lasses donné par : ∅ A B Θ Exp ert 1 0 1 0 0 Exp ert 2 0 0 1 0 Exp ert 3 0 0 1 0 En fusionnan t l'exp ert 1 et 2 puis l'exp ert 3, la règle donne : m 12 ( A ) = 0 . 5 , m 12 ( B ) = 0 . 5 , et m (12)3 ( A ) = 0 . 25 , m (12)3 ( B ) = 0 . 75 . 8 Main tenan t, si nous fusionnons l'exp ert 2 et 3 puis l'exp ert 1, la règle donne : m 23 ( A ) = 0 , m 23 ( B ) = 1 , et m (12)3 ( A ) = 0 . 5 , m (12)3 ( B ) = 0 . 5 . Ainsi le résultat est bien diéren t. De plus a v e l'équation (16) nous obtenons : m (123) ( A ) = 1 / 2 , m (123) ( B ) = 1 / 2 , et a v e la règle PCR MO nous obtenons : m (123) ( A ) = 1 / 3 , m (123) ( B ) = 2 / 3 , qui est un résultat plus in tuitif. L'asso iativité p eut être imp ortan te en fusion dynamique. Cep endan t, lors de la fusion dynamique il est ouran t d'aaiblir les masses an de tenir ompte plus faiblemen t des a vis des exp erts s'étan t exprimé il y a longtemps. La PCR MO le fait naturellemen t, ertes sans a v oir le  hoix des p oids d'aaiblissemen t, mais il est aussi reommandable dans la mesure du p ossible de pro éder à un aaiblissemen t a v an t la om binaison.  Le onit n'est pas seulemen t redistribué sur les singletons. En eet, prenons par exemple trois exp erts : A ∪ B B ∪ C A ∪ C Θ Exp ert 1 0.7 0 0 0.3 Exp ert 2 0 0 0.6 0.4 Exp ert 3 0 0.5 0 0.5 Le onit est ii donné par 0.7 × 0.6 × 0.5=0.21, a v e la règle PCR MO nous obtenons : m (123) ( A ) = 0 . 21 , m (123) ( B ) = 0 . 14 , m (123) ( C ) = 0 . 09 , m (123) ( A ∪ B ) = 0 . 14 + 0 . 21 . 7 18 ≃ 0 . 2 2 2 , m (123) ( B ∪ C ) = 0 . 06 + 0 . 21 . 6 18 = 0 . 13 , m (123) ( A ∪ C ) = 0 . 09 + 0 . 21 . 5 18 ≃ 0 . 1 4 7 , m (123) (Θ) = 0 . 06 . Nous obtenons ainsi la lasse A quelque soit le ritère de déision : 9 ∅ A B A ∪ B C A ∪ C B ∪ C Θ m (123) 0 0.21 0.14 0.2217 0.09 0.1483 0.13 0.06 b el (123) 0 0.21 0.14 0.5717 0.09 0.4483 0.36 1 pl (123) 0 0.64 0.5517 0.91 0.4283 0.86 0.79 1 b etP (123) 0 0.415 0.3358 0.7508 0.2492 0.6642 0.585 1  La PCR MO app orte des déisions qui p euv en t être diéren tes des autres règles de om bi- naison répartissan t le onit. Reprenons l'exemple  hoisi prééden t : ∅ A B A ∪ B C A ∪ C B ∪ C Θ m 1 0 0.5421 0.0924 0 0.2953 0 0 0.0702 m 2 0 0.2022 0.0084 0 0.6891 0 0 0.1003 m PCR MO 0 0.5421 0.0924 0 0.2953 0 0 0.0702 b el PCR MO 0 0.5421 0.0924 0.6345 0.2953 0.8374 0.3877 1 pl PCR MO 0 0.6123 0.1626 0.7047 0.3655 0.9076 0.4579 1 b etP PCR MO 0 0.5655 0.1158 0.6813 0.3187 0.8842 0.4345 1 Sur et exemple la lasse reten ue par la PCR MO sera don la lasse A , on trairemen t à la règle de om binaison de Dub ois et Prade (équation ( 13 ) qui donne la lasse C . En dehors des onsidérations philosophiques sur l'in térêt de rep orter les onits partiels sur les ignoranes partielles puis sur les singletons lors de l'étap e de déision ou l'in térêt de rep orter eux-i diretemen t sur les singletons lors de l'étap e de om binaison, e qui imp orte est la règle donnan t les meilleures p erformanes. L'exemple prééden t mon tre qu'il existe des situations dans lesquelles la déision est diéren te sans p our autan t qu'il soit p ossible de dire quelle règle est la meilleure. P our e faire nous allons étudier le omp ortemen t de es règles dans le adre de deux appliations où la réalité est supp osée onn ue dans la setion 4. 3.2 La om binaison des fontions de ro y ane à v aleurs réelles en répartissan t le onit L'artile réen t de Ph. Smets [22℄ prop ose l'extension des fontions de ro y ane sur les nom bres réels. Cette extension ouvre la p orte à de nom breuses appliations des fontions de ro y ane dans le domaine on tin u telles que l'estimation ou le suivi de ibles. Les fontions de masse à v aleurs réelles son t dénies sur des in terv alles, par exemple de I R. P our les mêmes raisons que dans le domaine disret, les exp erts donnan t une masse sur des in terv alles disjoin ts en tren t en onit. La om binaison de Smets [22℄ p our deux exp erts s'expriman t sur [ a 1 , b 1 ] et sur [ a 2 , b 2 ] , 10 don t l'in tersetion non vide est donnée par [ a 1 , b 1 ] ∩ [ a 2 , b 2 ] = [max( a 1 , a 2 ) , min( b 1 , b 2 )] = [ a, b ] est donnée par : m Conj ([ a, b ]) = Z a x = −∞ Z + ∞ y = b m 1 ([ x, b ]) m 2 ([ a, y ]) dy dx + Z a x = −∞ Z + ∞ y = b m 1 ([ a, y ]) m 2 ([ x, b ]) dy dx + m 1 ([ a, b ]) Z a x = −∞ Z + ∞ y = b m 2 ([ x, y ]) dy dx + m 2 ([ a, b ]) Z a x = −∞ Z + ∞ y = b m 1 ([ x, y ]) dy dx. (22) Ainsi le onit total, étan t la masse attribuée sur l'ensem ble vide, est donné par : m Conj ( ∅ ) = Z + ∞ z = −∞  Z z x = −∞ Z + ∞ y = z m 1 ([ x, z ]) m 2 ([ z , y ]) dy dx + Z z x = −∞ Z + ∞ y = z m 1 ([ z , y ]) m 2 ([ x, z ]) dy dx  dz . (23) Cette règle de om binaison reste non idemp oten te. Ainsi nous p ouv ons redénir l'auto-onit par l'équation (9 ). La PCR MO p eut don a v oir un in térêt, partiulièremen t dans les as de onit imp ortan t. Elle s'érit dans le as de deux exp erts par : m PCR ([ a, b ]) = m Conj ([ a, b ]) + m 1 ([ a,b ]) 2 Z + ∞ x = b Z + ∞ y = x m 2 ([ x, y ]) dy dx m 1 ([ a,b ])+ Z + ∞ x = b Z + ∞ y = x m 2 ([ x, y ]) dy dx + m 2 ([ a,b ]) 2 Z + ∞ x = b Z + ∞ y = x m 1 ([ x, y ]) dy dx m 2 ([ a,b ])+ Z + ∞ x = b Z + ∞ y = x m 1 ([ x, y ]) dy dx + m 1 ([ a,b ]) 2 Z a x = −∞ Z a y = x m 2 ([ x, y ]) dy dx m 1 ([ a,b ])+ Z a x = −∞ Z a y = x m 2 ([ x, y ]) dy dx + m 2 ([ a,b ]) 2 Z a x = −∞ Z a y = x m 1 ([ x, y ]) dy dx m 2 ([ a,b ])+ Z a x = −∞ Z a y = x m 1 ([ x, y ]) dy dx (24) 3.3 L'espae de dénition des fontions de masse Au lieu de onsidérer l'ensem ble de toutes les disjontions de l'espae de disernemen t 2 Θ , il est p ossible de onsidérer l'ensem ble de toutes les disjontions et de toutes les onjontions de l'espae de disernemen t, et ensem ble étan t noté D Θ [6℄. Nous autorisons ainsi des in tersetions non vide en tre deux élémen ts de l'espae de disernemen t. Les masses issues des onits partiels apparaissen t don sur des élémen ts de D Θ et ne son t don plus réparties sur les élémen ts de 2 Θ . 11 Selon les appliations, il est p ossible de ne onsidérer des in tersetions non n ulles seulemen t p our une partie des élémen ts de 2 Θ . Ainsi, les règles de om binaison préédemmen t présen tées p euv en t s'érire failemen t en onsidéran t des lasses d'équiv alene au lieu des égalités. Du fait de la roissane des fontions de déision (rédibilité, plausiblité et probabilité pignistique) la déision ne p eut être prise sur les élémen ts de D Θ orresp ondan t à des in terse- tions. Cep endan t, ertaines appliations, omme en traitemen t des images [ 16 ℄ où deux lasses p euv en t se renon trer sur la zone d'in térêt onsidérée, p euv en t néessiter la manipulation d'un tel espae. Dans le adre des fontions de masses on tin ues, lorsqu'il est p ossible de se on ten ter de la om binaison des in terv alles de manière disrète, l'in tersetion des in terv alles prend tout son sens et là enore il p eut être in téressan t de onsidérer D Θ . 4 Appliations Nous présen tons ii deux appliations dans lesquelles la répartition du onit p eut a v oir un in térêt. La première est liée à la aratérisation des fonds sous-marin à partir d'images Sonar, la seonde onerne la lassiation de ibles aériennes à partir de données Radar. 4.1 Classiation des images Sonar Les images Sonar son t obten ues à partir des mesures temp orelles faites en traînan t à l'arrière d'un bateau un Sonar qui p eut être latéral, fron tal, ou m ultifaiseaux. Chaque signal émis est réé hi sur le fond puis reçu sur l'an tenne du Sonar a v e un déalage et une in tensité v ariable. P our la reonstrution sous forme d'images un grand nom bre de données ph ysiques (géométrie du disp ositif, o ordonnées du bateau, mouv emen ts du Sonar, ...) est pris en ompte, mais es données son t en ta hées des bruits de mesures dues à l'instrumen tation. A ei viennen t s'a jouter des in terférenes dues à des tra jets m ultiples du signal (sur le fond ou la surfae), à des bruits de  hatoiemen t, ou enore à la faune et à la ore. Les images son t don en ta hées d'un grand nom bre d'imp erfetions telles que l'impréision et l'inertitude. Il est alors diile p our un exp ert h umain de aratériser préisémen t et a v e ertitude les fonds marins à partir de telles images. Cep endan t, en milieu sous-marin les apteurs optiques ne p ermetten t pas d'imager rapidemen t et de grandes surfaes les fonds, e qui est néessaire p our de nom breuses appliations telles que la na vigation de rob ots autonomes. Il est don néessaire de prop oser des appro  hes de lassiations automatiques des images Sonar. Nous p ouv ons distinguer 5 t yp es de sédimen ts : les ro  hes, le sable, la v ase, les ailloutis (zone de p etites ro  hes sur du sable ou v ase), et les rides (de sable ou de v ase, aratérisées par une texture partiulière). La réalité n'étan t pas onn ue préisémen t, nous a v ons onstitué une base de données à partir de l'a vis de diéren ts exp erts en leur demandan t d'indiquer la ertitude de l'information fournie (en terme de sûr, mo y ennemen t sûr et pas sûr). La gure 1 présen te le résultat de la segmen tation obten ue par deux exp erts, les ouleurs indiquan t les diéren ts t yp es de sédimen ts p our une ertitude. Nous onstatons ainsi le manque de préision de la segmen tation et l'inertitude des exp erts sur leur lassiation. 12 Fig. 1  A vis de deux exp erts sur la même image. 4.1.1 L'extration de aratéristiques disriminan tes La première étap e de la lassiation est l'extration de paramètres disriminan ts. Les images Sonar étan t texturées, nous allons  her her à aratériser ette texture. La texture d'une image ou d'une partie d'une image est dénie par une ressem blane globale qui p eut être vue omme la rép étition d'un motif plus ou moins grand, p ouv an t omp orter des diérenes lo ales très imp ortan tes. La texture doit don être aratérisée au niv eau de la globalité de la partie onsidérée et non au niv eau du pixel. Ainsi, des imagettes de taille v ariable (par exemple 16 × 16 pixels, ou 32 × 32 pixels) son t onsidérées p our la aratérisation de la texture. L'extration de aratéristiques de texture sur des images p eut être réalisée à partir de diéren tes métho des de déomp osition de l'image telle que les matries de o-o urrene, les déomp ositions en ondelettes, par exemple à partir des ltres de Gab or, ou enore les longueurs de plage [14℄. Une fois l'image déomp osée diéren ts paramètres p euv en t être alulés tels que énergie, en tropie, homogénéité, et. Dans et artile nous onsidérons une déomp osition à partir des matries de o-o urene qui par ailleurs on t donné de b ons résultats [14 ℄. Une matrie de o-o urrene est obten ue par une estimation des probabilités de transition de niv eaux gris en tre deux pixels situés à une distane donnée (ii de un pixel) selon diéren tes diretions d : 0, 45, 90 et 135 degrés. Cette matrie C d est don une matrie arrée a y an t p our taille le nom bre de niv eaux de gris onsidéré n g . A partir de ette déomp osition Harali k [9℄ a prop osé 14 paramètres, nous en a v ons reten u 6 : l'homogénéité, le on traste, l'en tropie, la orrélation, la diretivité, et l'uniformité. L' homo généité est donnée par : n g X i =1 n g X j =1 C 2 d ( i, j ) , (25) qui a une v aleur élev ée p our des images uniformes, ou p ossédan t une texture p ério dique dans le sens de la translation d . Le  ontr aste qui aratérise des probabilités de transition élev ées p our des pixels a y an t une 13 grande diérene de niv eau de gris, est donné par : 1 n g − 1 n g − 1 X k = o k 2 n g X i,j = 1 , | i − j | = k C d ( i, j ) . (26) L' entr opie qui reste faible s'il y a p eu de probabilités de transition élev ées dans la matrie, est estimée par : 1 − n g X i =1 n g X j =1 C d ( i, j ) ln( C d ( i, j )) . (27) La  orr élation en tre les lignes et les olonnes de la matrie est alulée par : 1 σ x σ y      n g X i =1 n g X j =1 ( i − m x )( j − m y ) C d ( i, j )      , (28) où m x , m y , σ x , et σ y son t resp etiv emen t les mo y ennes et éart-t yp es des lignes et de olonnes de la matrie C d . La dir e tivité sera élev ée si la texture présen te une diretion privilégiée dans le sens de la translation d : n g X i =1 C d ( i, i ) . (29) L' uniformité aratérise la prop ortion d'un même niv eau de gris dans l'image : n g X i =1 C 2 d ( i, i ) . (30) Après une étude de es paramètres sur les images Sonar, nous a v ons onstaté que la taille des imagettes a p eu d'inuene sur la séparation des histogrammes selon les lasses. De même la diretion de translation d n'inuene pas ou p eu la séparation des lasses. En eet, seules les rides p euv en t a v oir des diretions privilégiées, ep endan t nous ne  her hons pas à séparer les rides v ertiales des rides obliques, mais simplemen t les rides des autres lasses. Ainsi, nous a v ons  hoisi de onsidérer les six paramètres dérits i-dessus en prenan t la mo y enne arithmétique sur les quatre diretions de d . La gure 2 mon tre la diulté qu'il p eut déouler de la lassiation à partir de tels pa- ramètres p our les images Sonar. En eet, nous onstatons que p our l'en tropie seule la v ase se distingue des autres sédimen ts, alors que p our la orrélation il y a un fort reouvremen t. Cette onfusion du t yp e de sédimen t par un paramètre en traîne un auto-onit de e paramètre, e qui v a générer du onit lors de la om binaison. Ces deux gures résumen t bien le omp ortemen t des quatre autres paramètres. 14 Fig. 2  Corrélation et en tropie. 4.1.2 Mo délisation des fontions de masse Une première appro  he p ossible p our les fontions de masse est elle prop osée par Den÷ux [5, 24℄ :  m p ( C i | x ( t,k ) )( x ) = α ip exp  γ i d 2 ( x, x ( t,k ) )  m p (Θ | x ( t,k ) )( x ) = 1 − α ip exp  γ i d 2 ( x, x ( t,k ) )  (31) où C i est la lasse asso iée à x ( t,k ) ( i.e. d ( t,k ) = C i ), et x ( t,k ) son t les k v eteurs d'appren tissage les plus pro  hes de la v aleur x du paramètre p . α ip est un o eien t d'aaiblissemen t, et g amma i un o eien t de normalisation qui p euv en t être optimisés [24 ℄. Les fontions de masse des paramètres de texture p euv en t aussi être dénies à partir des histogrammes normalisés obten us p our un exp ert. Notons d p i ( x ) le nom bre d'imagettes de la lasse C i don t le paramètre de texture p donne x . La normalisation prop osée est : d p i ( x ) / max x ( P i d p i ( x )) . Ainsi la masse p our un paramètre p et p our une lasse C i est don- née par :            m p ( C i ) = d p i ( x ) max x ( X i d p i ( x )) m p (Θ) = 1 − X i m p ( C i ) . (32) 4.1.3 Résultats Notre base d'images Sonar est omp osée de 42 images fournies par le GESMA (Group e d'Etudes Sous-Marines de l'A tlan tique). Ces images on t été obten ues à partir d'un Sonar latéral Klein 5400 a v e une résolution de 20 à 30 m en azim ut et 3 m en range dans des profondeurs allan t de 15 m à 40 m. Ces images on t été segmen tées par diéren ts exp erts. L'estimation des masses p our  haque paramètre et selon le t yp e de sédimen t est eetuée à partir de l'information 15 donnée par un exp ert, tandis que les tests son t réalisés à partir des informations fournies par un seond exp ert. Nous ne onsidérons ii que des imagettes de taille 32 × 32 pixels ne omp ortan t qu'un seul t yp e de sédimen t an d'obtenir des matries de onfusion lassiques. Nous obtenons ainsi une base de 30294 imagettes p our l'exp ert fournissan t l'appren tissage et de 30745 imagettes p our le seond exp ert. Cinq t yp es de sédimen ts son t onsidérés : ro  he (10%), ailloutis (5%), ride (13%), sable (27%) et v ase (45%). Le tableau 2 présen te les résultats de lassiation issue de la fusion selon les règles de om binaison orthogonale, de Dub ois et Prade et de la PCR MO , des fontions de masse dénies p our  haque paramètre par l'équation (31 ) ou par l'équation (32 ). Il faut prendre garde à es p ouren tages qui p euv en t paraître faibles. L'év aluation de la lassiation des images Sonar est déliate, p our une év aluation plus ne le leteur p eut se rep orter à [15℄. T ab. 2  P ouren tage de b onne lassiation par t yp e de sédimen t. Ro  he Cailloutis Ride Sable V ase Global m Conj 27.0388 18.4974 24.4464 11.3517 20.0870 18.78 équation (31 ) m DP 16.1290 22.8230 20.0174 21.8504 18.4912 19.72 m PCR MO 14.0993 19.1235 16.0226 26.5912 25.4023 22.64 m Conj 23.3323 0 4.7741 79.8283 79.7774 61.55 équation (32 ) m DP 23.3645 0 4.7741 79.8165 79.7774 61.55 m PCR MO 28.6819 0 8.1273 81.0280 77.2168 61.66 Nous onstatons que l'appro  he prop osée par l'équation (31 ) donne de faibles p ouren tages en général mais que les résultats p our les lasses faiblemen t représen tées son t meilleurs que eux donnés par l'équation (32 ) (par exemple p our les ailloutis ou les rides). La omparaison des trois appro  hes de om binaison mon tre que la répartition du onit app orte de meilleurs résultats qui son t signiativ emen t meilleurs même dans le as de l'équation ( 32 ) étan t donné le grand nom bre d'imagettes. Dans une optique d'amélioration des p ouren tages il est p ossible de om biner les masses issues des diéren tes métho des de om binaison ou bien de om biner es lassieurs tel que nous l'a v ons prop osé dans [ 14℄. 4.2 Classiation de ibles Radar 5 Conlusions Nous a v ons présen té une nouv elle règle de om binaison en répartissan t les onits partiels sur les élémen ts le pro duisan t. Les omp ortemen ts et propriétés de ette règle on t été étudiés en omparaison a v e les règles existan tes. Cette règle p eut être appliquée dans de nom breuses 16 situations lorsque le onit est imp ortan t ou non, en disret ou en on tin ue, ou enore dans le adre de la fusion statique ou dynamique. Nous a v ons présen té les résultats de ette nouv elle om binaison dans le adre de deux appliations : en imagerie Sonar et en lassiation de ibles Radar. Les taux de lassiation mon tren t que la répartition du onit app orte de meilleurs résultats que les règles préédemmen t in tro duites dans la littérature. Ces résultats ne garan- tissen t pas que les p erformanes de la nouv elle règle de om binaison seron t les meilleures dans toutes les appliations, mais mon tren t l'in térêt de elle-i dans ertaines appliations. Référenes [1℄ A. Appriou. Dé ision et R e  onnaissan e des formes en signal ,  hapter Disrimination m ultisignal par la théorie de l'évidene, pages 219258. Hermès Siene Publiation, 2002. [2℄ A. Appriou. Appro  he générique de la gestion de l'inertain dans les pro essus de fusion m ultisenseur. T r aitement du Signal , 22 :307319, 2005. [3℄ M. Daniel. Appli ations and A dvan es of DSmT for Information F usion ,  hapter Com- parison b et w een DSm and MinC om bination rules, pages 223241. Amerian Resear h Press Rehob oth, 2004. [4℄ A.P . Dempster. Up er and Lo w er probabilities indued b y a m ultiv alued mapping. A nals of Mathemati al Statistis , 38 :325339, 1967. [5℄ T. Deno eux. A k -Nearest Neigh b or Classiation Rule Based on Dempster-Shafer Theory . IEEE T r ansations on Systems, Man, and Cyb ernetis - Part A : Systems and Humans , 25(5) :804813, Mai 1995. [6℄ J. Dezert. F oundations for a new theory of plausible and parado xial reasoning. Informa- tion & Se urity : A n International Journal , 9, 2002. [7℄ D. Dub ois and H. Prade. Represen tation and om bination of unertain t y with b elief funtions and p ossibilit y measures. Computational Intel ligen e , 4 :244264, 1988. [8℄ M.C. Florea, J. Dezert, P . V alin, F. Smaranda he, and A.L. Jousselme. A daptativ e om- bination rule and prop ortional onit redistribution rule for information fusion. In COG- nitive systems with Inter ative Sensors , P aris, F rane, Mars 2006. [9℄ R. Harali k, K. Shanm ugan, and I. Dinstein. T extural features for image lassiation. IEEE T r ansations on System, Man and Cyb erneti , 3 :610621, 1973. [10℄ T. Inagaki. Indep endene b et w een safet y-on trol p oliy and m ultiple-sensors s hemes via dempster-shafer theory . IEEE T r ansation on r eliability , 40 :182188, 1991. [11℄ A. Josang, M. Daniel, and P . V anno oren b erghe. Strategies for om bining oniting dog- mati b elief. In International Confer en e on Information F usion , Cairns, Australia, Juin 2003. [12℄ E. Lefevre, O. Colot, and P . V anno oren b erghe. Belief funtion om bination and onit managemen t. Information F usion , 3 :149162, 2002. 17 [13℄ E. Lefevre, O. Colot, and P . V anno oren b erghe. Reply to the Commen ts of R. Haenni on the pap er "Belief funtion om bination and onit managemen t". Information F usion , 4 :6365, 2002. [14℄ A. Martin. Comparativ e study of information fusion metho ds for sonar images lassi- ation. In International Confer en e on Information F usion , Philadelphia, USA, Juillet 2005. [15℄ A. Martin. F usion for ev aluation of image lassiation in unertain en vironmen ts. In International Confer en e on Information F usion , Florene, Italia, Juillet 2006. [16℄ A. Martin and C. Ossw ald. Human exp erts fusion for image lassiation. Information & Se urity : A n International Journal, Sp e ial issue on F using Un ertain, Impr e ise and Par adoxist Information (DSmT) , 2006. [17℄ G. Shafer. A mathemati al the ory of eviden e . Prineton Univ ersit y Press, 1976. [18℄ F. Smaranda he and J. Dezert. Information fusion based on new prop ortional onit redistribution rules. In International Confer en e on Information F usion , Philadelphia, USA, Juin 2005. [19℄ Ph. Smets. The Com bination of Evidene in the T ransferable Belief Mo del. IEEE T r an- sations on Pattern A nalysis and Mahine Intel ligen e , 12(5) :447458, 1990. [20℄ Ph. Smets. Construting the pignisti probabilit y funtion in a on text of unertain t y . Un ertainty in A rtiial Intel ligen e , 5 :2939, 1990. [21℄ Ph. Smets. The α -juntions : the omm utativ e and asso iativ e non in terativ e om bination op erators appliable to b elief funtions. In D. Gabba y , R. Kruse, A. Nonnengart, and H.J. Ohlbag, editors, Qualitative and quantitative pr ati al r e asoning , pages 131153. Springer V erlag, Berlin, 1997. [22℄ Ph. Smets. Belief Funtions on real n um b ers. International Journal of Appr oximate R e asoning , 2005. [23℄ R.R. Y ager. On the Dempster-Shafer F ramew ork and New Com binaison Rules. Informa- tions Sien es , 41 :93137, 1987. [24℄ L.M. Zouhal and T. Deno eux. An Evidene-Theori k -NN Rule with P arameter Optimi- zation. IEEE T r ansations on Systems, Man, and Cyb ernetis - Part C : Appli ations and R eviews , 28(2) :263271, Mai 1998. 18

Original Paper

Loading high-quality paper...

Comments & Academic Discussion

Loading comments...

Leave a Comment