close

Вход

Забыли?

вход по аккаунту

?

en fr Contribution to the study of empirical copula processes Contribution à l'étude du processus empirique de copule

код для вставки
Contribution Я l?жtude du processus empirique de copule
Tarek Zari
To cite this version:
Tarek Zari. Contribution Я l?жtude du processus empirique de copule. Mathжmatiques [math]. Universitж Pierre et Marie Curie - Paris VI, 2010. Franуais. <tel-00485020>
HAL Id: tel-00485020
https://tel.archives-ouvertes.fr/tel-00485020
Submitted on 19 May 2010
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L?archive ouverte pluridisciplinaire HAL, est
destinжe au dжpЗt et Я la diffusion de documents
scientifiques de niveau recherche, publiжs ou non,
жmanant des жtablissements d?enseignement et de
recherche franуais ou жtrangers, des laboratoires
publics ou privжs.
THE?SE DE DOCTORAT DE l?UNIVERSITE? PARIS 6
Spe?cialite? : Mathe?matiques
Option : Statistique
pre?sente?e par
Tarek ZARI
pour obtenir le grade de
DOCTEUR DE l?UNIVERSITE PARIS 6
Sujet de la the?se :
Contribution a? l?e?tude du processus empirique de
copule
Soutenue le 03 mai 2010 devant le jury compose? de :
Directeur de the?se
Paul DEHEUVELS
Universite? Paris 6
Rapporteurs
Bruno REMILLARD
HEC-Montre?al
Jean-David FERMANIAN Crest- Ensae
Examinateurs
Ge?rard BIAU
Universite? Paris 6
Michel BRONIATOWSKI
Universite? Paris 6
Arthur CHARPENTIER
Universite? de Rennes 1
2
Remerciements
Au terme de cette e?tape de mon travail, je voudrais remercier toutes les personnes
qui m?ont permis de le mener a? bien.
Je souhaite d?abord exprimer ma profonde gratitude a? mon directeur de the?se, le
Professeur Paul Deheuvels pour son soutien constant tout au long de la pre?paration
de ce travail. Je veux lui te?moigner toute mon estime parce qu?il sait cre?er une
ambiance propice a? la recherche scientifique : ses encouragements aux initiatives
personnelles, ses orientations, ses conseils, son respect profond d?une grande liberte?
de pense?e et d?action. Enfin je tiens a? le remercier pour m?avoir inculque? pendant
ces anne?es certaines valeurs comme la rigueur intellectuelle, le souci du de?tail ou le
respect du travail d?autrui. Qu?il trouve ici l?expression de ma reconnaissance.
Je remercie e?galement les Professeurs Jean-David Fermanian et Bruno Re?millard
d?avoir accepte? le ro?le de rapporteurs de cette the?se malgre? un emploi du temps que
je devine charge?. Je leur suis tre?s reconnaissant du temps qu?ils ont consacre? a?
l?expertise de ce travail.
Je suis honore? que les professeurs Ge?rard Biau, Michel Broniatowski et Arthur
Charpentier, si dynamiques scientifiquement, aient accepte? de faire partie du jury.
Je leur adresse mes since?res remerciements pour l?inte?re?t qu?ils ont accorde? a? mon
travail.
Je tiens e?galement a? exprimer un merci tout spe?cial envers Salim Bouzebda avec
lequel le partage d?ide?es a e?te? florissant, sans oublier l?aide mutuelle que nous nous
sommes accorde?e au cours de ces dernie?res anne?es donnant naissance a? un article
publie? et d?autres travaux en cours.
3
Je voudrais remercier tre?s chaleureusement Louise Lamart, Anne Durrande et
Pascal Epron qui font preuve chaque jour de leur gentillesse et patience. Je voudrais
adresser un salut amical aux membres du laboratoire et d?ailleurs : aux professeurs
Denis Bosq, Michel Delecroix, Emmanuel Guerre, Youri Koutoyants, Daniel PierreLoti-Viaud, Annick Valibouze, Djamel Louani, ainsi qu?a? mes colle?gues Amor Keziou,Issam EL Hattab, Philippe Saint-Pierre, Anissa Rabhi, Lahcen Douge, Lynda
Arezki, Amadou Diallo, Othman Bah, Layal Elhaj, Jean-Baptiste Aubin, Samuela
Leoni-Aubin, Berrahou Noureddine, Olivier Bouaziz, Mohamed Cherfi, Khalid Chokri, Claire Coiffard, David Degras-Valabregue, Ravan De Senigon de Roumefort,
Kaouthar El Fassi, Olivier Faugeras, Aure?lie Fischer, Mohammed Khadir, Mamadou Kone?, Boris Labrador, Franc?ois-Xavier Lejeune, Nabil Nessigha, Sarah Ouadah,
Rawane Samb, Mory Souare et tant d?autres avec qui j?ai partage? de bons moments.
Une pense?e spe?ciale a? mon cher ami Saad Rharmili, avec qui j?ai partage? les bons
et les mauvais moments et qui est toujours pre?sent a? l?e?coute.
Je tiens a? adresser un salut amical aux personnes que j?ai cotoye? de part de mes
activite?s d?enseignement. Je pense notamment a? Dahmane Saint-Hilaire, christine
Atangana, Murielle Nicolas, Nathalie Aknin, Sandra Desroches et tant d?autres...
Mes pense?es vont enfin a? tous mes proches, mes parents, mes fre?res, ma s?ur et a?
toute ma famille pour le soutien qu?ils m?ont apporte? tout au long de la pre?paration
de cette the?se.
De?dicace :
A? ma me?re, mon pe?re,
modeste te?moignage de mon infinie amour et tendresse.
Table des matie?res
Introduction Ge?ne?rale
1 Les Copules et leurs proprie?te?s
1.1
1.2
1.3
1
19
De?finitions et proprie?te?s des copules multivarie?es . . . . . . . . . . . . 19
1.1.1
Fonction de re?partition multivarie?e et copules multivarie?es . . 20
1.1.2
The?ore?me de Sklar . . . . . . . . . . . . . . . . . . . . . . . . 27
1.1.3
Proprie?te?s des copules . . . . . . . . . . . . . . . . . . . . . . 29
1.1.4
La densite? de la copule . . . . . . . . . . . . . . . . . . . . . . 34
Les copules usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.2.1
Copule d?inde?pendance . . . . . . . . . . . . . . . . . . . . . . 35
1.2.2
Copules gaussiennes . . . . . . . . . . . . . . . . . . . . . . . 35
1.2.3
Copules empiriques . . . . . . . . . . . . . . . . . . . . . . . . 37
1.2.4
Copules archime?diennes . . . . . . . . . . . . . . . . . . . . . 39
1.2.5
Copules de valeurs extre?mes . . . . . . . . . . . . . . . . . . . 42
Relation entre les mesures de de?pendance et les copules . . . . . . . . 44
1.3.1
Les mesures de concordance . . . . . . . . . . . . . . . . . . . 44
1.3.2
Proprie?te?s de de?pendance des queues . . . . . . . . . . . . . . 52
ii
TABLE DES MATIE?RES
2 Principe d?invariance du processus empirique de copule
2.1
55
Le processus empirique uniforme et le processus empirique de quantile uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.1.1
Le processus empirique uniforme multivarie? . . . . . . . . . . 59
2.2
Le processus empirique de copule sur un pave? de I 2 . . . . . . . . . . . 63
2.3
Le processus empirique de copule multivarie?e
. . . . . . . . . . . . . 73
2.3.1
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
2.3.2
Repre?sentation presque su?re du processus empirique de copule
2.3.3
Re?sultat principal . . . . . . . . . . . . . . . . . . . . . . . . . 79
76
2.4
Estimation non-parame?trique de la densite? de copule . . . . . . . . . 84
2.5
Approximation forte des statistiques de rangs . . . . . . . . . . . . . 92
3 Approximation forte du processus empirique de copule par un processus de Kiefer
95
3.1
Introduction et notations . . . . . . . . . . . . . . . . . . . . . . . . . 95
3.2
Re?sultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
3.2.1
Un principe d?invariance du processus empirique de copule . . 100
3.2.2
Principe d?invariance pour le processus empirique de la copule
lisse?e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
3.3
Appendice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
3.3.1
De?monstration du the?ore?me 3.2 . . . . . . . . . . . . . . . . . 105
3.3.2
De?monstration du corollaire 3.1 . . . . . . . . . . . . . . . . . 112
3.3.3
De?monstration du the?ore?me 3.3. . . . . . . . . . . . . . . . . 114
3.3.4
De?monstration du corollaire 3.2 . . . . . . . . . . . . . . . . . 115
TABLE DES MATIE?RES
4 Multivariate Two-sample Problem
iii
119
4.1
Introduction and motivation . . . . . . . . . . . . . . . . . . . . . . . 120
4.2
Two sample-Problem . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
4.2.1
Empirical Copula Process . . . . . . . . . . . . . . . . . . . . 122
4.2.2
Two-sample empirical process and main statistical tests . . . . 125
4.2.3
Strong approximations of ?n;m and ?n;m
. . . . . . . . . . . . 127
4.3
Asymptotic law of statistical test . . . . . . . . . . . . . . . . . . . . 130
4.4
Concluding remarks and future works . . . . . . . . . . . . . . . . . . 133
4.5
Proofs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
Bibliographie
144
Introduction Ge?ne?rale
Avec la diversification des canaux d?information, les bases de donne?es deviennent
de plus en plus fournies et complexes. Pour les exploiter au mieux, on a fre?quemment
recours a? des mode?les stochastiques. D?un point de vue purement the?orique, la plupart de ces mode?les ne?cessitent des suppositions spe?cifiques sur les de?pendances entre
les diffe?rentes variables ale?atoires. Afin de mode?liser la structure de de?pendance entre
ces variables, la connaissance exacte des lois de probabilite? jointes est indispensable.
Dans cette perspective, plusieurs techniques ont e?te? propose?es dans la litte?rature
scientifique, et certaines pre?sentent de multiples lourdeurs mathe?matiques rendant
proble?matique leur application. Nous pouvons, a? titre d?exemple, citer l?utilisation des mode?les parame?triques tre?s spe?cifiques de distributions bi-dimensionnelles,
comme celui de la loi de Pareto bivarie?e. Dans ce cas pre?cis, le mode?le de Pareto
bivarie? impose que les lois marginales soient des lois de Pareto (ou Zipf-Pareto)
exactes, ce qui est rarement, ou quasiment pas ve?rifie? dans la pratique, d?autant
plus que le parame?tre d?association se retrouve souvent dans les lois marginales.
L?ide?al dans la construction de telles lois jointes serait de pouvoir de?velopper ,par
des techniques simples, des distributions multivarie?es posse?dant des lois marginales
arbitraires, et de trouver une mesure capable de re?sumer la structure de de?pendance
entre les diffe?rentes variables ale?atoires, sans tenir compte de l?effet du comporte-
2
Introduction Ge?ne?rale
ment des marginales. C?est exactement la? ou? les copules fournissent une approche
salutaire.
L?introduction des copules, en vue d?applications statistiques, est un phe?nome?ne relativement re?cent qui trouve sa source a? la fin des anne?es 50 dans des recherches
portant initialement sur les tables de contingence. Il y a encore trente ans, il e?tait
difficile de trouver des traces de la notion de copule dans la litte?rature statistique.
Cette fonction e?tait parfois mentionne?e sous d?autres appellations comme celles, notamment, de fonction de de?pendance ou la forme standard. Alors, de quoi s?agit-il ?
Dans le dictionnaire de l?Acade?mie Franc?aise, le mot ?copule? est de?fini par
Copule n. f. XVe sie?cle. Emprunte? du latin classique copula, ?liaison, lien, union?
terme de rhe?torique et en latin chre?tien,?lien moral, union dans le mariage?. Logique. Gramm. Verbe qui lie le pre?dicat au sujet. Dans la proposition : ?Ils sont
heureux?, ?sont? est la copule.
En statistique mathe?matique, et sous d?autres appellations, la notion de ?copule?
appara??t, entre autres, dans certains travaux fondateurs de Fre?chet (1951), Fe?ron
(1956) et Dall?Aglio (1956) portant sur l?e?tude des tables de contingence ; et les lois
multivarie?es a? structures marginales fixe?es. Pour la premie?re fois, le mot ?copule? a
e?te? utilise?, dans un sens mathe?matique, par Sklar (1959) dans la the?orie des lois multivarie?es. Le the?ore?me d?existence des copules est ge?ne?ralement attribue? a? ce dernier
auteur (voir, plus loin, le the?ore?me 1.2). Au moment de la publication de son article
fondateur, Sklar (1959) collaborait avec Berthold Schweizer au de?veloppement de
la the?orie des espaces dits me?triques probabilistes, souvent re?fe?rence?s sous le sigle
?PM?. Ces espaces sont une ge?ne?ralisation de l?espace me?trique usuel introduit par
Fre?chet en 1906. Pour plus de de?tails sur ce sujet, on pourra se re?fe?rer, entre autres, a?
Introduction Ge?ne?rale
3
Schweizer et Sklar (1983) et Schweizer (1991). Ainsi, entre 1958 et 1976, de nombreux
re?sultats concernant les copules ont e?te? obtenus dans le cadre de l?e?tude des espaces
PM. Nous trouvons e?galement plusieurs re?sultats de base sur les copules dans les
travaux de Hoeffding (1940), qui de?crit des fonctions de re?partition bivarie?es re?duites
ou standardise?es dont le support est contenu dans [?1/2, 1/2] et dont les lois marginales sont uniformes sur [?1/2, 1/2]. Hoeffding (1940) a obtenu des ine?galite?s optimales, fournissant des bornes supe?rieures et infe?rieures pour ses versions particulie?res
des copules. Il a e?tudie?, notamment, les mesures de de?pendance invariantes par des
transformations strictement croissantes sur les coordonne?es. Inde?pendamment de ces
recherches, on trouve dans Fre?chet (1951) plusieurs re?sultats voisins donnant lieu,
aujourd?hui, aux appellations comme les bornes de Fre?chet- Hoeffding et les classes
de Fre?chet-Hoeffding (voir Nelsen (1999)). A? partir de 1975 et avec le de?veloppement
de la the?orie des processus empiriques, d?autres auteurs ont rede?couvert le concept
des fonctions copules sous d?autres appellations en e?tablissant, de manie?re originale, certaines de leurs proprie?te?s. C?est ainsi que Kimeldorf et Sampson (1975)
les nomment ?la repre?sentation uniforme?, Galambos (1978) et Deheuvels (1978),
les englobent sous l?appellation ge?ne?rique de ?fonctions de de?pendance? et Cook et
Johnson (1981) les nomment ?la forme standard?.
D?une fac?on explicite, les copules sont des fonctions de re?partition particulie?res,
qui lient les fonctions de re?partition multivarie?es de lois de probabilite? dans Rd ,
pour d ? 2, aux fonctions de re?partition marginales de leurs coordonne?es. Plus
pre?cise?ment, soit X1 , X2 , . . . , une suite de vecteurs ale?atoires a? valeurs dans Rd ,
de?finis sur un espace de probabilite? (?, A, P), de fonction de re?partition jointe F et
de marginales Fi (и), pour 1 ? i ? d. D?apre?s Sklar (1959), il existe une fonction de
4
Introduction Ge?ne?rale
re?partition multivarie?e C(и), de sorte que
F(x1 , . . . , xd ) := C(F1 (x1 ), . . . , Fd (xd )),
x = (x1 , . . . , xd ) ? Rd .
Cette repre?sentation montre la manie?re avec laquelle la fonction copule associe la loi
de re?partition jointe aux lois marginales univarie?es. Ceci est un premier atout pour
les statisticiens, puisque les copules leur autorisent une se?lection plus e?tendue des
fonctions de re?partition jointes et ce inde?pendamment des diffe?rentes lois marginales
conside?re?es. De plus, les copules permettent de re?sumer la structure de de?pendance
interne d?un vecteur ale?atoire. D?ailleurs, les mesures les plus conventionnelles de
de?pendance peuvent e?tre exprime?es explicitement en fonction de la copule. En particulier, le tau de Kendall et le rho de Spearman entre deux vecteurs ale?atoires X1
et X2 s?expriment, respectivement, par
Z
C(u, v)dC(u, v) ? 1,
? = 4
[0,1]2
Z
C(u, v)dudv ? 3.
? = 12
[0,1]2
Gra?ce a? ces avantages et a? cette flexibilite?, la the?orie des copules trouve des applications dans de nombreux domaines, tels que ceux de la finance, de l?assurance et
de l?actuariat. Pour plus de de?tails, on renvoie le lecteur a? Frees et Valdez (1998) et
Embrechts et al. (2003).
Dans le domaine statistique, l?estimation des copules a e?te? traite?e essentiellement
dans le cadre des variables dites inde?pendantes et identiquement distribue?es (i.i.d).
Il y a deux grandes me?thodes d?estimation des copules : l?approche parame?trique et
l?approche semi-parame?trique. Pour cela, nous supposons que la copule C(и) appartient a? une famille de copules parame?triques C = {C? , ? ? ?}. La premie?re approche
consiste a? estimer les parame?tres des marginales par la me?thode du maximum de
Introduction Ge?ne?rale
5
vraisemblance sans tenir compte de la copule ; puis on injecte ces estimations dans
l?expression de la vraisemblance et par la suite, on estime le parame?tre de la copule.
Cependant, cette technique est peu efficace lorsque d est grand. Pour une e?tude
comple?te portant sur cette proce?dure d?infe?rence, on peut consulter les travaux de
Shih et Louis (1995) ou Joe et Xu (1996). La deuxie?me approche consiste a? estimer le parame?tre de la copule en conside?rant les estimateurs non-parame?triques des
marginales. Cette proce?dure est originalement introduite par Oakes (1994). L?e?tude
asymptotique et la consistance de ces estimateurs ont e?te? de?veloppe?es, par la suite,
par Genest et al. (1995) et Shih et Louis (1995). La normalite? asymptotique de cet
estimateur a e?te? discute?e dans plusieurs travaux, citons entre autres, les travaux
de Klaassen et Wellner (1997) ou bien les travaux de Genest et Werker (2002).
Re?cemment, Bouzebda et Keziou (2008) ont e?tudie? le comportement de l?estimateur du maximum de pseudo-vraisemblance des copules. Ils ont montre? que, en
ge?ne?ral, la normalite? asymptotique n?est plus ve?rifie?e lorsque le parame?tre se situe
sur la frontie?re. Le comportement asymptotique de l?estimateur du maximum de
pseudo-vraisemblance et de la statistique de test du rapport de pseudo-vraisemblance
ge?ne?ralise? a e?te? e?galement e?tudie?e par ces auteurs. Enfin, ils ont propose? une nouvelle me?thode d?estimation et un test semi-parame?trique base? sur des techniques de
divergences et de dualite?. Ils obtiennent alors des lois asymptotiques des estimateurs
et des statistiques de tests propose?s sous l?hypothe?se nulle et l?hypothe?se alternative.
Pour plus de de?tails, voir Bouzebda et Keziou (2008).
Une autre me?thode d?estimation de la copule est base?e sur l?infe?rence nonparame?trique. La copule empirique est apparue pour la premie?re fois dans l?introduction de la the?se de doctorat de Ruymgaart (voir Ruymgaart (1973), pp.6 ? 13)
6
Introduction Ge?ne?rale
et ensuite dans Ru?schendorf (1974, 1976). L?e?tude de la consistance de la copule
empirique a e?te? e?tudie?e par Ru?schendorf (1974) et Deheuvels (1979b). Ce dernier
auteur obtient e?galement une loi uniforme du logarithme ite?re? et caracte?rise l?ensemble des copules empiriques possibles. Son e?tude est particulie?rement de?veloppe?e
dans le cas de marges inde?pendantes. Il obtient alors des lois exactes et asymptotiques pour certaines statistiques (statistiques de type Kolmogorov-Smirnov et
Cramer-von-Mises) base?es sur cette copule empirique et qui s?expriment comme des
fonctionnelles fonde?es sur le processus empirique de copule donne? par
Gn (u) =
?
n (Cn (u) ? C(u)) ,
u ? [0, 1]d .
(1)
Pour plus de de?tails sur ces e?tudes, consulter Deheuvels (1979c, 1980, 1981b,c). La
convergence, dans divers espaces, du processus Gn (и) vers un processus gaussien a fait
l?objet d?e?tude de plusieurs auteurs. Ru?schendorf (1976) et Ga?enssler et Stute (1987)
ont prouve? que le processus Gn (и) converge faiblement vers un processus gaussien
dans D([0, 1]d ). Van der Vaart et Wellner (1996) ont montre? que la convergence
faible a lieu dans `? ([a, b]d ) lorsque 0 < a < b < 1. Enfin, Fermanian et al. (2004)
ont e?tabli la convergence faible dans `? ([0, 1]d ) moyennant la delta-me?thode et sous
re?serve que les de?rive?es partielles d?ordre 1 de la copule existent et soient continues.
Tous ces auteurs, cite?s pre?ce?demment, ont montre? que le processus gaussien limite
s?e?crit comme combinaisons de ponts browniens. Une question naturelle se pose
alors : avec quelle vitesse Vn peut-on approximer le processus empirique de la copule
Gn (и) par une suite de processus gaussiens convenables {Bn (и), n ? 1} tels que
sup |Gn (u) ? Bn (u)| = O (Vn ) ,
p.s. ?
u?[0,1]d
Ceci est connu dans la litte?rature scientifique sous le nom du principe d? invariance.
Introduction Ge?ne?rale
7
Lorsque les marges sont inde?pendantes et dans le cas bivarie? d = 2, Deheuvels et al.
(2006) ont montre? que la vitesse Vn est de l?ordre de n?1/4 (log2 n)1/4 (log n)1/2 et que
le processus gaussien Bn (и, и) est un pont brownien attache? (en anglais, tied-down
Brownian bridge). Re?cemment, Deheuvels (2009) a fourni une ge?ne?ralisation de ce
re?sultat lorsque d > 2 (voir, plus loin, le the?ore?me 4.5). Dans le me?me esprit, nous
nous sommes particulie?rement inte?resse?s dans ce manuscrit a? l?e?tude du principe
d?invariance du processus empirique de copule Gn (и) dans le cadre ge?ne?ral ; c?est-a?dire, lorsque les marges ne sont pas force?ment inde?pendantes.
Par la suite, nous pre?senterons un re?sume? des diffe?rents re?sultats e?tablis dans ce
pre?sent me?moire ainsi que la structure de chaque chapitre.
Dans le chapitre 1, nous exposons les outils de base lie?s a? la the?orie des copule. Nous fournissons un expose? de synthe?se sur ce sujet ; en y pre?sentant les caracte?ristiques et les proprie?te?s essentielles permettant la bonne compre?hension du
sujet. Nous rappellerons e?galement les de?finitions et les re?fe?rences les plus importantes.
L?objet de notre e?tude dans le chapitre 2 est d?e?tablir un principe d?invariance
pour le processus empirique de copules Gn . Nous commenc?ons d?abord par e?tudier
le comportement de ce processus sur un pave? de I 2 . Sans perte de ge?ne?ralite?, nous
supposons que les marges sont inde?pendantes. D?une manie?re formelle, on se donne
une suite {kn : n ? 1} de nombres positifs ve?rifiant, pour tout n ? 1,
(H.1) 0 < kn ? n ;
(H.2) kn ?,
n ? ?;
(H.3) kn /n & ?, 0 ? ? ? 1,
n ? ?;
8
Introduction Ge?ne?rale
(H.4) kn / log2 n ? ?,
n ? ?.
Nous e?tudions alors le comportement du processus empirique de la copule sur un
pave? de type [0, kn /n] О [0, kn /n]; de?fini en terme de la suite {kn }?
n=1 par
G?n (u, v) := Gn (u
kn kn
,v )
n
n
pour 0 ? u, v ? 1.
(2)
Nous nous inspirons, en grande partie, des ide?es de?veloppe?es dans l?article Deheuvels
et al. (2006). Notre re?sultat s?e?nonce comme suit.
Proposition 0.1. Soit {kn }n?1 une suite de nombres positifs ve?rifiant les hypothe?ses
(H1) ? (H4). Nous avons, avec une probabilite? e?gale a? un,
(i) Si 0 < ? ? 1/2,
lim sup n1/4 (log2 n)?1/4 (log n)?1/2 kG?n ? B?n k ? [3 О 2?1/4 + 25/4 О ?][(1 ? ?)]1/4 .
n??
(ii) Si 1/2 < ? ? 1,
lim sup n1/4 (log2 n)?1/4 (log n)?1/2 kG?n ? B?n k ? [3 О 2?3/4 + ?23/4 ]? ?1/4 ;
n??
ou?
kG?n ? B?n k =
? ukn vkn
ukn vkn ?
sup Gn
,
? Bn
,
;
2
n
n
n
n (u,v)?[0,1]
et
B?n (s, t) = Bn (s, t) ? sBn (1, t) ? tBn (s, 1) pour 0 ? s, t ? ?.
Par la suite, dans la section Д2.3 du chapitre 2, nous supposons que les marges
Qd
ne sont pas inde?pendantes ; c?est-a?-dire, C(u) 6=
i=1 ui . Nous fournissons une
de?monstration de la repre?sentation presque su?re du processus empirique de copule.
Pour obtenir notre re?sultat, nous faisons usage du the?ore?me de Sklar ainsi que du
the?ore?me (1.1) dans Cso?rgo? et Horva?th (1988). Nous obtenons alors le the?ore?me
suivant.
Introduction Ge?ne?rale
9
The?ore?me 0.1. On suppose que les marginales {Fj (и) : 1 ? j ? d} de la fonction
de re?partition F(и) sont continues et que les de?rive?es partielles d?ordre 1 de la copule
C(и) associe?e a? F(и) sont continues. Alors, il existe une suite de processus gaussiens
Bn;C (u) : u ? [0, 1]d , n ? 1 tels qu?on ait
sup |Gn (u) ? Bn;C (u)| = O n?1/(2(2d?1)) log(n) ,
p.s.,
(3)
u?[0,1]d
avec
Bn;C (u) = Bn;C (u) ?
d
X
(j)
Bn;C (uj )
j=1
?C(u)
, u ? [0, 1]d ,
?uj
(4)
(j)
Bn;C (uj ) = Bn;C (1, и и и , 1, uj , 1, и и и , 1) est un processus gaussien dont la j e?me composante est uj et dont les (d ? 1) autres composantes sont e?gales a? 1, et le processus
Bn;C (и) est un processus gaussien centre? de fonction de covariance donne?e par
C(u ? v) ? C(u)C(v),
E(Bn (u)Bn (v)) =
C(min(u1 , v1 ), и и и , min(ud , vd )) ? C(u1 , . . . , ud )C(v1 , . . . , vd ),
=
Comme application directe de ce dernier the?ore?me, nous donnons une approximation
forte des statistiques de rangs, dans le cas bivarie? (d = 2), de?finies par
n
1X
Rn :=
J (Fn,1 (Xi,1 ), Fn,2 (Xi,2 )) ou? (Xi,1 , Xi,2 ) ? R2 .
n i=1
(5)
L?expression de Rn admet la repre?sentation suivante
Z
Rn =
J (u) dC?n (u),
u = (u1 , u2 ) ? [0, 1]2 ,
(6)
[0,1]2
ou? C?n (и) est la version ca?dla?g de la copule empirique de?finie par
n
1X
C?n (u1 , u2 ) :=
1{F1n (x1 )<u1 ,F2n (x2 )<u2 } .
n i=1
(7)
10
Introduction Ge?ne?rale
On de?finit e?galement le processus empirique lie? a? ces statistiques par
n
1 X
Jn := ?
J (Fn,1 (Xi,1 ), Fn,2 (Xi,2 )) ? E(Rn )},
n i=1
(8)
ou? E(Rn ) est l?espe?rance mathe?matique de Rn . Compte tenu du re?sultat (3), nous
obtenons une approximation forte des statistiques de rangs par une suite de processus
gaussiens. Nous formalisons notre re?sultat comme suit.
The?ore?me 0.2. On suppose que les marginales {Fj (и) : j = 1, 2} de la fonction de re?partition F(и, и) sont continues, que les de?rive?es partielles d?ordre
1 de la copule C(и) associe?e a? F(и) sont continues et que la fonction J (и)
est a? variation borne?e. Alors, il existe une suite de processus gaussiens
{Bn;C (u) : u = (u1 , u2 ) ? [0, 1]2 , n ? 1} tel que
Z
Jn ?
= O n?1/6 log n ,
B
(u)dJ
(u)
n;C
(9)
[0,1]2
ou? Bn;C (и) est le processus gaussien limite d?expression donne? par (4 ).
Dans le chapitre 3, nous fournissons une approximation du processus empirique de
la copule par un processus dit de ?Kiefer? sous re?serve que les marges sont inconnues et pas ne?cessairement inde?pendantes. Nous empruntons la de?marche suivie par
Deheuvels et al. (2006). Pour cela, nous de?composons le processus empirique de la
copule gra?ce a? la relation (3.60). Nous contro?lons ensuite les oscillations du processus
empirique multivarie? a? l?aide d?un re?sultat de Einmahl et Ruymgaart (1987). Nous
appliquons ensuite le the?ore?me (1.1) de l?article de Cso?rgo? et Horva?th (1988), page
102. Ces derniers attestent que, sur un espace de probabilite?s convenable, il existe
un processus de Kiefer ?F (x, n), tel que, lorsque n ? ?,
?
sup | n?n;F (x) ? ?F (x, n)| = O n1/2?1/(4d) (log n)3/2
x?Rd
p.s.,
(10)
Introduction Ge?ne?rale
ou? ?n;F (x) =
?
11
n {Fn (x) ? F(x)} pour x ? Rd est le processus empirique multivarie?,
base? sur un e?chantillon de taille n ? 1 issu de la variable ge?ne?rique X dans Rd .
Le processus de Kiefer ?F (x, n) est un processus gaussien centre? de fonction de
covariance
E(?F (x, s)?F (y, t)) = (s ? t) {F(x ? y) ? F(x)F(y)} ,
avec (s ? t)
=
(min(s1 , t1 ), . . . , min(sd , td )). D?une manie?re analogue, nous
e?tablissons un principe d?invariance du me?me type que celui de Cso?rgo? et
Horva?th (1988) pour le processus empirique de copule. Le processus de Kiefer
KC (u, n) : u ? [0, 1]d , n > 0 conside?re? dans ce paragraphe est un processus gaussien centre? de fonction de covariance
E(KC (u, s)KC (v, t)) = (s ? t) {C(u ? v) ? C(u)C(v)} .
Tout d?abord, observons que nous avons l?identite? en distribution suivante
?F (x, n); x ? Rd , n > 0 ? KC ((F1 (x1 ), . . . , F1 (x1 )), n); x ? Rd , n > 0 .
En se basant sur cette remarque ainsi que le re?sultat de Cso?rgo? et Horva?th (1988) et
le the?ore?me de Sklar, notre principe d?invariance du processus empirique de copule
par un processus de Kiefer s?e?nonce comme suit.
The?ore?me 0.3. Soit X1 , X2 , . . . , une suite de vecteurs ale?atoires dans Rd , de fonction de re?partition jointe F(и) et de marginales {Fj (и)}1?j?d continues. On suppose que la copule C(и) associe?e a? F(и) est 2-fois differentiable sur (0, 1)d et que ses
de?rive?es secondes sont continues sur (0, 1)d . Alors, il existe un processus gaussien
{KC (u, n) : u ? [0, 1]d , n > 0} a? trajectoires presque su?rement continues, tel que,
12
Introduction Ge?ne?rale
lorsque n ? ?,
?
sup | nGn (u) ? KC? (u, n)| = O n1/2?1/(4d) (log n)3/2 , p.s.,
(11)
u?[0,1]d
ou?
K?C (u, n)
= KC (u, n) ?
d
X
(j)
KC (1, uj , 1, n)
j=1
?C(u)
,
?uj
u ? [0, 1]d
et
(j)
KC (uj , n) = KC (1, . . . , 1, uj , 1, . . . , 1, n)
est un processus de Kiefer dont la je?me composante est uj , les (d ? 1) autres composantes sont e?gales a? 1 et n > 0. Pour plus de de?tails sur ce type de processus, voir
par exemple Cso?rgo? (1979).
Comme application de ce dernier re?sultat, nous e?tablirons une approximation forte
du processus empirique des statistiques de rangs, de?finies pre?ce?demment dans (8),
par une combinaison de processus de Kiefer re?duits et nous formalisons une loi du
logarithme ite?re? pour ces statistiques dans le cas bivarie? (d = 2). Notre re?sultat
s?e?nonce comme suit.
Corollaire 0.1. On suppose que les hypothe?ses du the?ore?me 0.3 sont ve?rifie?es et
R
que la fonction J (и) est a? variation borne?e, ve?rifiant [0,1]2 d|J (u1 , u2 )| = ? < ?.
Alors
Z
?1/2
Jn ? n
[0,1]2
et
K?C (u1 , u2 )dJ (u1 , u2 )
= O n?1/8 (log n)3/2 , p.s.,
(12)
? R
| n [0,1]2 J (u1 , u2 ) d(C?n ? C)(u1 , u2 )|
?
lim sup
? 3? p.s.
2n log log n
n??
Afin d?obtenir un ordre de grandeur du module d?oscillation du processus Gn (и),
nous conside?rons une suite {an : n ? 1} de nombres positifs, ve?rifiant
Introduction Ge?ne?rale
13
(H.1) adn ? 0, and nadn ? ? ;
(H.2) nadn / log n ? ? ;
(H.3) log(1/adn )/ log log n ? ?.
Le module d?oscillation du processus empirique de la copule est de?fini par
wn (a) := sup |Gn (u) ? Gn (v)| : |ui ? vi | ? a, 1 ? i ? d, (ui , vi ) ? [0, 1]2 ,
:=
| Gn ([u, v]) |,
sup
a ? (0, 1).
u?v:?i?[1,d],|ui ?vi |?a
Avec probabilite? 1, nous montrons que, lorsque n ? ?,
?1/2
2adn log(1/adn )
?n (adn ) = OP (1).
(13)
Dans le chapitre 4, nous nous inte?ressons a? l?e?tude des tests d?ajustements base?s sur
les copules. En particulier, nous de?veloppons un test d?e?galite? entre deux copules
associe?es a? deux e?chantillons inde?pendants propose? par Re?millard et Scaillet (2009).
Nous fournissons les vitesses d?approximations du processus associe? (forme? a? partir
de la diffe?rence entre les deux processus de copules sous-jacents), sous diffe?rentes
hypothe?ses. Soit {Xk = (X1k , . . . , Xdk ), k ? 1} une suite de vecteurs ale?atoires i.i.d., a?
valeurs dans Rd , de fonction de re?partition commune F(и) et de marginales continues
Fi (и) pour i = 1, . . . , d. D?une manie?re similaire, nous conside?rons une suite de
vecteurs ale?atoires {Yk = (Y1k , . . . , Ydk ), k ? 1} i.i.d., a? valeurs dans Rd , de fonction
de re?partition commune G(и) et de marginales continues Gi (и) pour i = 1, . . . , d.
Ainsi, les copules C(и) et D(и) associe?es a? F(и) et a? G(и), respectivement, sont de?finies
d?une fac?on unique, pour tout u = (u1 , . . . , ud ) ? [0, 1]d , par
C(u1 , . . . , ud ) = F(F1? (u1 ), . . . , Fd? (ud )),
D(u1 , . . . , ud ) =
?
G(G?
1 (u1 ), . . . , Gd (ud )).
(14)
14
Introduction Ge?ne?rale
Afin de comparer la structure de de?pendance des vecteurs ale?atoires X et Y, il est
naturel de conside?rer l?hypothe?se H0 de?finie par
H0 : C(u) = D(u) =
d
Y
ui
pour tout u ? [0, 1]d ,
i=1
contre l?alternative
H1 : C(u) 6= D(u) pour un certain u ? [0, 1]d et D(u) =
d
Y
ui pour tout u ? [0, 1]d .
i=1
On pourra e?galement traiter le cadre ge?ne?ral d?e?galite? de copules, en introduisant
l?hypothe?se
H0?
: C(u) = D(u) 6=
d
Y
ui
i=1
On note que l?e?galite? de copules n?est pas e?quivalente a? l?e?galite? des fonctions
de re?partition jointes et l?e?tude s?effectue inde?pendamment des marges. Nous
conside?rons le processus ?n;m (и) de?fini par
?n;m (u) = [nm/(n + m)]1/2 {Cn (u) ? Dm (u)} ,
u ? [0, 1]d ,
(15)
ou? Cn (и) et Dm (и) sont les copules empiriques base?es sur X1 , . . . , Xn et Y1 , . . . , Ym ,
respectivement. Compte tenu du the?ore?me 2.9 du chapitre 2, nous obtenons
The?ore?me 0.4. Supposons que les copules C(и) et D(и) sont deux fois continu?ment
de?rivable sur (0, 1)d et que toutes leurs de?rive?es partielles d?ordre 2 sont continues
sur [0, 1]d . Dans un espace de probabilite? convenable, on peut de?finir une suite de
processus gaussiens Bn;m (u) : u ? [0, 1]d , n, m = 1, 2, . . . , de sorte que, sous H0?
si n/(n + m) ? ? ? [0, 1] lorsque min(n, m) ? ?, alors nous avons, presque
su?rement,
sup |?n;m (u) ? Bn;m (u)| = O (?(n, m)) ,
u?[0,1]d
(16)
Introduction Ge?ne?rale
15
ou?
?(n, m) = max n?1/(2(2d?1)) log n, m?1/(2(2d?1)) log m ,
(17)
Bn;m (u) = [m/(n + m)]1/2 Bn,C (u) + [n/(n + m)]1/2 Bm,D (u).
(18)
et
Les processus Bn,C (и) et Bm,D (и) sont de?finis, plus loin, dans (4.20) et (4.21).
Sous l?hypothe?se H0 , nous ferons usage d?un re?sultat re?cent de Deheuvels (2009)
concernant l?approximation du processus empirique de copule par une suite de processus gaussiens dans le cas d?inde?pendance des marges. Ce qui nous permet d?obtenir le the?ore?me suivant.
The?ore?me 0.5. Dans un espace probabilise? convenable, il existe une suite de ponts
browniens convenable Bn;m (u) : u ? [0, 1]d , n, m = 1, 2, . . . , de sorte que, sous
l?hypothe?se H0 et si n/(n + m) ? ? ? [0, 1] lorsque min(n, m) ? ?, nous avons
presque su?rement
sup |?n;m (u) ? Bn;m (u)| = O (?(n, m)) ,
(19)
u?[0,1]d
ou?
?(n, m) = max n?1/2d (log n)2/d , m?1/2d (log m)2/d .
De plus, pour d = 2, si n/(n + m) ? ? ? [0, 1] lorsque min(n, m) ? ?, alors nous
avons presque su?rement,
(
lim sup{Vn;m }
n,m??
sup
(u1 ,u2
)?[0,1]2
)
|?n;m (u1 , u2 ) ? Bn;m (u1 , u2 )|
? 2 О 3?3/2 О 55/4 , (20)
avec Vn;m = max n1/4 (log n)?1/2 (log2 n)?1/4 , m1/4 (log m)?1/2 (log2 m)?1/4 .
Ces re?sultats nous permettent par la suite, d?e?tablir le comportement asymptotique
de la statistique de type Crame?r-von-Mises de?finie par
Z
(1)
?n;m :=
{?n;m (u)}2 du.
[0,1]d
(21)
16
Introduction Ge?ne?rale
Corollaire 0.2. Sous l?hypothe?se H0? et les me?mes conditions que le the?ore?me 0.4,
nous avons presque su?rement,
Z
(1)
?n;m ?
{Bn;m (u)} du = O (M(n, m)) ,
d
2
(22)
[0,1]
ou? M(n, m) = ?(n, m) max (log log n)1/2 , (log log m)1/2 .
D?une manie?re similaire et sous H0 , nous obtenons le corollaire suivant.
Corollaire 0.3. Sous l?hypothe?se nulle H0 et les me?mes conditions que le the?ore?me
0.5, nous avons presque su?rement,
Z
(1)
2
?n;m ?
{Bn;m (u)} du = O (`(n, m)) ,
(23)
[0,1]d
ou? `(n, m) = ?(n, m) max (log log n)1/2 , (log log m)1/2 .
De plus, pour d = 2, si n/(n + m) ? ? ? [0, 1] lorsque min(n, m) ? ?, alors nous
avons presque su?rement,
Z
(1)
e
lim sup{V (n, m)} ?n;m ?
n,m??
[0,1]
{Bn;m (u1 , u2 )} dudv ? 2 О 3?3/2 О 55/4 ,
2
2
(24)
avec Ve (n, m) = {Vn;m } max{(log log n)1/2 , (log log m)1/2 }.
Nous pre?senterons e?galement une autre hypothe?se alternative a? l?hypothe?se H0 ,
de?finie par
H2 : C(u) = D(u)
et
pour tout u ? [0, 1]d ,
d
Y
D(u) 6=
ui pour un certain u ? [0, 1]d ,
i=1
et afin de manier cette hypothe?se, nous introduisons le processus empirique
(
)
d
Y
Gim (G?
?n;m (u) = [nm/(n + m)]1/2 Cn (u) + Dm (u) ? 2
u ? [0, 1]d .
im (ui )) ,
i=1
(25)
Ainsi, notre deuxie?me re?sultat s?e?nonce comme suit.
Introduction Ge?ne?rale
17
The?ore?me 0.6. Dans un espace de probabilite? convenable, il existe une suite de
ponts browniens B?n;m (u) : u ? [0, 1]d , n, m = 1, 2, . . . , de sorte que, sous H0 , si
n/(n + m) ? ? ? [0, 1] lorsque min(n, m) ? ?, alors nous avons presque su?rement,
sup |?n;m (u) ? B?n;m (u)| = O (?(n, m)) ,
(26)
u?[0,1]d
ou? ?(n, m) est donne? dans le the?ore?me 0.5 et pour n, m = 1, 2, . . . , u ? [0, 1]d ,
B?n;m (u) = [m/(n + m)]1/2 Bn,C (u)
(
+ [n/(n + m)]1/2
Bm,D (u) ? 2
( d
d
X
Y
j=1
)
ui
)
Bm,D (1, uj , 1) . (27)
i6=j
De plus, pour d = 2, si n/(n + m) ? ? ? [0, 1] lorsque min(n, m) ? ?, alors nous
avons presque su?rement,
(
lim sup{Vn;m }
n,m??
)
|?n;m (u1 , u2 ) ? B?n;m (u1 , u2 )|
sup
(u1 ,u2 )?[0,1]2
? 3?3/2 55/4 131/2 ,
(28)
ou? {Vn;m } est donne?e dans le the?ore?me 0.5.
Gra?ce a? ce re?sultat, nous de?duisons le comportement asymptotique de la statistique
de type Crame?r-von-Mises de?finie par
?(2)
n;m
Z
:=
{?n;m (u)}2 du.
(29)
[0,1]d
Ainsi, nous obtenons le re?sultat suivant.
Z
(2)
?n;m ?
[0,1]d
{B?n;m (u)}2 du
= O(`(n, m)),
ou? la vitesse `(n, m) est de?finie dans le corollaire 0.3.
A la fin du chapitre 4, nous proposons e?galement quelques re?sultats asymptotiques
de quelques fonctionnelles de type Crame?r-von-Mises ponde?re?es ou? les statistiques
de type Kolmogorov-Smirnov.
18
Introduction Ge?ne?rale
Chapitre 1
Les Copules et leurs proprie?te?s
1.1
De?finitions et proprie?te?s des copules multivarie?es
Dans ce premier chapitre, nous introduisons quelques de?finitions de base qui nous
permettent de mieux de?crire le concept de copule. Nous pre?sentons les proprie?te?s les
plus importantes de la fonction de copule et son ro?le dans l?e?tude de l?inde?pendance
des variables ale?atoires ; ainsi que son lien avec la the?orie de la mesure. Nous adoptons les notations de l?ouvrage de Nelsen (1999). Nous nous inte?ressons plus particulie?rement a? l?e?tude des copules en dimensions d ? 3. Nous mentionnons que les
re?sultats e?nonce?s dans ce chapitre ne sont pas originaux en tant que tels, et sont
issus des travaux d?auteurs cite?s au fur et a? mesure. Ils ont pour objet de poser
les notations ne?cessaires a? l?expose? des re?sultats nouveaux que nous pre?sentons au
chapitre 2.
20
Les Copules et leurs proprie?te?s
1.1.1
Fonction de re?partition multivarie?e et copules multivarie?es
d
Nous noterons par la suite R , l?espace d-dimensionnel R О и и и О R, ou? R =
[??, +?]. Nous adopterons dans ce qui suit la notation vectorielle pour les points
d
x = (x1 , . . . , xd ) de R . Nous dirons que a = (a1 , . . . , ad ) ? b = (b1 , . . . , bd ) (resp.
a < b) si ak ? bk (resp. ak < bk ) pour tout k = 1, . . . , d. Un pave? de dimension d note? par B := [a, b] est de?fini comme le produit carte?sien de d-intervalles
unidimensionnels de la forme
B = [a1 , b1 ] О и и и О [ad , bd ] ,
a ? b,
d
ou? a = (a1 , . . . , ad ), b = (b1 , . . . , bd ) ? R . Les sommets d?un pave? B sont les points
de l?ensemble {c = (c1 , . . . , cd ) : ci ? {ai , bi }, 1 ? i ? d}.
De?finition 1.1. (Fonction de re?partition multivarie?e)
Une fonction F : [??, ?]d ? [0, 1] est une fonction de re?partition d?un vecteur
ale?atoire X = (X1 , . . . , Xd ), si F(и) ve?rifie les conditions suivantes
(i) F est continue a? droite relativement a? chaque composante ;
d
(ii) pour tout (a1 , . . . , ad ) et (b1 , . . . , bd ) dans R tels que ai ? bi , i = 1, . . . , d
4bann 4ban?1
и и и 4ba11 F(x) ? 0,
n?1
ou? 4bakk F(x) = F(x1 , . . . , xk?1 , bk , xk+1 , . . . , xd )?F(x1 , . . . , xk?1 , ak , xk+1 , . . . , xd );
(iii) F(x1 , . . . , xi?1 , ??, xi+1 , . . . , xd ) = 0
et F(?, . . . , ?) = 1.
pour i = 1, . . . , d,
1.1 De?finitions et proprie?te?s des copules multivarie?es
21
Nous pouvons de?river la fonction de re?partition marginale de chaque composante
du vecteur ale?atoire a? partir de la fonction de re?partition d-dimensionnelle. Ceci est
illustre? dans la de?finition suivante.
De?finition 1.2. (Fonction de re?partition marginale)
La k e?me fonction de re?partition marginale d?une fonction de re?partition F(и) multivarie?e est une fonction Fk : [??, ?] ? [0, 1] telle que
Fk (xk ) = F(?, . . . , ?,
xk
, ?, . . . , ?),
|{z}
ke?me ?composante
?k = 1, . . . , d.
Par la suite, on parlera de ?marginale? pour parler de ?fonction de re?partition
marginale?.
De?finition 1.3. (Volume d?un pave?)
Soient S1 , . . . , Sd des parties mesurables non vides de R et H(и) une fonction ddimensionnelle dont le domaine de de?finition est Dom H = S1 О и и и О Sd . Soit
B = [a, b] un d-pave? dont les sommets sont dans Dom H. Le H-volume de B est
alors de?fini par
VH (B) :=
X
sgn(c)H(c),
ou? la somme s?effectue sur tous les sommets c de B et le sgn(c) est donne? par
sgn(c) =
?
?
?
1
si ck = ak
?
? ?1 si ck = ak
pour un nombre pair de
k,
pour un nombre impair de
k.
Si nous de?finissons les d-diffe?rences d?ordre 1 de H(и) par
4bakk H(t) = H(t1 , . . . , tk?1 , bk , tk+1 , . . . , td ) ? H(t1 , . . . , tk?1 , ak , tk+1 , . . . , td ),
22
Les Copules et leurs proprie?te?s
alors, le H-volume du pave? B pourra s?exprimer en fonction des d-diffe?rences de H(и)
sur B comme suit
и и и 4ba11 H(t).
VH (B) = 4ba H(t) = 4bann 4abn?1
n?1
De?finition 1.4. (Fonction d-croissante)
Une fonction re?elle d-dimensionnelle H(и) est dite d-croissante, si VH (B) ? 0 pour
tout d-pave? B dont les sommets sont dans Dom H.
Ainsi, toute fonction de re?partition multivarie?e est d-croissante. En particulier, les
marginales sont non-de?croissantes.
De?finition 1.5. (Fonction attache?e)
Soit H : S1 О и и и О Sd ? R. Supposons que, pour tout k, chacun des sous-ensembles
Sk ayant le plus petit e?le?ment ak ? R. On dit que H(и) est attache?e si H(t) = 0 pour
tout t dans Dom H tel que tk = ak pour au moins un indice k.
Nous constatons que toute fonction de re?partition multivarie?e est attache?e.
Lemme 1.1. Soient S1 , . . . , Sd des sous-ensembles non vides de R et H(и) une fonction attache?e (ou grounded), d-croissante et dont le domaine est S1 О и и и О Sn . Si
pour tout choix de (t1 , . . . , tk?1 , x, tk+1 , . . . , td ) et (t1 , . . . , tk?1 , y, tk+1 , . . . , td ) dans le
domaine de de?finition Dom H de H, et pour tout x < y, nous avons
H(t1 , и и и , tk?1 , x, tk+1 , и и и , tn ) ? H(t1 , и и и , tk?1 , y, tk+1 , и и и , tn ),
alors H(и) est croissante relativement a? chaque coordonne?e.
Cette version d-dimensionnelle du lemme 1.1 est ne?cessaire pour la de?monstration
de la continuite? uniforme des copules multivarie?es. Ainsi, nous pouvons reprendre la
1.1 De?finitions et proprie?te?s des copules multivarie?es
23
de?finition d?une fonction de re?partition multivarie?e et de la fonction de re?partition
marginale en utilisant les de?finitions pre?ce?dentes.
De?finition 1.6. La fonction F(и) de?finie sur son domaine Dom F = [??, ?]d est
une fonction de re?partition d-dimensionnelle si
(i) F(и) est d-croissante ; ce qui signifie que, pour tout a et b dans [??, ?]d tel
que a ? b
VF ([a, b]) ? 0;
(ii) F(и) est attache?e ; ce qui signifie que pour tout t dans [??, ?]d
F(t) = 0
si au moins l?une des composantes de t est ? ?;
(iii) F(?, ?, . . . , ?) = 1.
Nous de?finissons ainsi les fonctions marginales (unidimensionnelles) de F(и) comme
les fonctions Fk (и) de domaine de de?finition Dom Fk = [??, ?] exprime?es par
Fk (x) = F(?, . . . , ?, x, ?, . . . , ?).
(1.1)
Le lemme suivant est tre?s utile pour la de?monstration du the?ore?me fondamental de
la the?orie des copules du? a? Sklar.
Lemme 1.2. Soit S1 , . . . , Sd , des sous-ensembles non vides de R, H(и) une fonction
attache?e, d-croissante, de domaine de de?finition Dom H = S1 Ои и иОSd et de marges
Hk (и), k = 1, . . . , d. Soient x = (x1 , и и и , xd ) et y = (y1 , . . . , yd ) deux points de
S1 О и и и О Sd . Alors
|H(x) ? H(y)| ?
d
X
k=1
|Hk (xk ) ? Hk (yk )|.
24
Les Copules et leurs proprie?te?s
Maintenant, nous sommes bien e?quipe?s pour exposer les re?sultats portant sur la
copule, de?finie comme fonction de re?partition multivarie?e dont les marges sont uniformes. Pour obtenir la relation entre la fonction de re?partition jointe d?un vecteur
ale?atoire et la copule, Sklar dans le the?ore?me qui porte son nom, a fait usage de la
notion des sous-copules. C?est ainsi que nous de?finissons les sous-copules de dimension d comme une classe de fonctions d-croissantes et attache?es. Nous de?finissons,
ensuite, les copules comme des sous-copules de domaine de de?finition I d = [0, 1]d .
De?finition 1.7. Une sous-copule d-dimensionnelle (ou d-sous-copule) est une fonce ve?rifiant les conditions
tion C(и)
e=
1. Dom C
Qd
i=1
Si ou? Si , pour tout i = 1, . . . , d, sont des sous-ensembles de I
contenant 0 et 1 ;
e est attache?e et d-croissante ;
2. C(и)
e a des marginales unidimensionnelles, C
e k (и) pour k = 1, . . . , d, telles que
3. C(и)
e k (uk ) = uk pour tout uk ? Sk .
C
(1.2)
e on a 0 ? C(u)
e
e
Notons que, pour tout u dans DomC,
? 1 et donc l?ensemble Ran C
est aussi un sous-ensemble de I = [0, 1].
De?finition 1.8. Une copule d-dimensionnelle est une d-sous-copule de domaine I d .
De fac?on e?quivalente, une d-copule est une fonction de I d = [0, 1]d dans I = [0, 1]
posse?dant les proprie?te?s :
(i) Pour tout u ? I d , on a
C(u) = 0 si au moins une coordonne?e de u est e?gale a? 0 ;
(ii) pour tout ui ? [0, 1], pour i = 1, . . . , d, on a C(1, . . . , 1, ui , 1, . . . , 1) = ui ;
1.1 De?finitions et proprie?te?s des copules multivarie?es
25
(iii) C(и) est d-croissante ; c?est-a?-dire, pour tout u = (u1 , . . . , ud ) et v =
(v1 , . . . , vd ) dans [0, 1]d tels que ui ? vi , pour i = 1, . . . , d, on a
VC ([u, v]) ? 0,
e?quivalent a?
2
X
иии
i1 =1
2
X
(?1)i1 +иии+id О C(x1i1 , . . . , xdid ) ? 0,
id =1
ou? x1j = uj et x2j = vj pour tout j ? {1, . . . , d}.
Remarque 1.1.
1. Dans le cas bivarie?, pour tout u = (u1 , u2 ) ? [0, 1]2 et v = (v1 , v2 ) ? [0, 1]2 , la
proprie?te? (iii) s?exprime par
(iii) ?
2 X
2
X
(?1)i1 +i2 О C(x1i1 , x2i2 ) ? 0
(1.3)
i1 =1 i2 =1
2
X
?
(?1)i1 +1 О C(x1i1 , x21 ) + (?1)i1 +2 О C(x1i1 , x22 ) ? 0
i1 =1
? (?1)2 C(x11 , x21 ) + (?1)1+2 C(x11 , x22 ) + (?1)2+1 C(x12 , x21 )
+(?1)4 C(x12 , x22 ) ? 0
? C(x11 , x21 ) ? C(x11 , x22 ) ? C(x12 , x21 ) + C(x12 , x22 ) ? 0
? C(u2 , v2 ) ? C(u2 , v1 ) ? C(u1 , v2 ) + C(u1 , v1 ) ? 0,
ou? x1j = uj et x2j = vj , pour tout j ? {1, 2} .
2. Soient u = (u1 , u2 ) ? [0, 1]2 et v = (v1 , v2 ) ? [0, 1]2 , tels que 0 ? v1 ? v2 ? 1
et 0 ? u1 ? u2 ? 1. D?apre?s (1.3), on a
C(u2 , v2 ) ? C(u2 , v1 ) ? C(u1 , v2 ) + C(u1 , v1 ) ? 0
? C(u2 , v2 ) ? C(u1 , v2 ) ? C(u2 , v1 ) ? C(u1 , v1 ).
26
Les Copules et leurs proprie?te?s
Ce qui prouve que les applications y 7? C(u2 , y) ? C(u1 , y) et x 7? C(x, v2 ) ?
C(x, v1 ) sont croissantes sur I = [0, 1].
3. La connaissance de l?ensemble des copules des couples (Xi , Xj )1?i6=j?d ne
fournit pas une information comple?te sur la copule d?un vecteur ale?atoire
X = (X1 , . . . , Xd ).
Il de?coule de la de?finition 1.8 que chaque marginale k-dimensionnelle d?une copule
d-dimensionnelle est elle me?me une k-copule. Toutes les copules C(и) induisent une
mesure au sens de Lebesgue sur (I d , B d ? I d ), ou? B d est une ?-alge?bre.
The?ore?me 1.1. Soit C(и) une d-copule. Alors C(и) induit une mesure de probabilite?
unique PC (и) sur (I d , B d ? I d ).
De?monstration. Comme C(и) est une fonction de re?partition sur I d , il suffit d?appliquer le the?ore?me II.3.2, p.160 de Shiryaev (1996) ou l?exemple 1.1, p.9 de Billingsley
2
(1995).
Cependant, il n?est pas vrai que toute mesure de probabilite? P(и) sur I d est induite
par une copule C(и). Si au moins une marginale n?est pas uniforme, cette mesure ne
peut pas introduire une copule. Pour cela, il faut que les conditions de la de?finition
1.8 soient ve?rifie?es. Notons Cd l?ensemble des d-copules. Le corollaire suivant nous
fournit la condition suffisante et ne?cessaire pour qu?une mesure induise une copule.
Corollaire 1.1. Une mesure de probabilite? PC (и) sur (I d , B d ? I d ) est induite par
une copule C(и) si et seulement si PC ([0, xi ]) = xi , pour tout xi ? I, 1 ? i ? d, ou?
0 := (0, . . . , 0) et xi := (1, . . . , 1, xi , 1, . . . , 1).
De?monstration Si PC (и) est une mesure induite par C(и), alors
PC ([0, xi ]) = C(1, . . . , 1, xi , 1, . . . , 1) = xi ,
1.1 De?finitions et proprie?te?s des copules multivarie?es
27
d?apre?s (ii) de la de?finition 1.8.
Re?ciproquement, si PC ([0, xi ]) = xi alors il existe une copule C(и) donne?e par C(u) =
PC ([0, u]), pour tout u ? I d , ve?rifiant les conditions de la de?finition 1.8.
1.1.2
2
The?ore?me de Sklar
Ce the?ore?me est fondamental dans la the?orie des copules. En effet, il suffit de
conna??tre les marginales, puis de les injecter dans une copule C(и) pour obtenir
la re?partition multidimensionnelle. Toute la the?orie des copules est fonde?e sur le
the?ore?me suivant.
The?ore?me 1.2. Soit F une fonction de re?partition d-dimensionnelle de fonctions
de re?partition marginales F1 , . . . , Fd . Alors il existe une d-copule C(и) telle que, pour
d
tout x ? R ,
F(x) = F (x1 , . . . , xd ) = C (F1 (x1 ), . . . , Fd (xd )) .
(1.4)
Si les fonctions F1 , . . . , Fd sont continues, alors C est unique. Dans le cas contraire,
C est uniquement de?termine?e sur le produit RanF1 О и и и О RanFd des images de
F1 , . . . , F d .
Inversement, si C est une d-copule et si F1 , . . . , Fd sont des fonctions de re?partition
univarie?es, alors la fonction F de?finie par (1.4) est une fonction de re?partition ddimensionnelle de marginales F1 , . . . , Fd .
La de?monstration de ce the?ore?me se trouve dans un travail re?cent de Ru?schendorf
(2009).
En conclusion, le the?ore?me de Sklar prouve que nous pouvons associer une copule a? chaque fonction de re?partition multidimensionnelle. Nous pouvons donc
28
Les Copules et leurs proprie?te?s
de?composer une fonction de re?partition multivarie?e en deux parties : d?une part
les fonctions de re?partition marginales, et d?autre part la copule reliant ces fonctions. Ainsi, la copule caracte?rise entie?rement la structure de de?pendance stochastique des variables ale?atoires lie?es. Notons que le the?ore?me de Sklar reste valable
pour les fonctions de re?partition multivarie?es de survie. En effet, en substituant
F(x) = P(X1 ? x1 , . . . , Xd ? xd ) et Fi (xi ) = P(Xi ? xi ), i = 1, . . . , d par
F(x) = P(X1 ? x1 , . . . , Xd ? xd ) et Fi (xi ) = P(Xi ? xi ), i = 1, . . . , d, nous obtenons
F(x) = C F1 (x1 ), . . . , Fd (xd ) ,
pour tout x ? R?d .
La copule C(и) est appele?e copule de survie, elle est donne?e en fonction de la copule
C(и) par
C(u) = 1 +
X
(?1)k
1?k?d
X
Ci1 ...ik (ui1 , . . . , uik ),
pour tout u ? [0, 1]d ,
i1 ?иии?ik
ou? Ci1 ...ik (и) sont les k e?mes marges de la copule C(и).
En particulier, pour le cas bivarie? nous obtenons C(u1 , u2 ) = 1 ? u1 ? u2 + C(u1 , u2 ).
Le the?ore?me de Sklar donne une me?thode de construction des copules a? partir des
marges, en passant par la fonction de quantiles des marginales. Pour cela, nous rappelons la de?finition de la fonction de quantiles associe?e a? une fonction de re?partition
univarie?e.
De?finition 1.9. Soit F une fonction de re?partition univarie?e. Le quantile de F est
une fonction, note?e F ?1 , de domaine de de?finition I = [0, 1], telle que :
1. Si t est dans l?image Ran F de F , alors F ?1 (t) est un nombre x tel que F (x) = t,
c?est-a?-dire, ve?rifie
F (F ?1 (t)) = t
pour tout
t ? Ran F ;
(1.5)
1.1 De?finitions et proprie?te?s des copules multivarie?es
29
2. Dans tous les cas, et en particulier si t n?est pas dans l?image Ran F de F , alors
F ?1 (t) est de?finie par
F ?1 (t) = inf{x : F (x) ? t} = sup{x : F (x) ? t}.
(1.6)
Si F est strictement croissante, alors sa fonction de quantiles F ?1 (и) co??ncide avec
l?inverse habituelle de F pour la composition des applications. Nous rappelons une
proposition tre?s utile, parmi les classiques de la the?orie de quantile.
Proposition 1.1. Soit X une variable ale?atoire de fonction de re?partition F (и),
alors
1. Si U ? U (0, 1) alors F ?1 (U ) ? F ;
2. Si F est continue, alors F (X) ? U (0, 1).
Gra?ce a? cette proposition, nous obtenons le corollaire suivant.
Corollaire 1.2. Soit F une fonction de re?partition d-dimensionnelle de fonctions
de re?partition marginales continues F1 , . . . , Fd . Alors, la copule C(и) associe?e a? F(и)
est donne?e par
C(u1 , . . . , ud ) = F(F1?1 (u1 ), . . . , Fd?1 (ud ))
1.1.3
pour tout u ? I d .
(1.7)
Proprie?te?s des copules
The?ore?me 1.3. (Continuite? uniforme)
Une copule C(и) est uniforme?ment continue sur son domaine. En particulier, pour
tout u et v dans [0, 1]d , nous avons
|C(v) ? C(u)| ?
n
X
i=1
|vk ? uk |.
(1.8)
30
Les Copules et leurs proprie?te?s
La de?monstration de ce the?ore?me est imme?diate si on conside?re l?ine?galite? triangulaire (voir par exemple Deheuvels (1979b), Sklar (1996) ou Schweizer et Sklar
(1983)).
The?ore?me 1.4. (Invariance)
Soient (X1 , . . . , Xd )> un vecteur de variables ale?atoires continues, de fonction de
re?partition F(и) associe?e a? une copule C(и), et (T1 , . . . , Td ) est une suite de fonctions
strictement croissantes. Alors, la fonction de re?partition jointe du vecteur ale?atoire
(T1 (X1 ), . . . , Td (Xd ))> est aussi associe?e a? la me?me copule C(и).
Ainsi, la copule est invariante par les transformations strictement croissantes de
variables ale?atoires.
De?monstration. Notons par Fi et F?i les fonctions de re?partition univarie?es, respectives, des variables ale?atoires Xi et Ti (Xi ). Soient C(и) et D(и) les copules associe?es,
respectivement, aux vecteurs ale?atoires X et T(X).
Comme les transformations Ti sont croissantes, alors pour tout xi ? R?, i = 1, . . . , d,
on a
F?i (xi ) = P(Ti (Xi ) ? xi ) = P(Xi ? Ti?1 (xi )) = Fi (Ti?1 (xi )) := Fi ? Ti?1 (xi ).
Compte tenu de (1.7), nous avons, pour tout u = (u1 , . . . , ud ) ? I d ,
C(u1 , . . . , ud ) = P(X1 ? F1?1 (u1 ), . . . , Xd ? Fd?1 (ud ))
= P(T1 (X1 ) ? T1 ? F1?1 (u1 ), . . . , Td (Xd ) ? Td ? Fd?1 (ud ))
= P(T1 (X1 ) ? F?1?1 (u1 ), . . . , Td (Xd ) ? F?d?1 (ud ))
= D(u1 , . . . , ud ).
Comme les variables X1 , . . . , Xd sont continues alors Ran F1 = . . . = Ran Fd = I et
donc C = D sur I d .
2
1.1 De?finitions et proprie?te?s des copules multivarie?es
31
La proprie?te? d?invariance joue un ro?le important dans la pratique. En effet, les
statisticiens sont amene?s parfois a? transformer les donne?es pour mieux les exploiter.
A? titre d?exemple, la transformation (X1 , X2 ) en (log(X1 ), log(X2 )) ou? X1 et X2 sont
des variables ale?atoires positives. Ainsi, l?application de transformation croissante
ne modifie donc pas la copule mais seulement les marges.
The?ore?me 1.5. Soit C : [0, 1]d ? [0, 1] une copule. Les de?rive?es partielles de C(и)
existent presque su?rement, pour tout i = 1, . . . , d et pour tout u = (u1 , . . . , ud ) ?
[0, 1]d , on a
0?
?C(u)
? 1.
?ui
De plus, les fonctions
u 7?
?C(u)
?ui
sont non de?croissantes presque partout.
La de?monstration comple?te et rigoureuse de ce the?ore?me se trouve dans l?article de
Darsow et al. (1992) et de Hoeffding (1940).
Le the?ore?me 1.5 nous fournit l?existence des de?rive?es partielles presque partout.
Puisque C(и) induit une mesure de probabilite? sur I d , alors C(и) peut e?tre de?compose?e
en somme d?une mesure absolument continue au sens de la mesure de Lebesgue sur
I d et d?une mesure singulie?re porte?e par un ensemble de mesure par rapport a? la
mesure de Lebesgue. D?apre?s le the?ore?me classique de Lebesgue-Radon-Nikodyn,
nous avons
C(u) := AC (u) + SC (u),
Z u1
Z ud
?Cd (t)
=
иии
dt + SC (u).
?u1 и и и ?ud
0
0
32
Les Copules et leurs proprie?te?s
En particulier, les bornes de Fre?chet W d (и) et M d (и) sont singulie?res tandis que la
copule d?inde?pendance ?d (и) est absolument continue.
Proprie?te? 1.1. (Convexite?)
P
Soient ?i ? 0, pour i = 1, . . . , p, avec pi=1 ?i = 1, et C1 (и), . . . , Cp (и) des fonctions
P
copules, alors pi=1 ?i Ci (и) est aussi une copule.
D?une manie?re ge?ne?rale, si (C? (и))??? est une famille de copules et ?(и) est une
R
mesure de probabilite? sur l?ensemble ?, alors C? (и) = ? C? (и)?(d?) est aussi une
copule. Ceci nous permet de construire d?autres familles de copules ; au lieu de
passer par la me?thode d?inversion de?crite par the?ore?me de Sklar, en conside?rant
par exemple, la transforme?e de Laplace de la fonction de re?partition ?(и) de ?. Un
grand nombre de ces copules appartiennent a? la classe dite ?archime?dienne?. Elles
sont omnipre?sentes dans les e?tudes statistiques parame?triques et semi-parame?triques
depuis les re?sultats fondateurs de Genest et MacKay (1986).
Remarque 1.2. L?ensemble Cd des d-copules est un sous-ensemble compact et
convexe de l?espace des fonctions continues a? valeurs re?elles de?finies sur I d , muni
de la topologie de la convergence uniforme. Il suit que, dans Cd , la convergence en
tout point implique la convergence uniforme. La convexite? provient directement de
la de?finition de la copule. La compacite? est due au fait que l?ensemble des fonctions
continues a? valeurs re?elles de?finies sur I d est un espace me?trique compact et que le
sous-ensemble des d-copules est un sous ensemble ferme?.
The?ore?me 1.6. (Bornes multivarie?es de Fre?chet-Hoeffding)
Soit F(и) une fonction de re?partition d-dimensionnelle d?un vecteur ale?atoire X =
(X1 , . . . , Xd ) et de fonctions de re?partition marginales F1 , . . . , Fd . Pour toute d-
1.1 De?finitions et proprie?te?s des copules multivarie?es
33
copule C(и) associe?e a? F(и) et pour tout u ? [0, 1]d , on a
d
X
W d (u) := max
!
ui ? d + 1; 0
? C(u) ? M d (u) := min(u1 , . . . , ud ).
i=1
De?monstration. Posons Ui = Fi (Xi ) pour tout i = 1, . . . , d, d?apre?s la voir proposition 1.1 on a P(Ui ? ui ) = ui , pour tout i = 1, . . . , d.
? La premie?re ine?galite? provient du fait que
P(
\
(Ui ? ui )) = 1 ? P(?1?i?d (Ui ? ui ))
1?i?d
d
X
? 1?
P(Ui > ui ) ? 1 ?
i=1
d
X
(1 ? ui ) ? 1 ? d +
i=1
d
X
ui .
i=1
Et comme C(и) est de?finie sur [0, 1]d , alors
C(u) ? max(0, 1 ? d +
Pd
i=1
ui ).
? La seconde ine?galite? provient du fait que
\
(Ui ? ui ) ? (Ui ? ui ),
pour tout i = 1, . . . , d,
1?i?d
ainsi C(u) = P(
T
1?i?d (Ui
? ui )) ? P(Ui ? ui ) = ui ,
pour tout i = 1, . . . , d.
Par conse?quent
C(u) ? min(u1 , . . . , ud ).
2
Remarque 1.3.
1. La fonction M d (и) est une d-copule pour d > 2.
2. La fonction W d (и) n?est pas une d-copule pour d > 2. En effet, conside?rons un
34
Les Copules et leurs proprie?te?s
d-volume [1/2, 1]d ? [0, 1]d , alors
VW d [1/2, 1]d = max (1 + и и и + 1 ? d + 1, 0)
?d О max (1/2 + 1 + и и и + 1 ? d + 1, 0)
+C2d max (1/2 + 1/2 + 1 + и и и + 1 ? d + 1, 0)
...
+ max (1/2 + и и и + 1/2 ? d + 1, 0)
= 1 ? d/2 + 0 + и и и + 0 ? 0.
Donc W d (и) n?est pas une copule pour d ? 3.
1.1.4
La densite? de la copule
Par analogie aux fonctions de re?partition multivarie?es, les copules admettent des
densite?s de probabilite?s. Si la densite? c(и) associe?e a? la copule C(и) existe alors est
de?finie par
c(u1 , . . . , ud ) =
? d C(u)
.
?u1 . . . ?ud
Si la fonction de re?partition multivarie?e F(и) est absolument continue et en utilisant le the?ore?me de Sklar, nous pouvons exprimer la densite? d?un vecteur ale?atoire
(X1 , . . . , Xd ) en fonction de la densite? de sa copule et de ses fonctions de re?partition
marginales F1 (и), . . . , Fd (и) par
f (x1 , . . . , xd ) = c(F1 (x1 ), . . . , Fd (xd ))
d
Y
fi (xi ).
(1.9)
i=1
A? partir de cette relation, nous pouvons calculer l?expression de la densite? c(и) de la
copule C(и) via l?expression
c(u1 , . . . , ud ) =
f (F1?1 (u1 ), . . . , Fd?1 (ud ))
.
Qd
?1
f
(F
(u
))
i
i
i
i=1
1.2 Les copules usuelles
35
Cette dernie?re identite? nous donne une seconde repre?sentation canonique, mais qui
porte de?sormais sur les densite?s. Ce re?sultat est important pour l?estimation des parame?tres de la loi de probabilite? d?un vecteur ale?atoire (X1 , . . . , Xd ) par la me?thode
du maximum de vraisemblance. Observons que la d-croissance de la copule C(и) (voir
la de?finition 1.8) correspond a? la positivite? de la densite?
c(u) =
? d C(u)
? 0,
?u1 . . . ?ud
lorsque celle-ci existe.
1.2
Les copules usuelles
Comme nous l?avons mentionne? auparavant, le the?ore?me de Sklar nous permet de
construire des fonctions de re?partition multivarie?es a? partir des marges donne?es.
Nous pre?sentons dans cette partie les principaux types de copules fre?quemment
utilise?es dans la pratique, ainsi que leurs proprie?te?s.
1.2.1
Copule d?inde?pendance
Il est bien connu que les composantes du vecteur ale?atoire X = (X1 , . . . , Xd )
sont inde?pendantes si et seulement si F(x1 , . . . , xd ) = F1 (x1 ) О и и и О Fd (xd ). Nous
de?finissons donc la copule d?inde?pendance par
?(u) = u1 О и и и О ud .
1.2.2
Copules gaussiennes
Soit X = (X1 , . . . , Xd ) un vecteur de variables ale?atoires continues de loi jointe
F(и), gaussienne de dimension d, de moyenne х, de matrice de covariance ? et de
36
Les Copules et leurs proprie?te?s
marginales gaussiennes F1 (и), . . . , Fd (и). Pour de?finir la copule correspondante, nous
pouvons supposer, sans perte de ge?ne?ralite?, que F(и) est centre?e et re?duite. Ceci
signifie que les marges X1 , . . . , Xd , ont toutes une loi normale N (0, 1) centre?e et
re?duite. Nous conside?rons la matrice des coefficients de corre?lation R de?finie par
?
?
? ?11 и и и ?1d ?
? . .
?
..
. . ... ?
R=?
?
?
?
?
?d1 и и и ?dd
avec
Cov(Xi , Xj )
p
?ij = p
.
Var(Xi ) Var(Xj )
Notons par
1
?(x) = P (Xi ? x) = ?
2?
Z
x
2 /2
e?t
dt,
??
la fonction de re?partition de la loi normale N (0, 1) et par ??1 (t) sa fonction de
quantiles, telle que
? ??1 (t) = t pour 0 < t < 1.
Proposition 1.2. Dans le cas bivarie?, la copule C(и) associe?e a? une loi gaussienne,
de matrice de corre?lation R, est donne?e par
2
Z ??1 (u) Z ??1 (v)
1
s + 2?12 st + t2
C(u, v) =
exp ?
dsdt.
2?(1 ? ?212 )1/2
2(1 ? ?212 )
??
??
De?monstration. La copule gaussienne C(и) est la copule ve?rifiant
F(x1 , и и и , xd ) = C(F1 (x1 ), и и и , Fd (xd )).
En posant ui = Fi (xi ), i = 1, и и и , n, nous obtenons
C(u1 , и и и , ud ) = F(F1?1 (u1 ), и и и , Fn?1 (ud )).
Dans le cas de la proposition 1.2, il suffit de prendre d = 2 et F1 (и) = F2 (и) = ?(и).
1.2 Les copules usuelles
1.2.3
37
Copules empiriques
La copule d?une loi multivarie?e posse?de une version empirique de?finie a? partir d?un
e?chantillon d?observations issues de cette loi. Soit Xi = (X1,i , . . . , Xd,i ), pour tout
i ? 1, une suite de vecteurs ale?atoires inde?pendants, identiquement distribue?s [i.i.d.],
de fonction de re?partition jointe F(и) et de marges F1 , . . . , Fd . Nous supposons que
F(и) est continue afin que la copule C(и) soit unique. Si ?u (и) correspond a? la mesure
de Dirac, pour u ? Rd , nous de?finissons la mesure empirique d?un e?chantillon de
taille n ? 1 engendre? par le vecteur ale?atoire X de la fac?on suivante
n
1X
хn :=
?X .
n j=1 j
On de?finit, pour n ? 1, la fonction de re?partition empirique de cet e?chantillon et les
fonctions de re?partition empiriques marginales, respectivement, par
!
d
n
d
Y
1 XY
Fn (x1 , . . . , xd ) = хn
] ? ?, xi ] =
1{Xji ?xj } ,
n
i=1
i=1 j=1
(1.10)
n
1X
1{Xji ?x} ,
Fj,n (x) =
n i=1
pour 1 ? j ? d.
(1.11)
Les rangs des observations sont lie?s aux fonctions de re?partition empiriques marginales, pour i ? {1, . . . , n} et j ? {1, . . . , d}, par l?identite?
nFj,n (Xji ) = Rji .
Nous pouvons introduire la copule empirique base?e sur un e?chantillon X1 , . . . , Xn
comme une fonction de re?partition C?n (и) a? lois marginales uniformes dans Rd qui
peut s?exprimer en fonction des statistiques de rangs. On trouvera une description
exhaustive sur ce sujet dans les travaux de Deheuvels (1979a,b, 1980, 1981b, 2009).
Le proble?me de l?unicite? de C?n (и) se pose, ce qui ame?ne Deheuvels (1979b) a? proposer
la solution suivante.
38
Les Copules et leurs proprie?te?s
De?finition 1.10. Toute copule C?n (и) de?finie sur le treillis
==
k1
kd
,...,
n
n
k1
kd
,...,
n
n
: 1 ? j ? d, kj = 0, . . . , n ,
par la fonction suivante
C?n
n
d
1 XY
=
1{Rji ?kj } ,
n i=1 j=1
(1.12)
est une copule empirique.
La copule empirique cite?e dans (1.12) a une loi discre?te. Dans le cas particulier ou?
d = 2, on de?finit la fre?quence de la copule empirique par
?
?
?
? 1 si (Xi,n , Yj,n ) ? {(Xk , Yk ) : 1 ? k ? n},
n
i i
i i
cn n , n := ?C?n n , n =
?
?
?0 sinon.
ou? X1,n ? . . . ? Xn,n et Y1,n ? . . . ? Yn,n de?signent, respectivement les statistiques
d?ordre obtenues en rangeant par ordre croissant les n ? 1 premie?res observations
des suites X1 , . . . , Xn , et Y1 , . . . , Yn de variables ale?atoires inde?pendantes et de me?me
loi. Dans l?article de Deheuvels (1979c), la relation entre les fonctions C?n (и) et cn (и)
est donne?e par
C?n
i j
,
n n
=
j
i X
X
p=1 q=1
cn
p q ,
.
n n
En ge?ne?ral, il est difficile d?extraire de l?information de cn (и) ; c?est pour cette raison
qu?il est pre?fe?rable de construire un de?pendogramme. Cette repre?sentation a e?te? introduite par Deheuvels (1981c).
Il y a plusieurs manie?res possibles de construire une copule C?n (и) ve?rifiant les
relations ci-dessus. Ce proble?me a e?te? discute? par Deheuvels (1979b) qui a recommande? une version particulie?re de copule empirique. Deheuvels (1979b) a
1.2 Les copules usuelles
39
montre?, e?galement, que cette copule empirique, appele?e dans son article fonction
de de?pendance, est presque su?rement uniforme?ment consistante. Il obtient alors
une loi uniforme du logarithme ite?re? et caracte?rise l?ensemble des copules empiriques possibles. Son e?tude est particulie?rement de?veloppe?e dans le cas de marges
inde?pendantes. Il obtient alors des lois exactes et asymptotiques pour certaines statistiques base?es sur cette copule empirique, par exemple, pour la statistique de type
Crame?r-Von Mises, voir Deheuvels (1981a). Pour plus de de?tails sur les copules
empiriques et leurs proprie?te?s, voir la se?rie d?articles de Deheuvels (1979a,b,c). La
copule empirique C?n (и) offre l?avantage de s?affranchir des fonctions de re?partition
marginales. En revanche, l?estimateur empirique naturel de la copule fait lui appel
aux lois marginales et s?exprime par l?identite? suivante
?1
?1
Cn (u) := Fn (F1,n
(u1 ), . . . , Fd,n
(ud )),
pour u = (u1 , . . . , ud ) ? [0, 1]d ,
ou? {Fi,n (и)}di=1 sont les marges empiriques univarie?es. Les copules C?n (и) et Cn (и)
co??ncident sur le treillis = et la diffe?rence est tre?s petite. En effet, Deheuvels (2009)
atteste que
1
sup C?n (u) ? Cn (u) = .
n
u?[0,1]d
De ce fait, les re?sultats e?tablis pour le processus empirique de copule Gn :=
?
? n (Cn ? C) restent aussi valable pour le processus empirique G?n := n C?n ? C .
1.2.4
Copules archime?diennes
Cette famille de copules joue un ro?le tre?s important dans la the?orie des statistiques parame?triques. Outre le fait que ces copules de?pendent d?une seule fonction, elles posse?dent de belles proprie?te?s permettant de construire des mode?les pa-
40
Les Copules et leurs proprie?te?s
rame?triques ou semi-parame?triques. La mode?lisation statistique a? l?aide de copules
archime?diennes a fait l?objet de nombreux travaux, depuis les re?sultats fondateurs
de Genest et MacKay (1986).
De?finition 1.11. Soit ? une fonction strictement de?croissante, continue de?finie sur
Dom ? = [0, 1] et a? valeurs dans [0, ?], telle que ?(1) = 0. La pseudo-inverse de ?(и)
est la fonction ?[?1] (и) de domaine de de?finition [0, ?] et d?image Ran ??1 = [0, 1],
donne?e par
?[?1] (t) =
?
?
? ??1 (t) := inf{x : ?(x) ? t},
?
? 0,
0 ? t ? ?(0),
?(0) ? t ? ?.
Remarquons que ?[?1] est continue, non de?croissante sur Dom ??1 = [0, ?] et strictement croissante sur [0, ?(0)]. En outre, ?[?1] (?(u)) = u sur [0, 1] et
?
?
? t,
0 ? t ? ?(0),
[?1]
?(? (t)) =
?
? ?(0), ? ? t ? ?.
= min(t, ?(0)).
Enfin, si ?(0) = ? alors ?[?1] (t) = ??1 (t). On sait que pour u = (u1 , и и и , ud ), la
copule correspondante a? l?inde?pendance de marges est donne?e par
?n (u) = u1 и и и ud = exp ? ((? log(u1 )) + и и и + (? log(ud ))) .
Cette formulation peut e?tre ge?ne?ralise?e pour toute copule C(и) et toute fonction
? : [0, 1] ? [0, ?] par
C(u1 , и и и ud ) = ?[?1] (?(u1 ) + и и и + ?(ud )),
(1.13)
ou? ?[?1] (и) est la pseudo inverse de?finie pre?ce?demment.
Les copules de la forme (1.13) sont dites copules archime?diennes et la fonction ?(и)
1.2 Les copules usuelles
41
est dite la fonction ge?ne?ratrice de la copule. Ainsi, la copule d?inde?pendance est
une copule archime?dienne. Or, l?expression (1.13) ne de?finit pas une copule pour
n?importe quelle fonction ?(и). Par exemple, en prenant ?(t) = 1 ? t dans (1.13), on
trouve que C = W qui n?est pas une copule pour d ? 3. On doit se demander pour
quelles conditions la formule (1.13) donne une copule pour toute dimension d. Des
proprie?te?s supple?mentaires devront donc e?tre impose?es a? ? et a? ??1 . Pour re?pondre
a? cette question nous utilisons la notion de fonction comple?tement monotone selon
la de?finition suivante (voir Widder (1941)).
De?finition 1.12. Une fonction g(и) est dite comple?tement monotone sur un intervalle J si elle est continue sur J et a ses de?rive?es de tout ordres qui alternent en
signe sur J, de telle sorte que
(?1)k
dk
g(t) ? 0,
dtk
(1.14)
pour tout point t inte?rieur a? J, et k = 0, 1, 2, . . .
Widder (1941) a montre? que si g(и) est comple?tement monotone et que s?il existe
un nombre t > 0 fini tel que g(t) = 0, alors g ? 0. Donc, si la pseudo-inverse
?[?1] (и) d?un ge?ne?rateur d?une copule archime?dienne est comple?tement monotone
alors ? produit ne?cessairement une copule ; car il n?existe pas de 0 < t < ? tel que
?(0) = t. Par ailleurs, les conditions ne?cessaires et suffisantes pour qu?un ge?ne?rateur
strict ?(и) engendre une copule archime?dienne de dimension d sont donne?es dans le
the?ore?me suivant.
The?ore?me 1.7. Soit ?(и) une fonction continue strictement de?croissante, de?finie
sur I = [0, 1] a? valeurs dans [0, ?), telle que ?(0) = ? et ?(1) = 0 . Alors,
42
Les Copules et leurs proprie?te?s
pour d ? 2, C(и) de?finie par (1.13) est une copule si et seulement si ??1 (и) est
comple?tement monotone sur [0, ?).
Une source importante de ge?ne?rateurs de copules archime?diennes est l?inversion de la
transforme?e de Laplace des fonctions de re?partition. Il est donc simple de construire
des copules archime?diennes de dimension d. Le tableau suivant regroupe quelques
types de copules archime?diennes.
Copules
?(u)
?(u)
? ln u
Gumbel
Frank
Clayton
(? ln u)? , ? ? 1
? ln exp(??u)?1
, ? ? R \ {0}
exp(??)?1
u?? ? 1, ? > 0
C(u)
Qd
i=1 ui
h
i1 Pd
? ?
exp ?
i=1 (? ln ui )
Qd
i=1 (exp(??ui )?1)
? 1? ln 1 + (exp(??)?1)
d?1
?1
P
?
d
??
i=1 ui ? d + 1
Table 1.1 ? Exemples de copules archime?diennes.
1.2.5
Copules de valeurs extre?mes
Les copules extre?mes jouent un ro?le tre?s important dans la the?orie des extre?mes
multivarie?s. Deheuvels (1979a) a fait usage de cette famille pour obtenir une solution au proble?me de convergence des types de {sup1?i?N Xi (1), . . . , sup1?i?N Xi (n)},
ou? {Xi (1), . . . , Xi (n), i ? 1} de?signe une suite de vecteurs ale?atoires inde?pendants,
de me?me loi, a? valeurs dans Rn . Deheuvels (1978, 1979a) a de?termine?, de manie?re
exhaustive, les lois limites possibles par une repre?sentation explicite et a fourni
des conditions simples de convergence vers cette limite. Deheuvels (1978, 1979a) a
e?galement obtenu des re?sultats permettant de caracte?riser le comportement asymp-
1.2 Les copules usuelles
43
totique des extre?mes multivarie?s, me?me lorsqu?il n?y a pas de loi limite.
De?finition 1.13. Une copule C(и) qui satisfait la condition suivante
C(ut1 , . . . , utn ) = Ct (u1 , . . . , un ), pour tout t > 0,
(1.15)
est appele?e copule extre?me.
Soit {Xi ,
i = 1, 2, . . .} une suite de vecteurs ale?atoires inde?pendants de Rd , de
fonction de re?partition multivarie?e F(и). On de?finit le maximum d?ordre n ? 1, note?
Mn = (M1,n , . . . , Md,n ), dont les coordonne?es sont de?finies comme suit. On pose
Mj,n = max (X1,j , . . . , Xn,j ) , j = 1, . . . , d.
La the?orie multidimensionnelle des valeurs extre?mes s?inte?resse a? la loi limite
lim P
n??
M1,n ? b1,n
Md,n ? bd,n
? x1 , . . . ,
? xd
a1,n
ad,n
:= H(x1 , . . . , xd ).
D?apre?s la repre?sentation canonique (1.2) de la re?partition de H(и), il existe une
copule C? (и) telle que
H(x1 , . . . , xd ) := C? (F1? (x1 ), . . . , Fd? (xd )).
Il est e?vident que les marges univarie?es de H(и) ve?rifient le the?ore?me de Fre?chetFisher-Tippet, c?est-a?-dire que les marginales appartiennent a? l?un des trois types
suivants
(1)
Loi de Fre?chet
?? (x) = exp(?x?? ),
(2)
Loi de Weibull
?? (x) = exp(?(?x)? ), pour x ? 0, ? < 0,
(3)
Loi de Gumbel
?(x) = exp(?e?x ),
pour x > 0, ? > 0,
pour x ? R.
44
Les Copules et leurs proprie?te?s
1.3
Relation entre les mesures de de?pendance et
les copules
1.3.1
Les mesures de concordance
Nous pouvons interpre?ter la copule C(и) du vecteur ale?atoire X = (X1 , X2 ) comme
une reparame?trisation ou une normalisation de la re?partition jointe F(и) apre?s avoir
e?limine? les effets des marges F1 (и) et F2 (и). Elle caracte?rise la structure de de?pendance
des composantes de X. De plus, c?est une statistique exhaustive de cette de?pendance
et plusieurs mesures de de?pendance peuvent e?tre exprime?es a? partir de C(и). Parmi
ces statistiques, nous pouvons conside?rer de fac?on ge?ne?rale les mesures de concordance. Avant de de?finir les mesures de concordance, nous de?finissons d?abord l?ordre
de concordance.
De?finition 1.14. Soient C1 et C2 deux copules bivarie?es.
On dit que C1 est plus petite que C2 et on note C1 ? C2 , si et seulement si
C1 (u1 , u2 ) ? C2 (u1 , u2 ) pour tout (u1 , u2 ) ? [0, 1]2 .
L?ordre ? est appele? l?ordre de concordance.
La relation d?ordre ??? est partielle car on ne peut pas comparer toutes les
copules entre elles. Conside?rons, par exemple, la copule cubique de?finie par
Ccub (u1 , u2 ; ?) =
2
Y
i=1
2
Y
ui + ? [ui (ui ? 1)(2ui ? 1)], avec ? ? [?1, 2].
i=1
Nous avons
3 3
3 3
3 3
Ccub ( , ; 1) = 0.5712 ? ?( , ) = О = 0.5625
4 4
4 4
4 4
1.3 Relation entre les mesures de de?pendance et les copules
45
mais
3 1
3 1
3 3
Ccub ( , ; 1) = 0.1787 ? ?( , ) = О = 0.1875
4 4
4 4
4 4
Ne?anmoins, pour toute copule C et d?apre?s l?ine?galite? de Fre?chet-Hoeffding, nous
avons toujours la relation
W d ? C ? M d.
De?finition 1.15. (Mesure de concordance)
Une mesure nume?rique ? d?association entre deux variables ale?atoires continues X1
et X2 , dont la copule est C(и), est une mesure de concordance si elle satisfait les
proprie?te?s suivantes
1. ? est de?finie pour toute paire (X1 , X2 ) de variables ale?atoires continues ;
2. ?1 = ?<X,?X> ? ?<C> ? ?<X,X> = 1 ;
3. ?<X1 ,X2 > = ?<X2 ,X1 > ;
4. Si X1 et X2 sont inde?pendantes, alors ?<X1 ,X2 > = 0 ;
5. ?<?X1 ,X2 > = ?<X1 ,?X2 > = ??<X1 ,X2 > ;
6. Si C1 ? C2 alors ?<C1 > ? ?<C2 > ;
7. Si (X1,m , X2,m ) est une suite de variables ale?atoires continues dont la copule
est Cm (и) et si Cm (и) converge vers C(и) alors limm?? ?<Cm > = ?<C> .
A? partir de la proprie?te? (6) de la de?finition 1.15, on constate que l?ordre de
concordance implique l?ordre sur ?. De plus, l?une des proprie?te?s importantes de
?<X,Y > est que si ?(и) et ?(и) sont des fonctions strictement monotones, alors
?<?(X),?(Y )> = ?<X,Y > . Par exemple, si Y = f (X) et f (и) est de?croissante, alors
?<X,Y > = ?<X,f (X)> = ?<X,?X> = ?1.
46
Les Copules et leurs proprie?te?s
Parmi les mesures de concordance, trois mesures tre?s ce?le?bres jouent un ro?le important en statistique non-parame?trique : le tau de Kendall, le rho de Spearman et
l?indice de Gini. Ces mesures s?expriment en fonction de copule (voir (1.18),(1.19)
et (1.20)plus loin).
The?ore?me 1.8. Soient (X1 , Y1 ) et (X2 , Y2 ) deux vecteurs inde?pendants de variables ale?atoires continues de fonctions de re?partition jointes, respectives, H1 (и, и)
et H2 (и, и). Soient F (и) et G(и) les marges associe?es, respectivement, a? X1 , X2 et a?
Y1 , Y2 . Soient C1 (и, и) et C2 (и, и) les copules associe?es, respectivement, a? H1 (и, и) et
a? H2 (и, и) donne?es par H1 (x, y) = C1 (F (x), G(y)) et H2 (x, y) = C2 (F (x), G(y)). Si
Q(и, и) est la mesure de concordance et de discordance de (X1 , Y1 ) et (X2 , Y2 ) ; c?est
a? dire,
Q = P {(X1 ? X2 )(Y1 ? Y2 ) > 0} ? P {(X1 ? X2 )(Y1 ? Y2 ) < 0} ,
alors
Z
C2 (u, v)dC1 (u, v) ? 1.
Q := Q(C1 , C2 ) = 4
(1.16)
[0,1]2
De?monstration. Puisque toutes les variables ale?atoires sont continues, alors
P {(X1 ? X2 )(Y1 ? Y2 ) < 0} = 1 ? P {(X1 ? X2 )(Y1 ? Y2 ) ? 0} ,
ainsi
Q = 2P {(X1 ? X2 )(Y1 ? Y2 ) ? 0} ? 1.
E?tudions le premier terme
P {(X1 ? X2 )(Y1 ? Y2 ) > 0} = P {X1 > X2 , Y1 > Y2 } + P {X1 < X2 , Y1 < Y2 } ,
1.3 Relation entre les mesures de de?pendance et les copules
47
ces quantite?s peuvent e?tre calcule?es par inte?gration
P {X1 > X2 , Y1 > Y2 } = P {X2 < X1 , Y2 < Y1 }
Z
=
P {X2 < x, Y2 < y} dC1 (F (x), G(y))
2
ZR
=
C2 (F (x), G(y))dC1 (F (x), G(y)).
R2
Par changement de variables u = F (x) et v = G(y), on obtient alors
P {X1 > X2 , Y1 > Y2 } =
R
[0,1]2
C2 (u, v)dC1 (u, v).
D?une fac?on similaire
Z
P {X2 > x, Y2 > y} dC1 (F (x), G(y))
P {X1 < X2 , Y1 < Y2 } =
2
ZRZ
{1 ? F (x) ? G(y) + C2 (F (x), G(y))} dC1 (F (x), G(y))
=
R2
Z
{1 ? u ? v + C2 (u, v)} dC1 (u, v).
=
[0,1]2
Or, C1 (и) est la fonction de re?partition jointe du vecteur (U, V )> ou? U et V sont des
variables ale?atoires uniformes, donc E(U ) = E(V ) = 1/2 et par conse?quent
Z Z
1 1
P {X1 < X2 , Y1 < Y2 } = 1 ? ? +
C2 (u, v)dC1 (u, v)
2 2
[0,1]2
Z
=
C2 (u, v)dC1 (u, v).
[0,1]2
Enfin,
P {(X1 ? X2 )(Y1 ? Y2 ) > 0} = 2
R
[0,1]2
En regroupant ces re?sultats on de?duit
Z
Q = Q(C1 , C2 ) = 4
C2 (u, v)dC1 (u, v).
C2 (u, v)dC1 (u, v) ? 1.
[0,1]2
Remarques 1.1.
Pour les copules fre?quemment utilise?es ?(и, и), M (и, и) et W (и, и). On peut facilement e?valuer la mesure de concordance Q(и, и) dans le cas bivarie?. Rappelons que le
48
Les Copules et leurs proprie?te?s
support de Q(и, и) est la diagonale u = v, alors que la masse de probabilite? de W (и, и)
se situe sur la diagonale secondaire u = 1 ? v. Ainsi, on a
R
1. Q(M, M ) = 4
2. Q(M, ?) = 4
[0,1]2
R
4. Q(W, ?) = 4
R
[0,1]2
R
[0,1]2
[0,1]2
R
[0,1]2
R
[0,1]
R
[0,1]
vdv ? 1 = 1 ;
v 2 dv ? 1 = 1/3 ;
W (u, v)dM (u, v) ? 1 = 4
uvdW (u, v) ? 1 = 4
R
5. Q(W, W ) = 4
6. Q(?, ?) = 4
uvdM (u, v) ? 1 =
[0,1]2
3. Q(M, W ) = 4
min(u, v)dM (u, v) ? 1 =
R
[0,1]
R
[0,1]
W (v, v)dv ? 1 = 0 ;
(1 ? v)vdv ? 1 = ?1/3 ;
max(u + v ? 1, 0)dW (u, v) ? 1 = 4
R
[0,1]
0dv ? 1 = ?1 ;
uvdudv ? 1 = 0.
De?finition 1.16. (Tau de Kendall)
Soient (X1 , Y1 ) et (X2 , Y2 ) deux vecteurs ale?atoires inde?pendants et identiquement
distribue?s. Le tau de Kendall du vecteur ale?atoire (X1 , Y1 ) est de?fini par
? (X1 , Y1 ) = P {(X1 ? X2 )(Y1 ? Y2 ) > 0} ? P {(X1 ? X2 )(Y1 ? Y2 ) < 0} . (1.17)
L?expression de ? (и, и) donne?e dans la de?finition 1.16, repre?sente la valeur the?orique
du tau de Kendall que l?on peut de?finir, aussi, d?une manie?re empirique. Soit un
e?chantillon de taille n de donne?es bivarie?es {(xk , yk )}nk=1 . De?finissons les nombres c
et d comme e?tant respectivement le nombre de paires concordantes et discordantes
dans cet e?chantillon. On de?finit la version empirique du tau de Kendall par
?n =
n!
n(n ? 1)
c?d
= (c ? d)/(C2n ) avec C2n =
=
.
c+d
2(n ? 2)!
2
Finalement, on peut aussi donner cette version empirique en terme de densite? de la
copule associe?e
n
n i?1 j?1 2n XXXX
i q
i j
p q
p j
?n =
cn
,
cn
,
? cn
,
cn
,
.
n ? 1 i=1 j=1 p=1 q=1
n n
n n
n n
n n
1.3 Relation entre les mesures de de?pendance et les copules
49
Soit (X, Y ) un couple de variables ale?atoires continues de copule C. Compte tenu de
(1.16) et de (1.17) , la version populaire du tau de Kendall pour X et Y est donne?e
par
Z
C(u, v)dC(u, v) ? 1 = 4E {C(U, V )} ? 1,
? (X, Y ) = Q(C, C) = 4
[0,1]2
ou? la paire (U, V ) est de loi C.
D?un point de vue nume?rique, il est difficile de manier cette expression car elle fait
intervenir la diffe?rentielle dC(u, v). C?est pourquoi, il est facile de la calculer avec
l?expression e?quivalente suivante (voir Nelsen (1999), page 131,)
Z
? =1?4
?u1 C(u1 , u2 )?u2 C(u1 , u2 )du1 du2 .
(1.18)
[0,1]2
Exemple 1.1. Dans le cas bivarie?, si C(и) est une copule archime?dienne de
ge?ne?ratrice ?(и) alors
Z
? =1+4
0
1
?(u)
du.
?0 (u)
Une extension de l?expression du tau de Kendall dans le cas multivarie? est possible.
Elle est donne?e par
? (C) =
1
2d?1 ? 1
Z
d
C(u1 , . . . , ud ) dC(u1 , . . . , ud ) ? 1 .
2
Tout comme le tau de Kendall, le rho de Spearman est base? sur la concordance et
la discordance de couples de variables ale?atoires.
De?finition 1.17. Soient (X1 , Y1 ), (X2 , Y2 ) et (X3 , Y3 ) des copies inde?pendantes de
vecteurs ale?atoires. Le rho de Spearman, note? ?S , est de?fini par
?S (X, Y ) = 3(P {(X1 ? X2 )(Y1 ? Y3 ) > 0} ? P {(X1 ? X2 )(Y1 ? Y3 ) < 0}).
50
Les Copules et leurs proprie?te?s
The?ore?me 1.9. Soit (X, Y )> un vecteur de variables ale?atoires continues associe? a?
la copule C(и). Alors le rho de Spearman de (X, Y )> est donne? par
Z
?S (X, Y ) = 3Q(C, ?) = 12
Z
u v dC(u, v)?3 = 12
[0,1]2
C(u, v)dudv?3. (1.19)
[0,1]2
Remarques 1.2.
1. On sait que pour toute copule C(и), on a W (и, и) ? C(и, и) ? M (и, и), le re?sultat
pre?ce?dent assure que ?1/3 = Q(W, ?) ? Q(C, ?) ? Q(M, ?) = 1/3, ce qui
justifie la multiplication de Q(и, и) par le facteur 3 permettant que ?S ? [?1, 1].
2. Si X ? F et Y ? G, soit U = F (X) et V = G(Y ), on a
Z
uvdC(u, v) ? 3 = 12E(U V ) ? 3
?S (X, Y ) = 12
[0,1]2
=
E(U V ) ? 1/4
Cov(U, V )
p
=p
= ?(F (X), G(Y )).
1/12
V ar(U ) V ar(V )
Donc le rho de Spearman pour une paire (X, Y ) est e?quivalent au coefficient
de corre?lation usuel de Pearson de la paire (U, V ).
3. On peut conside?rer que ?S est une mesure de distance moyenne entre la copule
C(и) et la copule d?inde?pendance car
Z
{C(u, v) ? uv} dudv.
?S (C) = 12
[0,1]2
4. Le tau de Kendall et le rho de Spearman ne de?pendent pas du comportement
des lois marginales, mais uniquement de la structure de de?pendance.
5. Pour toutes fonctions croissantes f (и) et g(и), on a ? (f (X), g(Y )) = ? (X, Y )
et ?(f (X), g(Y )) = ?(X, Y ).
6. Soit un e?chantillon de taille n de donne?es bivarie?es {(xk , yk )}nk=1 . On de?finit
la version empirique du rho de Spearman en terme de densite? de la copule
1.3 Relation entre les mesures de de?pendance et les copules
51
associe?e par
n
n 12 XX
i j
ij
?n = 2
cn
,
?
.
n ? 1 i=1 j=1
n n
nn
Les re?sultats obtenus concernant le rho de Spearman dans le cas bidimensionnel
peuvent e?tre e?tendus dans le cas multidimensionnel de la manie?re suivante
?(C) =
Z
1
(d +
1)?1
?
2?d
u1 . . . . .ud dC(u1 , . . . , ud ) ? 2?d .
[0,1]d
Ge?ne?ralement, les valeurs ? et ? pour une copule C(и) sont diffe?rentes . En revanche,
certaines relations existent entre ces deux mesures de concordance.
The?ore?me 1.10. (Daniels (1950))
Si X et Y sont deux variables ale?atoires continues, alors
?1 ? 3? (X, Y ) ? 2?S (X, Y ) ? 1.
The?ore?me 1.11. (Durbin et Stuart (1951))
Si X et Y sont deux variables ale?atoires continues, alors
2
2
1+?
1??
1 ? ?S
1 + ?S
?
?
et
.
2
2
2
2
En combinant ces deux de?rnie?res ine?galite?s, on obtient
1 + 2? ? ? 2
3? ? 1
? ?S ?
2
2
lorsque ? ? 0,
? 2 + 2? ? 1
3? + 1
? ?S ?
2
2
lorsque ? ? 0.
et
Une autre mesure de concordance qui s?exprime a? l?aide de la copule c?est l?indice
de Gini (voir Schweizer et Wolff (1981)) . Elle est de?finie par
Z Z
(|u + v ? 1| ? |u ? v|)dC(u, v).
?=2
[0,1]2
52
Les Copules et leurs proprie?te?s
Comme la diffe?rentielle dC intervient dans l?expression de la mesure ?, il est possible
de la calculer via l?expression e?quivalente suivante (voir Nelsen (1999), page 147,)
Z
[C(u, u) + C(u, 1 ? u) ? u]du.
?=4
(1.20)
[0,1]
1.3.2
Proprie?te?s de de?pendance des queues
Le concept de de?pendance de queue fournit une description de la de?pendance au
niveau des queues de distribution. Elle est tre?s inte?ressante pour e?tudier l?occurrence
simultane?e de valeurs extre?mes. C?est une mesure locale contrairement au tau de
Kendall et au rho de Spearman qui mesurent la de?pendance sur l?ensemble de la
d
distribution. Notons R»+ := [0, ?]d \{(?, . . . , ?)}.
De?finition 1.18. (Queue de copule)
Soient F(и) une fonction de re?partition d-dimensionnelle, I et J deux sous-ensembles
disjoints de {1, . . . , n}. Le coefficient de queue infe?rieure de la copule (respectivement le coefficient de queue supe?rieure de la copule) d?un vecteur ale?atoire
X = (X1 , . . . , Xd ), de marginales {Fi (и) : i = 1, . . . , d} sont de?finis dans l?ordre par
?I,J
L (x)
:= lim P Xi ?
xi
Fi?1 ( ), ?i
xj
Fj?1 ( ), ?j
? I | Xj ?
?J
t
t
xi
xj
= lim C( , ?i ? I | , ?j ? J);
t??
t
t
xi
xj
I,J
?1
?U (x) := lim P Xi > Fi (1 ? ), ?i ? I | Xj > Fj?1 (1 ? ), ?j ? J .
t??
t
t
t??
si ces limites existent.
Dans le cas bivarie?, le coefficient de queue infe?rieure de la copule ( respectivement
supe?rieure) de?fini pre?ce?demment subi une le?ge?re modification, pour tout (x, y) ?
1.3 Relation entre les mesures de de?pendance et les copules
53
2
R»+ ,
{1},{2}
?U (x, y) := y?U
(x, y);
{1},{2}
?L (x, y) := y?L
(x, y).
A? partir de cela, on retrouve la notion de la de?pendance de queue qui est une mesure
simple et intuitive de la de?pendance entre des e?ve?nements extre?mes. Pour plus de
de?tails voir Nelsen (2006) et Joe (1997).
De?finition 1.19. (De?pendance de queue)
Soient X et Y deux variables ale?atoires de fonctions de re?partitions F (и) et G(и)
respectivement. Le coefficient de de?pendance de queue supe?rieure de X et Y (resp.
le coefficient de de?pendance de queue infe?rieure de X et Y ) est de?fini par
?U := ?U (1, 1) := lim? P X > F ?1 (t) | Y > G?1 (t) ;
t?1
respectivement
?L := ?L (1, 1) := lim+ P X ? F ?1 (t) | Y ? G?1 (t) ;
t?0
lorsque ces limites existent, et ?U ? (0, 1] (resp. ?L ? (0, 1]).
Si F (и) et G(и) sont continues, une de?finition e?quivalente de ces coefficients est donne?e
en fonction des copules par
?U := ?U (1, 1) :=
lim? P X > F ?1 (t) | Y > G?1 (t) > 0
t?1
P (X > F ?1 (t), Y > G?1 (t))
t?1
P (Y > G?1 (t))
1 ? 2t + C(t, t)
= lim?
t?1
1?t
C?(t, t)
= lim?
ou? C?(и) est la copule de survie,
t?1
1?t
=
lim?
54
Les Copules et leurs proprie?te?s
?L := ?L (1, 1) :=
lim+ P X ? F ?1 (t) | Y ? G?1 (t)
t?0
P (X ? F ?1 (t), Y ? G?1 (t))
t?0
P(Y ? G?1 (t))
C(t, t)
= lim+
.
t?0
t
=
lim+
Ces expressions permettent de calculer les coefficients de de?pendance pour une large
famille de copules parame?triques, particulie?rement les copules archime?diennes. Nous
donnons dans le tableau suivant l?expression de ces coefficients pour quelques copules
usuelles. Pour plus de de?tails, voir Joe (1997) .
Copules
Inde?pendance
Gumbel
Clayton
C(u, v)
?L
uv
0
n o
1
exp ? (? ln u)? + (? ln v)? ?
0
?1
?1
u?? + v ?? ? 1 ?
2?
?U
0
1
2 ? 2?
0
Borne supe?rieur de Fre?chet
min(u, v)
1
1
Borne infe?rieur de Fre?chet
max(u + v ? 1, 0)
0
0
Table 1.2 ? De?pendance de queue de quelques copules usuelles.
On peut aussi de?finir des versions empiriques des coefficients de dependance de
queue. Dans cette direction, Schmidt et Stadtmu?ller (2006) ont propose? trois types
d?estimateurs de ces coefficients et en moyennant la delta-me?thode, ils ont e?tabli
leurs normalite? asymptotique et leurs consistance lorsque les marges sont connues,
puis lorsque les marges sont inconnues.
Chapitre 2
Principe d?invariance du processus
empirique de copule
Dans ce chapitre, nous e?tudions une approximation forte du processus empirique de
copules par des suites de processus gaussiens (combinaisons de ponts Browniens).
Compte tenu de (1.7), la copule est une fonction de re?partition multivarie?e e?value?e
aux fonctions de quantiles univarie?s. C?est pourquoi nous mentionnons quelques
re?sultats d?approximations fortes du processus empirique multivarie?, du processus
empirique uniforme ainsi que du processus empirique de quantile uniforme associe?.
Ce chapitre est de?compose? en deux parties : d?abord, nous fournissons des bornes
pour l?approximation forte du processus empirique de copule dans le cas bivarie?
sous re?serve que les marges sont inde?pendantes. Ensuite, nous pre?sentons un principe d?invariance fort pour le processus empirique de copule dans le cas de marges
inconnues et en dimension d quelconque. Nous supposons, sans perte de ge?ne?ralite?,
que les variables ale?atoires et les processus introduits ici peuvent e?tre de?finis sur le
me?me espace de probabilite?s (?, A, P).
56
2.1
Principe d?invariance du processus empirique de copule
Le processus empirique uniforme et le processus empirique de quantile uniforme
Soit U1 , U2 , . . . , une suite de variables ale?atoires inde?pendantes, identiquement distribue?es (i.i.d.), de loi uniforme sur (0, 1). On de?finit, pour tout entier n ? 1, la
fonction de re?partition empirique uniforme base?e sur U1 , . . . , Un , par
Fn (t) := n?1 #{Ui ? t : 1 ? i ? n} pour 0 ? t ? 1,
ou? #? de?signe le nombre d?e?le?ments de ?. On de?finit la fonction de quantile empirique
uniforme par la formule
Fn?1 (t) := inf{s : Fn (t) ? t} pour 0 ? t ? 1.
Le processus empirique uniforme ?n (и) et le processus empirique de quantile uniforme
?n (и) sont de?finis respectivement par, pour tout n ? 1,
?n (t) :=
?
n(Fn (t) ? t) et ?n (t) :=
?
n(Fn?1 (t) ? t) pour 0 ? t ? 1.
Ces processus interviennent dans le traitement statistique des e?chantillons re?els,
ainsi que dans les proce?dures d?infe?rences non-parame?triques correspondantes. On
trouvera une litte?rature abondante concernant l?e?tude de ces processus. En effet, plusieurs statistiques base?es sur des e?chantillons i.i.d., de variables ale?atoires
s?expriment en fonction de ces processus. Quelques exemples d?applications parmi
d?autres sont les tests d?ajustement (voir, Nikitin (1995)), le bootstrap (voir, Shao
et Tu (1995), Hall (1992)), les combinaisons line?aires de statistiques d?ordre (voir,
Serfling (1980)), les tests de rangs (voir, Ha?jek et al. (1999)), les donne?es censure?es
(voir, Eland-Johnson et Johnson (1980)), l?estimation non parame?trique de la densite? par la me?thode du noyau ou celle des estimateurs dits k-plus proches voisins
2.1 Le processus empirique uniforme et le processus empirique de
quantile uniforme
57
(voir, Scott (1992)). La connaissance des lois limites et des proprie?te?s asymptotiques
du processus empirique uniforme permet d?e?tablir les lois asymptotiques de plusieurs
fonctionnelles base?es sur ce dernier. La question qu?on peut se poser est avec quelle
vitesse le processus empirique converge-t-il vers sa loi limite ? C?est l?e?tude du principe d?invariance du processus empirique uniforme ?n (и).
?
Nous savons que le processus empirique ?n;F (x) = n(Fn (x)?F (x)) converge en loi
vers B(F (x)) dans l?espace D[0, 1] (voir, Billingsley (1968)), ou? {B(x) : 0 ? x ? 1}
de?signe un pont brownien. D?apre?s la construction de Skorohod (1956), il existe une
suite de re?pliques Bn (и) de B(и), sur le me?me espace de probabilite?s, de sorte que
||?n ? Bn (F )|| ? 0 p.s., ait lieu. Komlo?s, Major et Tusna?dy (1975) ont e?tabli le
principe d?invariance pour le processus empirique uniforme ?n (и), en attestant que
sur un espace de probabilite?s suffisamment riche, on peut construire une suite de
ponts browniens {Bn (t), 0 ? t ? 1} de sorte que
(
P
)
sup |?n (t) ? Bn (t)| > n?1/2 (a log n + x)
? b exp(?cx),
(2.1)
t?[0,1]
pour tout entier n ? 1 et x ? 0, avec a, b et c sont des constantes positives.
De leurs me?thodes sont issus beaucoup de travaux. Cso?rgo? et Re?ve?sz (1981) ont
montre? une conjoncture e?mise par Tusna?dy (1977). Bretagnolle et Massart (1989)
ont donne? une de?monstration comple?te de cette ine?galite? et ont fourni les choix
possibles a = 12, b = 2 et c = 1/6 pour les constantes de (2.1). Pour plus de
de?tails sur ce sujet, voir Bretagnolle et Massart (1989). En paralle?le a? ces travaux
et a? partir de l?approximation des sommes partielles par un processus gaussien,
Cso?rgo? et Re?ve?sz (1975), Re?ve?sz (1976) ont e?labore? une ine?galite? semblable a? celle
de Komlo?s-Major-Tunsda?y, mais qui porte sur le processus empirique de quantile
uniforme. Ils montrent alors que, sur un espace de probabilite?s suffisamment riche,
58
Principe d?invariance du processus empirique de copule
on peut approximer le processus {?n (t), 0 ? t ? 1} par une suite de ponts browniens
{B1,n (t), 0 ? t ? 1}, telle que
(
P
)
sup |?n (t) ? B1,n (t)| > n?1/2 (a1 log n + x)
? b1 exp(?c1 x),
(2.2)
t?[0,1]
pour tout entier n ? 1 et x ? 0, ou? a1 , b1 et c1 sont des constantes universelles
positives, voir e?galement Cso?rgo? (2007). Du fait que les constructions des espaces
sont diffe?rentes, il suit que les ponts browniens Bn (и) et B1,n (и) ne sont pas identiques.
Nous posons
Rn (t) := ?n (t) + ?n (t) pour t ? [0, 1].
(2.3)
Ce processus repre?sente la somme du processus empirique uniforme et du processus empirique de quantile uniforme. Il a e?te? introduit initialement par Bahadur
(1966), en le conside?rant comme un reste dans la repre?sentation ?n = ??n + Rn .
Ce processus a retenu l?attention de Kiefer (1967, 1970a) qui fournira, par la suite,
quelques proprie?te?s remarquables concernant ce processus. En reconnaissant a? chacun de ces diffe?rents travaux une originalite? particulie?re, Deheuvels et Mason (1990)
font re?fe?rence au processus Rn sous l?appellation ?le processus de Bahadur-Kiefer?.
Ce processus est asymptotiquement plus petit que ?n (и) et posse?de des proprie?te?s
asymptotiques inte?ressantes. En particulier, la loi du logarithme ite?re? de Rn du? a?
Kiefer (1970a), qu?on rappelle dans le corollaire suivant.
Corollaire 2.1. Nous avons, presque su?rement,
lim sup n1/4 (log n)?1/2 (log log n)?1/4 sup | Rn (t) |= 2?1/4 .
n??
(2.4)
0?t?1
En combinant (2.1) et (2.2) avec (2.4), on peut retrouver le comportement asymptotique du processus empirique uniforme et du processus empirique de quantile uni-
2.1 Le processus empirique uniforme et le processus empirique de
quantile uniforme
59
forme.
lim sup n1/4 (log n)?1/2 (log log n)?1/4 sup | ?n (t) + Bn (t) | = 2?1/4 , (2.5)
n??
0?t?1
1/4
lim sup n
?1/2
(log n)
?1/4
sup | ?n (t) + B1,n (t) | = 2?1/4 . (2.6)
(log log n)
n??
0?t?1
Plus ge?ne?ralement, si X1 , X2 , . . . est une suite de variables ale?atoires de fonction de
re?partition continue F ? (и) et de fonction de re?partition Fn? (и), on constate que
Fn (x) = Fn (F ? (x)) et ?n;F ? (x) :=
?
n(Fn? (x) ? F ? (x)) = ?n (F ? (x)).
On peut e?galement de?finir le processus empirique de quantile par
un (x) :=
?
? ?1
n(F ? ?1
(x)), x ? [0, 1].
n (x) ? F
En revanche, le processus empirique de quantile uniforme ne s?e?crit pas comme
transformation directe du processus empirique de quantile base? sur X1 , . . . , Xn . Nous
avons
?n (t) =
2.1.1
?
n(Fn?1 (t) ? t) =
?
n(F ? (Fn??1 (t)) ? t), t ? [0, 1].
Le processus empirique uniforme multivarie?
Soit Ui = (U1i , . . . , Udi ), pour i ? 1, une suite de vecteurs ale?atoires inde?pendants et
uniforme?ment distribue?s sur [0, 1]d , pour d ? 1. On de?finit, pour n ? 1, la fonction
de re?partition empirique, respectivement, le processus empirique multivarie? base? sur
U1 , . . . , Un , pour n ? 1, par
Fn (u) := n?1
?n (u) :=
?
n
X
i=1
1{Ui ?u} = n?1
n Y
d
X
1(Uji ?uj ) ,
i=1 j=1
n(Fn (u) ? ?(u)) pour u = (u1 , . . . , ud ) ? [0, 1]d ,
60
Principe d?invariance du processus empirique de copule
ou? ?(и) de?signe la mesure de Lebesgue sur I d donne?e par
?(u) = ?([0, u]) =
d
Y
ui .
i=1
Dans le cas multivarie? (d ? 2), l?e?tude du processus empirique uniforme reste
de?licate, par exemple a? cause de la transformation de quantile, et la vitesse d?approximation du processus ?n (и) par un processus gaussien dans le principe d?invariance
n?est pas optimale.
Nous de?finissons par la suite quelques processus gaussiens qui interviennent dans
l?e?tude du principe d?invariance du processus empirique uniforme multivarie?.
De?finition 2.1. Le processus
W(x) : x ? [0, ?)d
de?fini sur un espace de pro-
babilite? (?, A, P), est appele? processus de Wiener a? d-parame?tres, si W(и) est un
processus gaussien se?parable, ve?rifiant les conditions suivantes
(i) W(и) est presque su?rement continu sur [0, ?)d ,
p.s
(ii) W(x) = 0 si ?(x) = 0, et si ?(x) > 0 alors P {W(x) ? t} = ?(t?(x)?1/2 ),
Ry
pour t ? R avec ?(y) = ?12? ?? exp(?s2 /2)ds,
(iii) Les accroissements du processus W(x) : x ? [0, ?)d sont inde?pendants sur
des pave?s disjoints.
Remarque 2.1. Le processus
W(x) : x ? [0, ?)d
est un processus gaussien
centre?, a? trajectoires presque su?rement continues et de fonction de covariance
E(W(x)W(y)) = ?(x ? y)
pour x, y ? [0, ?)d .
(2.7)
De?finition 2.2. Un pont brownien a? d-parame?tres B(x) : x ? I d est de?fini par
B(x) := W(x) ? ?(x)W(1) := W(x1 , . . . , xd ) ?
d
Y
i=1
ou? W(x) est le processus de Wiener a? d-parame?tres.
xi W(1, . . . , 1),
2.1 Le processus empirique uniforme et le processus empirique de
quantile uniforme
61
Remarque 2.2. Le processus B(x) : x ? I d est un processus gaussien centre?, a?
trajectoires presque su?rement continues et de fonction de covariance
E(B(x)B(y)) = ?(x ? y) ? ?(x)?(y),
(2.8)
pour tout x, y ? [0, 1]d .
La vitesse d?approximation forte du processus empirique uniforme ?n (и) par une
suite de ponts browniens est due a? Cso?rgo? et Re?ve?sz (1975). Nous formulons leur
re?sultat principal (voir le the?ore?me [B] de l?article de Cso?rgo? et Re?ve?sz (1975)) dans
le the?ore?me suivant.
The?ore?me 2.1. Dans un espace de probabilite?s suffisamment riche, il existe une
suite de ponts browniens centre?s Bn (u) : u ? I d , n ? 1 de fonction de covariance
donne?e par (2.8), de sorte que
sup | ?n (u) ? Bn (u) |= O n?1/(2(d+1)) (log n)3/2 ,
p.s.
(2.9)
u?I d
En faisant usage de la construction de KMT pour le processus empirique uniforme et
le processus empirique de quantile uniforme et des techniques classiques de poissonnisation, la meilleure vitesse d?approximation connue pour le principe d?invariance
du processus empirique uniforme multivarie? a e?te? obtenue par Massart (1989) dans
le cas particulier de la mesure de Lebesgue sur I d . Par exemple, pour la classe des
pave?s droits ou pour les boules euclidiennes de Rd , l?ordre d?approximation du processus empirique uniforme multivarie? par un pont brownien approprie? est ve?rifie?
pour n?1/(2d) (log n)3/2 . Par contre, pour les fonctions de re?partition de?finies sur I 2 ,
Tusna?dy (1977) a fourni la meilleure vitesse d?approximation connue par un pont
brownien, d?ordre n?1/2 (log n)2 , ce qui co??ncide avec le principe d?invariance par un
62
Principe d?invariance du processus empirique de copule
processus de Kiefer dans le cas univarie?. Castelle et Laurent-Bonvalot (1998) fournissent une de?monstration plus comple?te et rigoureuse de cette approximation, ainsi
qu?un raffinement sur un pave? de type [0, a] О [0, b] de I 2 . Borisov (1980, 1982) a utilise? e?galement la construction de KMT afin de prouver un principe d?invariance du
processus empirique par une suite de ponts browniens dans le cas multivarie?. Me?me
si la vitesse d?approximation obtenue par Borisov (1982), a? savoir en n?1/2(2d?1) log n,
est moins efficace que celle e?tablie par Massart (1989), elle reste valable pour n?importe quelle fonction de re?partition multivarie?e continue et pas seulement pour la
mesure ?(и). Avant d?e?noncer le re?sultat de Borisov (1982), nous nous mettons dans
le cadre d?e?tude suivant.
Soit Xi = (X1i , . . . , Xdi ), i ? 1, une suite de vecteurs ale?atoires inde?pendants, identiquement distribue?s et de fonction de re?partition jointe F. On de?finit, pour n ? 1, la
fonction de re?partition empirique, respectivement, le processus empirique multivarie?
base? sur X1 , . . . , Xn , par
Fn (x) := n
?n;F (x) :=
?1
?
n
X
1{Xi ?x} = n
i=1
n(Fn (x) ? F(x))
?1
n Y
d
X
1(Xji ?xj ) ,
i=1 j=1
pour x = (x1 , . . . , xd ) ? Rd .
The?ore?me 2.2. Dans un espace de probabilite?s suffisamment riche (?, A, P), il
existe une suite de processus gaussiens Bn;F (x) : x ? Rd , n ? 1 , de sorte que
?1/(2(2d?1))
P sup |?n;F (x) ? Bn;F (x)| ? An
log n ? Bn?2 ,
(2.10)
x?Rd
ou? A > 0, B > 0 sont des constantes positives universelles et le processus
Bn;F (x) : x ? Rd , n ? 1 est un processus gaussien centre? de fonction de covariance
E (Bn;F (x)Bn;F (y)) = F(x ? y) ? F(x)F(y)
pour x, y ? Rd .
(2.11)
2.2 Le processus empirique de copule sur un pave? de I 2 .
63
De?monstration. voir Borisov (1982), ou bien le the?ore?me B, page 102, dans Cso?rgo?
2
et Horva?th (1988).
Dans le chapitre pre?ce?dent, voir le the?ore?me 1.2, nous avons mentionne? que la
repre?sentation de Sklar permet de construire une copule a? partir de la fonction
de re?partition jointe. Donc, on pourra e?laborer le lien entre le processus empirique
de copule et le processus empirique multivarie?. Ce qui nous permettra d?appliquer
les diffe?rents re?sultats cite?s pre?ce?demment. Tout d?abord, on commence par l?e?tude
du processus empirique bivarie? de copule sur un pave? [0, a] О [0, b], 0 ? a, b ? 1,
sous re?serve que les marges sont inde?pendantes. Nous nous inspirons dans une large
mesure des ide?es de?veloppe?es dans l?article de Deheuvels et al. (2006). Par la suite,
nous fournissons un principe d?invariance pour le processus empirique multivarie? de
copule dans le cas ge?ne?ral, i.e, les marges sont inconnues.
2.2
Le processus empirique de copule sur un pave?
de I 2.
Soit (X1 , Y1 ), (X2 , Y2 ), . . . une suite de vecteurs ale?atoires inde?pendants issus du
couple ale?atoire (X, Y ), de?fini sur un espace de probabilite?s suffisamment riche (voir
Castelle et Laurent-Bonvalot (1998)) de fonction de re?partition jointe F(и, и) et dont
les marges G(и) et H(и) sont continues. D?apre?s le the?ore?me de Sklar, il existe une
unique copule C(и, и) telle que
F(x, y) = C(G(x), H(y)) pour (x, y) ? R2 ,
d?une manie?re e?quivalente,
C(u, v) = F(G?1 (u), H ?1 (v)) pour (u, v) ? [0, 1]2 ,
64
Principe d?invariance du processus empirique de copule
ou? G?1 (u) = inf{x : G(x) ? u} et H ?1 (v) = inf{y : G(y) ? v} repre?sentent
respectivement les fonctions de quantile associe?es a? G(и) et a? H(и). Les versions
empiriques de F(и, и), G(и) et H(и) base?es sur l?e?chantillon (Xi , Yi )1?i?n sont donne?es,
respectivement, pour tout n ? 1 et (x, y) ? R2 , par
n
1X
Fn (x, y) :=
1{Xi ? x, Yi ? y},
n i=1
n
Gn (x) := Fn (x, ?) =
n
1X
1X
1{Xi ? x} et Hn (y) := Fn (?, y) =
1{Yi ? y}.
n i=1
n i=1
L?estimateur usuel de la copule C(и, и) ainsi que le processus empirique de copule
sont donne?s, respectivement, pour n ? 1 et (u, v) ? [0, 1]2 , par
?1
Cn (u, v) := Fn (G?1
n (u), Hn (v)),
Gn (u, v) := n1/2 (Cn (u, v) ? C(u, v)),
ou? G?1
n (u) = inf{t ? R : Gn (t) ? u}
et
(2.12)
Hn?1 (v) = inf{s ? R : Hn (s) ? v},
sont les fonctions de quantile empirique associe?es, respectivement, a? Gn (и) et Hn (и).
Dans cette section, nous supposons que les marges sont inde?pendantes, ce qui signifie
que C(u, v) = uv pour tout 0 ? u, v ? 1. Soit {(Ui = G(Xi ), Vi = H(Yi )) : 1 ?
i ? n} une suite de vecteurs ale?atoires inde?pendants issus du couple (U, V ). Les
marginales des variables ale?atoires U et V sont uniforme?ment distribue?es sur (0, 1).
Pour tout (u, v) ? [0, 1]2 , la fonction de re?partition jointe de (U, V ) note?e par T(и, и)
s?exprime par
T(u, v) := P(U ? u, V ? v) = F(G?1 (u), H ?1 (v)) = C(u, v) = uv.
On de?finit, pour n ? 1, la fonction de re?partition empirique Tn (и, и) ainsi que les
marges empiriques base?es sur l?e?chantillon {(Ui , Vi )}1?i?n , pour tout n ? 1 et 0 ?
2.2 Le processus empirique de copule sur un pave? de I 2 .
65
u, v ? 1, par
n
1X
Tn (u, v) :=
1{Ui ? u, Vi ? v} := Fn (G?1 (u), H ?1 (v));
n i=1
(2.13)
Un (u) = Tn (u, 1) = Gn (G?1 (u));
(2.14)
Vn (v) = Tn (1, v) = Hn (H ?1 (v)).
(2.15)
Les fonctions de quantiles empiriques associe?es a? Un (и) et Vn (и) sont donne?es, pour
0 ? u, v ? 1, par
?1
U?1
n (u) = inf{s ? 0 : Un (s) ? u} = G(Gn (u));
(2.16)
?1
V?1
n (v) = inf{t ? 0 : Vn (t) ? v} = H(Hn (v)).
(2.17)
Pour tout n ? 1, le processus empirique bivarie? base? sur l?e?chantillon {(Ui , Vi )}1?i?n ,
s?exprime par
?n (u, v) := n1/2 (Tn (u, v) ? uv) pour 0 ? u, v ? 1.
(2.18)
Pour tout n ? 1 et 0 ? u, v ? 1, les processus empiriques univarie?s, respectivement
les processus empiriques de quantiles associe?s, base? sur l?e?chantillon {(Ui , Vi )}1?i?n ,
sont donne?s par
?n;U (u) = ?n (u, 1) = n1/2 (Un (u) ? u);
(2.19)
?n;V (v) = ?n (1, v) = n1/2 (Vn (v) ? v);
(2.20)
?n;U (u) = n1/2 (U?1
n (u) ? u);
(2.21)
?n;V (v) = n1/2 (V?1
n (v) ? v).
(2.22)
On conside?re une suite de nombres positifs {kn }?
n=1 , ve?rifiant les hypothe?ses suivantes, pour tout n ? 1,
66
Principe d?invariance du processus empirique de copule
(H.1) 0 < kn ? n,
(H.2) kn ?
lorsque n ? ?,
(H.3)kn /n & ? avec 0 ? ? ? 1 lorsque n ? ?,
(H.4) kn / log2 n ? ?,
lorsque n ? ?.
Remarque 2.3. Nous notons que la suite kn ci-dessus n?est pas une suite de nombre
entiers. Pour me?moire, les seules suites entie?res telles que kn ? et n?1 kn ? 0 sont
les constantes.
Nous e?tudions alors le comportement du processus empirique de la copule sur un
pave? de type In2 := [0, kn /n] О [0, kn /n], de?fini en terme de la suite {kn }?
n=1 par
G?n (u, v)
kn kn
:= Gn u , v
n
n
pour 0 ? u, v ? 1.
(2.23)
Les expressions des processus empiriques, donne?s par (2.19)-(2.22), sur le pave? In2
seront le?ge?rement modifie?es par rapport a? l?expression (2.23). En normalisant par
(kn /n)1/2 , pour tout n ? 1 et 0 ? u, v ? 1, posons
?1/2
kn
:=
?n;U u
;
n
?1/2
kn
vkn
?
?n;V (v) :=
?n;V
;
n
n
?1/2
kn
kn
?
?n;U (u) :=
?n;U u
;
n
n
?1/2
kn
vkn
?
?n;V (v) :=
?n;V
.
n
n
?
?n;U
(u)
kn
n
(2.24)
(2.25)
(2.26)
(2.27)
Compte tenu de (2.16)-(2.17)-(2.26) et (2.27), nous avons
?1 1/2 ?
U?1
n (ukn /n) := ukn /n + n kn ?n;U (u);
(2.28)
?1 1/2 ?
V?1
n (vkn /n) := vkn /n + n kn ?n;V (v).
(2.29)
2.2 Le processus empirique de copule sur un pave? de I 2 .
67
?
?
(и) sont connus dans la litte?rature scientifique comme,
(и) et ?n;.
Les processus ?n;.
respectivement, le processus empirique uniforme de queue et le processus empirique
de quantile uniforme de queue. Ils ont fait l?objet d?e?tudes approfondies de plusieurs
auteurs. Citons, entre autres, Deheuvels (1997), Einmahl et Mason (1988a,b). Notons
que, pour tout 0 ? u, v ? 1, on a
?1
?1
?1
Tn (U?1
n (u), Vn (v)) = Fn (Gn (u), Hn (v)) = Cn (u, v).
Rappelons (2.23), nous de?composons le processus empirique de copules G?n (и, и)
comme suit
G?n (u, v)
=
=
=
=
=
ukn vkn
Gn
,
n
n
ukn vkn
ukn vkn
1/2
n
Cn
,
?
n
n
n n
ukn vkn
vkn
ukn
1/2
?1
?1
n
, Vn
?
Tn Un
n
n
n n
ukn vkn
vkn
vkn
ukn
?1
1/2
?1
?1
?1 ukn
), Vn
+n
Vn
?
?n Un (
Un
n
n
n
n
n n
vkn
kn
kn
ukn
kn
kn
?1
?1
?n Un
, Vn
+ u ?n;V v
+ v ?n;U u
n
n
n
n
n
n
kn
kn
+n?1/2 ?n;U u
?n;V v
.
(2.30)
n
n
En adoptons les me?mes notations que Deheuvels et al. (2006), nous introduisons le
?
processus empirique bivarie? ?n;0
(и, и) donne?, pour tout n ? 1 et 0 ? u, v ? 1, par
?
?n;0
(u, v)
ukn vkn
:= ?n;0
,
n
n
ukn vkn
kn
kn
kn
kn
:= ?n
,
? u ?n,V v
? v ?n,U u
. (2.31)
n
n
n
n
n
n
Pour e?tablir notre re?sultat, nous introduisons les outils ne?cessaires. Tout d?abord,
pour toute fonction borne?e f (и), on de?finit la norme sup de f (и) sur I = [0, 1] ou I =
68
Principe d?invariance du processus empirique de copule
[0, 1]2 , par kf k = supx?I |f (x)|. Le lemme suivant, du? a? Einmahl et Mason (1988a),
fournit la loi du logarithme ite?re? du processus empirique de quantile uniforme de
queue donne? en terme de la suite {kn }?
n=1 .
Lemme 2.1. Sous (H.1)-(H.4), avec probabilite? e?gale a? 1, on a
?
(u) | = 21/2 (1 ? ?)1/2
lim sup sup (log2 n)?1/2 | ?n;и
n??
lorsque 0 ? ? ? 1/2,
0?u?1
= 2?1/2 ? ?1/2
lorsque 1/2 < ? ? 1.
Le re?sultat suivant, du? a? Einmahl et Mason (1988b), n?est autre qu?une
repre?sentation du me?me type que le re?sultat de Kiefer donne? dans (2.4) ; a? la difference qu?il porte de?sormais sur le processus empirique uniforme local et le processus
empirique de quantile local. Posons
Rn;и (kn ) :=
sup |?n;и (s) + ?n;и (s)|,
(2.32)
s?[0, knn ]
rn := n?1/2 kn1/4 (log2 n)1/4 (log(kn ) + 2 log2 n)1/2 .
(2.33)
The?ore?me 2.3. Soit {kn }n?1 une suite de nombres positifs ve?rifiant (H.1)-(H.4).
(i) Si ? = 0, alors avec probabilite? e?gale a? 1, on a
lim sup rn?1 Rn;и (kn ) ? 21/4 ,
(2.34)
n??
si de plus log(kn )/ log2 n ? ? quand n ? ?, alors en (2.34) on a une
e?galite?.
(ii) Si 0 < ? ? 1, alors avec probabilite? e?gale a? 1, on a
lim sup rn?1 Rn;и (kn ) = 21/4 (1 ? ?)1/4 ,
0 < ? ? 1/2,
n??
= 2?1/4 ? ?1/4 ,
1/2 < ? ? 1.
2.2 Le processus empirique de copule sur un pave? de I 2 .
69
Comme le processus empirique de copule s?e?crit en fonction du processus empirique
uniforme e?value? aux fonctions de quantiles empiriques univarie?s, nous sommes amene?
a? l?e?tude des oscillations du processus empirique ?n (и) afin d?e?liminer l?effet des
marges inconnues. Soit wn (и) le module d?oscillation du processus empirique ?n (и)
donne? par
wn (h) :=
sup
| ?n (L) |
pour h ? (0, 1),
(2.35)
L?R:|L|?h
avec R := {[s, t] = [s1 , t1 ] О . . . О [sd , td ] : 0 ? sj ? tj ? 1 pour j = 1, . . . , d} et
Q
|L| = |t ? s| = dj=1 |tj ? sj |. Le the?ore?me suivant nous sera tre?s utile dans certaines
de?monstrations, voir Einmahl et Ruymgaart (1987).
The?ore?me 2.4. Soit {hn }n?1 une suite de nombres positifs dans (0, 1) telle que
hn ? 0 lorsque n ? ?, ve?rifiant
i)nhn ? ?,
ii)nhn / log n ? ?,
iii) log(1/hn )/ log log n ? ?.
Alors, avec probabilite? 1, on a
lim (2hn log(1/hn ))?1/2 wn (hn ) = 1.
n??
(2.36)
Afin de contro?ler l?e?cart du processus ?n (и, и), nous faisons usage d?un lemme du? a?
Deheuvels et al. (2006) et qui est fondamental pour notre preuve.
Lemme 2.2. Pour 0 ? u1 , v1 , u2 , v2 ? 1, nous avons
| ?n (u1 , v1 ) ? ?n (u2 , v2 ) |? 3 О wn (|u1 ? u2 | ? |v1 ? v2 |).
(2.37)
Nous avons les outils ne?cessaires pour e?noncer notre re?sultat, qui consiste a? de?crire le
comportement du processus empirique bivarie? de copule sur le pave? [0, knn ] О [0, knn ].
70
Principe d?invariance du processus empirique de copule
The?ore?me 2.5. Soit {kn }n?1 une suite de nombres positifs, ve?rifiant les hypothe?ses
(H1) ? (H4) . Alors, nous avons presque su?rement,
(i) si 0 < ? ? 1/2,
?
lim sup n1/2 kn?1/4 (log2 n)?1/4 (log n)?1/2 kG?n ? ?n;0
k ? [3 О 2?1/4 + ?25/4 ](1 ? ?)1/4 ;
n??
(2.38)
(ii) si 1/2 < ? ? 1,
?
lim sup n1/2 kn?1/4 (log2 n)?1/4 (log n)?1/2 kG?n ? ?n;0
k ? [3 О 2?3/4 + ?23/4 ]? ?1/4 .
n??
(2.39)
De?monstration. Pour tout n ? 1 et 0 ? u, v ? 1, on a
G?n (u, v)
?
?
?n;0
(u, v)
vkn
kn kn
ukn
?1
?1
, Vn
? ?n u , v
= ?n Un
n
n
n
n
kn
kn
kn
kn
kn
kn
+v
?n;U u
+ ?n;U u
+u
?n;V v
+ ?n;V v
n
n
n
n
n
n
kn
kn
+ n?1/2 ?n;U u
?n;V v
n
n
kn
kn
= Rn;0 (u, v) + v Rn;U (u) + u Rn;V (v) + Rn (u, v).
n
n
Nous traitons chaque quantite? se?pare?ment. Pour le choix particulier de u1 =
ukn
kn
?1 vkn
U?1
,
u
=
u
,
v
=
V
et v2 = v knn dans le lemme 2.2, en combinant
2
1
n
n
n
n
n
(2.28)-(2.29) avec (2.37), nous avons , avec probabilite? 1 et pour tout n suffisamment
grand,
sup |Rn;0 (u, v)| ? 3 О wn (|u1 ? u2 | ? |v1 ? v2 |).
0?u,v?1
Compte tenu des changements de variables attribue?s a? u1 , u2 , v1 et v2 , nous avons
?
?
|u1 ? u2 | = n?1 kn1/2 k?n;U
k et |v1 ? v2 | = n?1 kn1/2 k?n;V
k.
2.2 Le processus empirique de copule sur un pave? de I 2 .
71
En premier, nous supposons que 0 ? ? ? 1/2, d?apre?s le lemme 2.1, on a
?
?
k?n;U
k = k?n;V
k = O (log2 n)1/2 ,
ainsi, |u1 ? u2 | ? |v1 ? v2 | = O
1/2
n?1 kn
log2 n
1/2
.
1/2
Fixons > 0, pour hn = (1 + )n?1 [2(1 ? ?)]1/2 kn (log2 n)1/2 dans le the?ore?me 2.4,
nous avons presque su?rement,
?
lim sup n1/2 kn?1/4 (log2 n)?1/4 (log n)?1/2 wn (|u1 ?u2 |?|v1 ?v2 |) = 2?1/4 (1??)1/4 1 + .
n??
Pour le choix d?un > 0 assez petit, nous avons
lim sup n1/2 kn?1/4 (log2
n??
n)
?1/4
?1/2
(log n)
1??
sup |Rn;0 (u, v)| ? 3 О
2
0?u,v?1
1/4
.(2.40)
Par la suite, posons
Vn := n1/2 kn?1/4 (log2 n)?1/4 (log n)?1/2 .
Pour le second terme, Rn;U (u), rappelons les de?finitions (2.32) et (2.33) de la
repre?sentation de Bahadur-Kiefer du processus empirique local, ainsi
1/2
kn
log(kn ) + 2 log2 n
lim sup Vn sup |Rn;U (u)|
? lim sup
О
rn?1 Rn;U (kn ).
n
log n
n??
n??
0?u?1
h
i
)+2 log2 n
Sous les conditions (H.1)-(H.4), on remarque que la limite de log(knlog
tend
n
vers 1 lorsque n ? ?, d?ou?
lim sup Vn
n??
sup |Rn;U (u)| ? 21/4 ?(1 ? ?)1/4 .
(2.41)
0?u?1
D? une fac?on similaire, on a
lim sup Vn sup |Rn;V (v)| ? 21/4 ?(1 ? ?)1/4 .
n??
0?v?1
(2.42)
72
Principe d?invariance du processus empirique de copule
Comme k?n;U k = k?n;V k = O (kn log2 n)1/2 , alors
lim sup Vn sup |Rn (u, v)| = 0.
n??
(2.43)
0?u,v?1
En tenant compte de (2.40),(2.41),(2.42) et de (2.43), nous obtenons (2.38).
Dans le cas ou? 1/2 < ? ? 1, le principe de la de?monstration reste le me?me en
prenant
hn = (1 + )n?1 2?1/2 ? ?1/2 kn1/2 (log2 n)1/2 log n.
2
D?une manie?re formelle, le the?ore?me 2.5 nous dit que l?erreur d?approximation du
processus empirique bivarie? de copule par le processus empirique ?n? (и, и) sur un
1/4
pave? [0, knn ]2 est de l?ordre de n?1/2 kn (log2 n)1/4 (log n)1/2 . Comme
kn
n
& ?, lorsque
n ? ?, alors notre re?sultat reste valable sur [0, ?]2 ou? 0 < ? ? 1, puisque
sup |Gn (u, v) ? ?n;0 (u, v)| ?
0?u,v??
sup
|Gn (u, v) ? ?n;0 (u, v)|.
0?u,v? knn
Dans le cas univarie?, Mason et van Zwet (1987) ont donne? un raffinement du principe
d?invariance sur un petit intervalle de I. Pour une dimension supe?rieure, Castelle et
Laurent-Bonvalot (1998) ont donne? un raffinement du principe d?invariance pour le
processus empirique uniforme bivarie?. Nous exposons leur re?sultat dans le the?ore?me
suivant.
The?ore?me 2.6. Soit ?n (и, и) le processus empirique de?finit par (2.18). Il existe une
suite de ponts browniens bidimensionnels {Bn (u, v) : 0 ? u, v ? 1, n ? 1} telle que
2.3 Le processus empirique de copule multivarie?e
73
pour tout x > 0 et (a, b) ? [0, 1]2 , on a avec probabilite? 1,
(
sup
P
)
|?n (u, v) ? Bn (u, v)| ? n?1/2 (x + ?1 log(nab)) log(nab)
? r1 exp(?l1 x)
(u,v)?[0,a]О[0,b]
(2.44)
(
)
sup |?n (u, 1) ? Bn (u, 1)| ? n?1/2 (x + ?0 log(na))
P
? r0 exp(?l0 x)
(2.45)
? r0 exp(?l0 x).
(2.46)
u?[0,a]
(
)
?1/2
sup |?n (1, v) ? Bn (1, v)| ? n
P
(x + ?0 log(nb))
v?[0,b]
ou? ?0 , ?1 , r0 , r1 , l0 et l1 sont des constantes universelles strictement positives.
Conside?rons le processus gaussien suivant
B?n (s, t) = Bn (s, t) ? sBn (1, t) ? tBn (s, 1)
pour 0 ? s, t ? ?.
Compte tenu du the?ore?me 2.5 et selon les cas 0 < ? ? 1/2 ou? 1/2 < ? ? 1, nous
obtenons la proposition suivante.
Proposition 2.1. Nous avons, avec probabilite? 1,
(i) si 0 < ? ? 1/2,
lim sup(n/?)1/4 (log2 n)?1/4 (log n)?1/2 kG?n ? B?n k ? [3 О 2?1/4 + ?25/4 ](1 ? ?)1/4 ;
n??
(ii) si 1/2 < ? ? 1,
lim sup(n/?)1/4 (log2 n)?1/4 (log n)?1/2 kG?n ? B?n k ? [3 О 2?3/4 + ?23/4 ]? ?1/4 .
n??
2.3
2.3.1
Le processus empirique de copule multivarie?e
Introduction
Soit Xi = (Xi1 , и и и , Xid ), i = 1, . . . , n, pour n ? 2, une suite de vecteurs i.i.d., a?
valeurs dans Rd , de?finis sur le me?me espace de probabilite? (?, A, P) (suffisamment
74
Principe d?invariance du processus empirique de copule
riche), de fonction de re?partition jointe F(и) et de marginales continues Fj (и), j =
1, и и и , d. Soit C(и) la copule associe?e a? F(и), d?apre?s Sklar (1959)
F (x1 , . . . , xd ) = C (F1 (x1 ), . . . , Fd (xd ))
pour x ? Rd ,
(2.47)
comme les marginales Fi (и) sont continues, la copule est unique et de?finie par
C(u1 , . . . , ud ) = F(F1?1 (u1 ), . . . , Fd?1 (ud )) pour u ? [0, 1]d .
(2.48)
On de?finit, respectivement, la fonction de re?partition empirique multivarie?e Fn (и), la
?1
fonction de re?partition marginale empirique Fj,n (и) et le quantile empirique Fj,n
(и)
associe? a? Fj,n (и), pour tout n ? 1, par
n
1X
Fn (x) :=
1{Xi1 ?x1 ,...,Xid ?xd }
n i=1
pour x = (x1 , . . . , xd ) ? Rd ,
n
1X
1{Xij ?xj }
Fj,n (xj ) =
n i=1
?1
Fj,n
(u) = inf {t : Fj,n (t) ? u}
pour xj ? R,
pour j = 1, . . . , d.
Par passage empirique direct, la copule empirique usuelle est donne?e par
?1
?1
Cn (u) = Fn F1,n
(u1 ), . . . , Fd,n
(ud )
pour u ? [0, 1]d .
Le processus empirique multivarie? et le processus empirique de copule s?expriment
respectivement par
?n;F (x) = n1/2 (Fn (x) ? F(x))
Gn (u) = n1/2 (Cn (u) ? C(u))
pour x ? Rd ,
(2.49)
pour u ? [0, 1]d .
(2.50)
Dans une se?rie d?articles, Deheuvels (1978, 1979b) a e?tudie? la consistance de Cn (и) et
le comportement asymptotique du processus empirique de copule sous l?hypothe?se
d?inde?pendance des marginales. Il a e?tabli un the?ore?me limite de type multivarie?
2.3 Le processus empirique de copule multivarie?e
75
prouvant que la convergence faible multivarie?e peut toujours e?tre de?compose?e en
convergence faible de la copule et en convergence faible des marginales. Dans ce cas
pre?cis, le processus Gn (и) converge faiblement vers un processus gaussien B?(и) centre?
de fonction de covariance
d
d
d
Y
Y
X
Y
E B?(u)B?(v) =
(ui ? vi ) + (d ? 1)
ui vi ?
(ui ? vi )
ui vj
i=1
i=1
i=1
(2.51)
j6=i
pour u, v ? [0, 1]d . Re?cemment, Deheuvels et al. (2006) ont e?tabli que la vitesse
d?approximation du processus empirique bivarie? de copule par une suite de processus
gaussien convenable est de l?ordre de n?1/4 (log n)1/2 (log log n)1/4 . Lorsque d ? 3 et
sous re?serve que les marginales soient inde?pendantes, Deheuvels (2009) a prouve?
que la vitesse d?approximation du processus Gn (и) par une suite de ponts browniens
attache?s est de l?ordre de n?1/2d (log n)2/d . Dans le cas contraire ; c?est-a?-dire C(u) 6=
Qd
i=1 ui , le comportement asymptotique du processus empirique de copule a e?te?
de?veloppe? dans plusieurs travaux et dans divers espaces. Par exemple, Stute (1984)
a e?tabli la convergence faible du processus Gn (и) vers un processus gaussien dans
D [0, 1]d et Van der Vaart et Wellner (1996) dans l?espace `? [a, b]d lorsque 0 <
a < b < 1. Sous re?serve que les de?rive?es partielles d?ordre 1 de C(и) soient continues
et en moyennant la delta-me?thode, Fermanian et al. (2004) ont e?tabli le the?ore?me
suivant.
The?ore?me 2.7. Soit F(и) une fonction de re?partition d-dimensionnelle associe?e a?
une copule C(и). On suppose que, pour tout i = 1, . . . , d, les de?rive?es partielles d?ordre
1 de C(и) note?es
?C(и)
?ui
existent et sont continues. Alors, le processus empirique Gn (и)
converge faiblement vers un processus gaussien centre? BC (и) dans `? ([0, 1]d ). De
76
Principe d?invariance du processus empirique de copule
plus, le processus BC (и) admet la repre?sentation suivante
d
X
?C(u)
pour u ? Id ,
(2.52)
?u
i
i=1
ou? ui = (1, . . . , 1, ui , 1 . . . , 1) et BC (u) : u ? I d est un processus gaussien centre?,
BC (u) = BC (u) ?
BC (ui )
de fonction de covariance
E (BC (u)BC (v)) = C (u ? v) ? C(u)C(v)
2.3.2
pour u, v ? Id .
(2.53)
Repre?sentation presque su?re du processus empirique
de copule
Le the?ore?me suivant donne une repre?sentation en presque su?re du processus empirique bivarie? de copule. Il suit que chaque processus empirique de copule s?e?crit
comme somme d?une suite de variables uniforme?ment distribue?es sur [0, 1]2 et d?un
reste dont la norme supe?rieure est de l?ordre de n?1/4 (log n)1/2 (log log n)1/4 . Nous
de?veloppons le re?sultat de Stute (1984) en supposant que les marginales sont continues, inconnues et pas forcement inde?pendantes.
The?ore?me 2.8. Soit (X, Y ) un couple de variables ale?atoires de fonction de
re?partition jointe H(и, и) et de marginales F (и) et G(и) continues. Soit C(и, и) la copule
associe?e a? H(и, и) dont les de?rive?es partielles d?ordre 1 sont continues. Alors
n
1 X
Gn (u, v) := ?
?i (u, v) + Rn (u, v),
n i=1
(2.54)
ou?
?i (u, v) := 1{Ui ? u, Vi ? v} ? C(u, v) ? {1{Ui ? u} ? u}
? (1{Vi ? v} ? v)
et
?C(u, v)
,
?v
sup | Rn (u, v) | = O n?1/4 (log n)1/2 (log log n)1/4 .
0?u,v?1
?C(u, v)
?u
2.3 Le processus empirique de copule multivarie?e
77
De?monstration.
Dans le the?ore?me pre?ce?dent, on se restreint au cas bivarie?. Mais la de?monstration
peut s?e?tendre au cas multivarie? en utilisant les me?mes techniques et les me?mes
outils (voir, plus loin, la de?monstration du the?ore?me 2.9) .
On de?compose le processus empirique de copules de la manie?re suivante
? ?1
?1
n Fn (F1,n
(u), F2,n
(v)) ? F(F1?1 (u), F2?1 (v))
? ?1
?1
?1
?1
n Fn (F1,n
(u), F2,n
(v)) ? F(F1,n
(u), F2,n
(v))
=
? ?1
?1
+ n F(F1,n
(u), F2,n
(v)) ? F(F1?1 (u), F2?1 (v))
Gn (u, v) =
= ?n;F (F1?1 (u), F2?1 (v))
?1
?1
+ ?n;F (F1,n
(u), F2,n
(v)) ? ?n;F (F1?1 (u), F2?1 (v))
? ?1
?1
+ n F(F1,n
(u), F2,n
(v)) ? F(F1?1 (u), F2?1 (v))
:= ?n,1 (u, v) + ?n,2 (u, v) + ?n,3 (u, v).
(2.55)
E?tudions chaque terme se?pare?ment :
L?e?tude du terme ?n,3 (u, v) : On applique le de?veloppement de Taylor a? l?ordre
1, on obtient
? ?1
?1
n F(F1,n
(u), F2,n
(v)) ? F(F1?1 (u), F2?1 (v))
? ?1
?1
(u), F2 ? F2,n
(v)) ? C(u, v)
=
n C(F1 ? F1,n
?C(u, v)
?C(u, v)
?
?1
?1
=
n F1 ? F1,n (u) ? u
+ F2 ? F2,n (v) ? v
?u
?v
+O n?1/2 (log n)1/2 .
(2.56)
?n,3 (u, v) :=
Posons
Ui := F1 (X1,i ) et Vi := F2 (Y2,i ) pour i = 1, 2, . . . , n.
Les variables ale?atoires Ui et Vi sont uniforme?ment distribue?es sur (0, 1) et de
?
?
fonction de re?partition jointe C(и, и). Notons par F1,n
(и) et F2,n
(и) les fonctions
78
Principe d?invariance du processus empirique de copule
de re?partition empiriques associe?es, respectivement, aux e?chantillons U1 , . . . , Un et
??1
??1
V1 , . . . , Vn . Soient F1,n
(и) et F2,n
(и) les quantiles empiriques associe?s respectivement
?
?
(и).
(и) et F2,n
aux fonctions de re?partition empiriques F1,n
Remarquons au de?part que
??1
?1
??1
?1
F1,n
(u) = F1 ? F1,n
(u) et F2,n
(v) = F2 ? F2,n
(v)
pour (u, v) ? [0, 1]2 . (2.57)
Pour tout 0 ? u, v ? 1, de?finissons les processus suivants
?
?
n F1,n
(u) ? u = ?n;F (F1?1 (u), F2?1 (1));
?
?
n F2,n
(v) ? v = ?n;F (F1?1 (1), F2?1 (v));
?n(2) (v) :=
?
?
??1
?1
?n(1) (u) :=
n F1,n
(u) ? u = n F1 ? F1,n
(u) ? u ;
?
?
??1
??1
n F2,n
?n(2) (v) :=
(v) ? v = n F2,n
(v) ? v .
?n(1) (u) :=
(1)
(2.58)
(2.59)
(2.60)
(2.61)
(2)
Ici, observons que ?n (и) (resp ?n (и)) est le processus empirique uniforme base?
(i)
sur l?e?chantillon U1 , . . . , Un (resp. V1 , . . . , Vn ) et ?n (и), i = 1, 2, sont les processus
empiriques de quantiles uniformes associe?s. D?apre?s Kiefer (1967), on sait que
lim sup n1/4 (log n)?1/2 (log log n)?1/4 ?n(1) (u) + ?n(1) (u) = 2?1/4 p.s.
(2.62)
n??
En combinant les relations (2.58)-(2.59) et (2.62) avec (2.56), nous obtenons
?C(u, v)
?C(u, v)
+ ?n(2) (v)
?u
?v
?C(u, v)
?C(u,
v)
?C(u,
v)
= ??n(1) (u)
? ?n(2) (v)
+ ?n(1) (u) + ?n(1) (u)
?u
?v
?u
?C(u,
v)
+ ?n(2) (v) + ?n(2) (v)
+ OP n?1/2 (log n)1/2
?v
?C(u, v)
?C(u, v)
= ??n;F (F1?1 (u), F2?1 (1))
? ?n;F (F1?1 (1), F2?1 (v))
?u
?v
+O n?1/4 (log n)1/2 (log log n)1/4 .
(2.63)
?n,3 (u, v) = ?n(1) (u)
2.3 Le processus empirique de copule multivarie?e
79
L?e?tude du terme ?n,2 (u, v) :
Rappelons que
?1
?1
?n,2 (u, v) = ?n;F (F1,n
(u), F2,n
(v)) ? ?n;F (F1?1 (u), F2?1 (v)).
On voit aise?ment que
??1
??1
(v)) ? ?n (u, v)|,
(u), F2,n
sup |?n,2 (u, v)| = sup |?n (F1,n
0?u,v?1
(2.64)
0?u,v?1
ou? ?n (и, и) est le processus empirique uniforme bivarie? base? sur (Ui , Vi ) pour i =
1, . . . , n. D?apre?s Chung (1949), avec probabilite? 1, nous avons
k?n(1) k = k?n(2) k = O n?1/2 (log log n)1/2 .
Soit > 0 fixe?, par application du lemme 2.2 et en attribuant a? hn la valeur hn =
(1 + )2?1/2 n?1/2 (log log n)1/2 dans le the?ore?me 2.4, nous obtenons
sup |?n,2 (u, v)| ? 3wn (hn ) = O n?1/4 (log n)1/2 (log log n)1/4 . (2.65)
0?u,v?1
2
En combinant (2.55), (2.63) et (2.65) on a le re?sultat (2.54.
2.3.3
Re?sultat principal
Lorsque les marges sont inconnues, nous e?nonc?ons un principe d?invariance du
processus empirique de copule comme suit
The?ore?me 2.9. On suppose que les marginales Fj (и), 1 ? j ? d, de la fonction
de re?partition F(и) sont continues, que la copule C(и) associe?e a? F(и) est deux fois
de?rivable sur (0, 1)d et que les de?rive?es secondes soient continues sur (0, 1)d . Alors,
il existe une suite de processus gaussiens Bn;C (u) : u ? [0, 1]d , n ? 1 de me?me loi
que BC (u) : u ? [0, 1]d , telle que
sup |Gn (u) ? Bn;C (u)| = O n?1/(2(2d?1)) log(n) ,
u?[0,1]d
p.s.,
(2.66)
80
Principe d?invariance du processus empirique de copule
ou?
Bn;C (u) = Bn;C (u) ?
d
X
(j)
Bn;C (uj )
j=1
?C(u)
,
?uj
u ? [0, 1]d .
(2.67)
(j)
Avec Bn;C (uj ) = Bn;C (1, и и и , 1, uj , 1, и и и , 1) est un processus gaussien dont la j e?me
composante est uj et dont les (d?1) autres composantes sont e?gales a? 1. Le processus
Bn;C (и) est un processus gaussien centre? de fonction de covariance donne?e par (2.53).
De?monstration.
Soient X1 , X2 , . . . , une suite de vecteurs ale?atoires inde?pendants a? valeurs dans Rd ,
de fonction de re?partition jointe F(и), dont les marginales Fj (и), 1 ? j ? d sont
continues. D?apre?s le the?ore?me de Sklar, la copule C(и) associe?e a? F(и) admet la
repre?sentation
C(u1 , . . . , ud ) = F(Q(u)) pour u ? [0, 1]d ,
avec Q(u) = (F1?1 (u1 ), . . . , Fd?1 (ud )).
Posons Ui = F(Xi ), pour tout i ? 1, une suite de pseudo-observations
inde?pendantes, uniforme?ment distribue?es sur (0, 1)d et de fonction de re?partition
jointe continue T(и). On constate que
T(u) = P(U ? u) = P(X ? Q(u)) = C(u) pour u ? [0, 1]d .
Pour tout n ? 1, la fonction de re?partition empirique, les marges empiriques ainsi
que les quantiles empiriques associe?es, base?es sur U1 , . . . , Un sont de?finies, respectivement, par
n
1X
Tn (u) =
1{Ui ? u} = Fn (Q(u)) pour u ? [0, 1]d ;
n i=1
n
1X
Tn;j (uj ) =
1{Uij ? uj } = Fn;j (Fj?1 (uj ));
n i=1
?1
Tn;j
(uj ) = inf {t : Tn;j (t) ? uj }
pour uj ? [0, 1] et j = 1, . . . , d.
2.3 Le processus empirique de copule multivarie?e
81
Pour tout n ? 1, conside?rons le processus empirique multivarie? suivant
?n;T (u) =
?
n(Tn (u) ? T(u)) pour u ? [0, 1]d .
(2.68)
Conside?rons, pour tout n ? 1 et uj ? [0, 1], j = 1, . . . , d, les processus empiriques
univarie?s suivant
?n;j (uj ) =
?n;j (uj ) =
?
?
n(Tn;j (uj ) ? uj ) = ?n;T (1, uj , 1);
(2.69)
?1
n(Tn;j
(uj ) ? uj ).
(2.70)
D?apre?s (2.54) et compte tenu des diffe?rentes notations adopte?es pre?ce?demment, le
processus empirique de copule se de?compose comme suit.
?1
?1
Gn (u) = ?n;T (u + n?1/2 ?n (u)) + n1/2 C Tn;1
(u1 ), . . . , Tn;d
(ud )
= ?n;T (u) + ?n;T (u + n?1/2 ?n (u)) ? ?n;T (u)
+n1/2 C(u + n?1/2 ?n (u)) ? C(u)
= ?n;T (u) + ?1 (u, n) + ?2 (u, n),
(2.71)
avec (u + n?1/2 ?n (u)) = (u1 + n?1/2 ?n;1 (u1 ), . . . , ud + n?1/2 ?n;d (ud )). Rappelons
les processus gaussiens Bn;F (и) et Bn;C (и) posse?dant, respectivement, les proprie?te?s
(2.11) et (2.53). Nous avons les e?galite?s en distribution suivantes
Bn;C (u) : u ? [0, 1]d ? Bn;F (Q(u)) : u ? [0, 1]d ? Bn;T (u) : u ? [0, 1]d
Suite a? cette remarque et d?apre?s le the?ore?me 2.2, nous avons
sup |?n;T (u) ? Bn;C (u)| = O n?1/(2(2d?1)) log n
p.s.
(2.72)
u?[0,1]d
Majoration du terme ?2 (u, n) :
Compte tenu des conditions porte?es sur la copule C(и) et a? l?aide du de?veloppement
82
Principe d?invariance du processus empirique de copule
de Taylor, nous obtenons
?2 (u, n) =
d
X
?C(u) ?
j=1
?ui
?1
n(Tn;j
(uj ) ? uj ) + O(n?1/2 log log n).
Selon la de?finition du processus empirique ?n;T (и) donne?e par (2.68), pour tout uj ?
[0, 1], j = 1, . . . , d, nous avons
?
?
?
?1
?1
?1
?1
n(Tn;j
(uj ) ? uj ) = ? n Tn;j (Tn;j
(uj )) ? Tn;j
(uj ) + n Tn;j (Tn;j
(uj )) ? uj
?1
= ??n;T (1, Tn;j
(uj ), 1) +
?
?1
n(Tn;j (Tn;j
(uj )) ? uj ).
?1
En utilisant le fait que |Tn;j (Tn;j
(uj )) ? uj | ? 1/n et la loi du logarithme ite?re? de
Chung (1949), nous avons, presque su?rement,
?2 (u, n) = ?
d
X
?C(u)
j=1
?uj
?1
?n;T (1, Tn;j
(uj ), 1) + O(n?1/2 log log n).
(2.73)
D?apre?s Stute (1982), p. 99, nous avons, presque su?rement,
?1
sup |?n;T (1, Tn;j
(uj ), 1)??n;T (1, ui , 1)| = O(n?1/4 (log n)1/2 (log log n)1/4 ). (2.74)
uj ?[0,1]
Compte tenu de (2.73) et (2.74), nous avons, presque su?rement,
?2 (u, n) = ?
d
X
?C(u)
i=1
?ui
?n;T (1, ui , 1) + O(n?1/4 (log n)1/2 (log log n)1/4 ),(2.75)
Majoration du terme ?1 (u, n) :
Tout d?abord, remarquons que l?expression ?1 (u, n) exprime la diffe?rence du processus empirique multivarie? ?n;T (и) e?value? entre (u + n?1/2 ?n (u)) et u, et que
supu?[0,1]d |?1 (u, n)| repre?sente son module d?oscillation de?fini dans (2.35). D?apre?s
Stute (1984), the?ore?me 1.7, il existe deux constantes positives k1 et k2 de sorte que
P(wn (hn ) > s) ?
k1 hdn
k2 s2
exp ?
.
hn
(2.76)
2.3 Le processus empirique de copule multivarie?e
83
En vertu de L.I.L de Chung (1949), nous choisissons hn = n?1/2 (log log n)1/2 dans
(2.76). Pour ce choix de an , nous prenons s := sn = n?1/4 (log n)1/2 (log log n)1/4 afin
que
?
X
hdn
i=1
k2 s2
exp ?
< ?.
hn
Ce qui implique, d?apre?s le lemme de Borel-Cantelli, que
sup |?1 (u, n)| ? const.wn (hn ) = O(n?1/4 (log n)1/2 (log log n)1/4 )
(2.77)
u?[0,1]d
En regroupant (2.71),(2.75) et (2.77) nous obtenons une ge?ne?ralisation de la
repre?sentation presque su?re du processus empirique de copule e?tablie dans le
the?ore?me 2.8. Ainsi nous avons
Gn (u) = ?n;T (u) ?
d
X
?C(u)
i=1
?ui
?n;T (1, ui , 1) + O(n?1/4 (log n)1/2 (log log n)1/4 ).(2.78)
Rappelons d?apre?s (2.67) que le processus gaussien limite s?exprime, pour tout n ? 1,
par
Bn;C (u) = Bn;C (u) ?
d
X
(j)
Bn;C (uj )
j=1
?C(u)
,
?uj
pour u ? [0, 1]d .
Par application de l?ine?galite? triangulaire, nous obtenons
sup |Gn (u) ? Bn;C (u)| ?
u?[0,1]d
sup |?n;T (u) ? Bn;C (u)|
u?[0,1]d
d
X
?C(u)
(j)
+
| sup | ?n;T (1, ui , 1) ? Bn;C (uj ) |
|
?uj
0?uj ?1
j=1
+O(n?1/4 (log n)1/2 (log log n)1/4 ),
? (1 + d)O n?1/(2(2d?1)) log n + O n?1/4 (log n)1/2 (log log n)1/4 .
Ce qui ache?ve la de?monstration.
2
84
Principe d?invariance du processus empirique de copule
2.4
Estimation non-parame?trique de la densite?
de copule
Soit (X1,1 , X1,2 ), (X2,1 , X2,2 ), . . . , une suite de vecteurs ale?atoires inde?pendants et
identiquement distribue?s [i.i.d.], issus d?un vecteur ale?atoire X = (X1 , X2 ), a? valeurs
dans R2 et de fonction de re?partition jointe F(x) = P(X ? x), pour x ? R2 . D?apre?s
Sklar, la fonction de re?partition jointe F(и, и) admet la repre?sentation suivante
F(x, y) = C(F1 (x), F2 (y))
pour (x, y) ? R2 ,
(2.79)
ou? C(и, и) est la copule associe?e au vecteur ale?atoire X = (X1 , X2 ) dont les marges
sont F1 (и) et F2 (и). Nous de?finissons les fonctions de quantiles associe?es a? Fj (и), pour
j = 1, 2, par
?
?
?
inf{x : Fj (x) ? t} pour t ? (0, 1),
?
?
?
Fj?1 (t) =
limu?0 Fj?1 (u)
pour t = 0,
?
?
?
?
? lim F ?1 (u)
pour t = 1.
u?1 j
(2.80)
A? partir de la relation (2.9) et gra?ce a? la transformation quantile, nous avons
C(u, v) = F(F1?1 (u1 ), F2?1 (u2 ))
pour (u1 , u2 ) ? [0, 1]2 .
(2.81)
Nous supposons, par la suite, que les marges Fj (и), pour j = 1, 2, sont continues
afin de nous assurer de l?unicite? de la copule C(и, и). Nous introduisons les notations
suivantes. La fonction de re?partition jointe empirique et les marges empiriques base?es
sur (X1,1 , X1,2 ), . . . , (Xn,1 , Xn,2 ) sont donne?es, respectivement, pour tout n ? 1 et
x = (x1 , x2 ) ? R?2 , par
n
2
1 XY
1{Xij ? xj },
Fn (x) :=
n i=1 j=1
n
1X
Fjn (xj ) :=
1{Xij ? xj }
n i=1
pour j = 1, 2.
2.4 Estimation non-parame?trique de la densite? de copule
85
On de?finit la fonction de quantile empirique associe?e a? Fjn (xj ) , pour j = 1, 2 et
n ? 1, par la formule
?
?
?
inf{x : Fjn (x) ? t}
?
?
?
?1
?1
Fjn
(t) =
limu?0 Fjn
(u)
?
?
?
?
? lim F ?1 (u)
u?1 jn
pour
t ? (0, 1),
pour
t = 0,
pour
t = 1.
(2.82)
D?apre?s la repre?sentation (2.81) et par passage empirique direct, l?estimateur nonparame?trique de la copule, respectivement, le processus empirique de copule, s?exprime par
?1
?1
Cn (u1 , u2 ) = Fn (F1n
(u1 ), F2n
(u2 )),
Gn (u1 , u2 ) = n1/2 {Cn (u1 , u2 ) ? C(u1 , u2 )}
(2.83)
pour (u1 , u2 ) ? [0, 1]2 . (2.84)
Dans ce qui suit, les variables ale?atoires conside?re?s sont de?finis sur l?espace de probabilite?s (?, A, P ) introduit par Cso?rgo? et Horva?th (1993). Nous supposons que la
copule C(и, и) est deux fois continu?ment de?rivable et donc elle admet une densite?,
note?e c(и, и), par rapport a? la mesure de Lebesgue. On remarque que cette densite?
repre?sente la densite? jointe du couple (U1 , U2 ) = (F1 (X1 ), F2 (X2 )), ainsi un estimateur non-parame?trique simple et naturel de la densite? c(и, и) pourrait avoir la
forme d?un estimateur a? noyau de type Parzen-Rozenblatt (voir Parzen (1962) et
Rosenblatt (1956)), donne? par
n
1 X
u1 ? Ui,1 u2 ? Ui,2
c?n (u1 , u2 ) =
K
,
,
nh2n i=1
hn
hn
ou? K(и, и) est une fonction mesurable sur R2 et {hn } est une suite de nombres re?els
positifs telle que limn?? hn = 0. Cependant, les marges F1 (и) et F2 (и) sont inconnues,
par conse?quent les vecteurs ale?atoires (Ui,1 , Ui,2 ) ne sont pas observables et donc
l?estimateur c?n (и, и) de la densite? de copule cn (и, и) n?est pas le mieux approprie?. C?est
86
Principe d?invariance du processus empirique de copule
pourquoi, nous pouvons approximer les pseudo-observations (Ui,1 , Ui,2 ), i = 1, . . . , n,
2
1
) = (F1n (Xi,1 ), F2n (Xi,2 )), i = 1, . . . , n. Or,
, Uin
par leurs quantite?s empiriques (Uin
pour les pseudo-observations F1n (Xi,1 ) et F2n (Xi,2 ) la densite? peut exposer de valeurs
infinies au niveau des ces bords. Afin d?e?viter cette situation, nous remplac?ons les
1
2
1
2
pseudo-observations (Uin
, Uin
) par (U?in
, U?in
) = (F?1n (Xi,1 ), F?2n (Xi,2 )), i = 1, . . . , n,
avec
n
n
1 X
F?1n (x) =
F1n (x) =
1{Xi,1 ? x},
n+1
n + 1 i=1
n
F?2n (x) =
n
1 X
F2n (x) =
1{Xi,2 ? x},
n+1
n + 1 i=1
sont les versions empiriques rescale?es associe?es, respectivement, aux marginales F1 (и)
et F2 (и) et 1{A} repre?sente la fonction indicatrice d?un ensemble mesurable A.
2
1
n?est autre que le
et U?in
On peut noter au passage que les pseudo-observations U?in
quotient des rangs statistiques des variables Xi,1 et Xi,2 par n+1 et qu?elles prennent
leurs valeurs dans l?ensemble
1
n
,...,
n+1
n+1
.
(2.85)
L?estimateur de la densite? de copule a e?te? introduit dans Behnen et al. (1985). Ils
conside?rent des noyaux syme?triques et fournissent leurs re?sultats dans un contexte de
donne?es non censure?es. Malheureusement, l?estimateur propose? n?est pas consistent
sur la bordure du carre? unitaire et plus pre?cise?ment ; il posse?de un biais multiplicatif sur les bords (0, 0) et (1, 1). Une autre approche d?estimation de la densite? de
copule consiste a? estimer la densite? par la me?thode du noyau (voir Parzen (1962) et
1
2
Rosenblatt (1956)) base?e sur les pseudo-observations (U?in
, U?in
), i = 1, . . . , n. Ainsi,
nous de?finissons cn (и, и) l?estimateur de la densite? a? noyau de copule c(и, и), de type
2.4 Estimation non-parame?trique de la densite? de copule
Akaike (1954),Parzen (1962) et Rosenblatt (1956) du vecteur X par
!
n
2
1
1 X
u2 ? U?in
u1 ? U?in
cn (u1 , u2 ) =
,
pour (u1 , u2 ) ?]0, 1[2 ,
K
2
nhn i=1
hn
hn
87
(2.86)
avec {hn } est une suite de nombres re?els strictement positifs, convergeant vers ze?ro,
lorsque n tend vers l?infini, K(и, и) est un noyau dans R2 , c?est-a?-dire, une application
R
inte?grable de R2 dans R telle que R2 K(u1 , u2 )du1 du2 = 1.
L?e?tude de quelques proprie?te?s de cet estimateur a e?te? conside?re?e par divers auteurs.
On consultera, entre autres a? ce sujet, Gijbels et Mielniczuk (1990), Wand et Jones
(1995), Fermanian et al. (2004) et Fermanian (2005).
Pour tout 0 < u1 , u2 < 1, nous conside?rons le processus suivant
?n (u1 , u2 ) =
p
nh2n {cn (u1 , u2 ) ? Khn ? c(u1 , u2 )} ,
(2.87)
ou? Kh (x, y) = h1 K( hx , hy ) et Kh ?c repre?sente le produit de convolution entre le noyau
Kh (и) et la densite? de copule c(и). D?apre?s (2.86), nous remarquons que l?estimateur
a? noyau cn (и, и) peut s?e?crire sous la forme
1
cn (u1 , u2 ) = 2
hn
ou?
Z
K
[0,1]2
u1 ? s u2 ? t
,
hn
hn
dC?n (s, t)
pour (u1 , u2 ) ?]0, 1[2 , (2.88)
n
1X
2
1
1{U?in
? u1 , U?in
? u2 }
C?n (u1 , u2 ) =
n i=1
(2.89)
est la version modifie?e de la copule empirique. L?e?tude de cet estimateur a e?te? entreprise par de nombreux auteurs, parmi lesquels nous pouvons citer Genest et al.
(1995) et Deheuvels (1979b). Compte tenu de (2.87) et (2.88), le processus empirique
de la densite? de copule ?n (и, и) peut s?e?crire sous la forme
1
?n (u1 , u2 ) =
hn
Z
K
u1 ? s u2 ? t
,
hn
hn
dG?n (s, t),
(2.90)
88
Principe d?invariance du processus empirique de copule
ou? G?n (и, и) est le processus empirique modifie? de copule de?fini par
G?n (u1 , u2 ) = n1/2 {C?n (u1 , u2 ) ? C(u1 , u2 )}
pour (u1 , u2 ) ? [0, 1]2 .
(2.91)
L?estimateur C?n (и) est asymptotiquement e?quivalent a? Cn (и) donne? par la relation
(2.83), puisque (voir Deheuvels (2009))
sup
(u1 ,u2 )?[0,1]2
|Cn (u1 , u2 ) ? C?n (u1 , u2 )| =
1
,
n
(2.92)
ainsi, nous avons
1
|Gn (u1 , u2 ) ? G?n (u1 , u2 )| = ? .
n
(u1 ,u2 )?[0,1]2
sup
(2.93)
Ce qui signifie que les processus Gn (и) et G?n (и) sont asymptotiquement e?quivalents
et donc le re?sultat du the?ore?me 2.9 restera valable pour G?n (и).
Rappelons que le pont brownien attache? bidimensionnel s?exprime par
Bn (u1 , u2 ) = Bn (u1 , u2 ) ? Bn (1, u2 )
?C(u1 , u2 )
?C(u1 , u2 )
? Bn (u1 , 1)
,
?u2
?u1
(2.94)
ou? {Bn (u1 , u2 ) : (u1 , u2 ) ? [0, 1]2 , n ? 1} est un processus gaussien centre? de fonction
de covariance donne?e par (2.53).
Lorsque les marges sont inde?pendantes, le processus gaussien Bn (и) co??ncide avec
b n (и) dont la covariance est donne?e par (2.51). Dans ce cas
le processus gaussien B
pre?cis, pour tout 0 ? u1 , u2 ? 1, nous avons
b n (u1 , u2 ),
Bn (u1 , u2 ) = Bn (u1 , u2 ) ? u1 Bn (1, u2 ) ? u2 Bn (u1 , 1) =: B
(2.95)
et une loi limite exacte pour le processus Gn (и, и) due a? Deheuvels (2009). Son re?sultat
s?e?nonce comme suit.
2.4 Estimation non-parame?trique de la densite? de copule
89
The?ore?me 2.10. Deheuvels (2009)
Dans un espace de probabilite?s convenable, il est possible de construire une suite
n
o
b n (u1 , u2 ) : (u1 , u2 ) ? [0, 1]2 , n ? 1 , de sorte que, presque
de processus gaussiens B
su?rement lorsque n ? ?, on a
(
lim sup n1/4 (log n)?1/2 (log log n)?1/4
)
sup
n??
(u1 ,u2 )?[0,1]2
b n (u1 , u2 )|
|Gn (u1 , u2 ) ? B
= 2?1/2 3?3/2 55/4 .
(2.96)
Afin d?e?tablir un re?sultat portant sur une approximation du processus empirique de
densite? de copule ?n (и, и), nous introduisons la de?finition suivante.
De?finition 2.3. Soit {?n (u1 , u2 ) : (u1 , u2 ) ? [0, 1]2 , n ? 1} une suite de processus
gaussien de?finie par
1
?n (u1 , u2 ) =
hn
Z
K
[0,1]2
u1 ? s u2 ? t
,
hn
hn
dBn (s, t),
(2.97)
ou? Bn (и, и) est le processus gaussien donne? par (2.94).
Le the?ore?me 2.9 s?e?nonce dans le cas bivarie? comme suit.
The?ore?me 2.11. Supposons que la copule C(и, и) est deux fois de?rivable sur (0, 1)2
et que les de?rive?es secondes soient continues sur [0, 1]2 . Sur un espace de probabilite? assez riche, il est possible de construire une suite de processus gaussiens
{Bn (u1 , u2 ) : (u1 , u2 ) ? (0, 1)2 , n ? 1}, de sorte que, avec probabilite? 1, lorsque n ?
?, nous avons
sup
(u1 ,u2 )?[0,1]2
|Gn (u1 , u2 ) ? Bn (u1 , u2 )| = O
log n
n1/6
.
(2.98)
Apre?s ces pre?liminaires, nous pre?senterons les conditions impose?es a? la densite? de
copule, a? la suite {hn } et a? la fonction K(и). Nous anticipons sur ce paragraphe pour
90
Principe d?invariance du processus empirique de copule
mentionner que les preuves de ces re?sultats reposent, en grande partie, sur les me?mes
techniques utilise?es par Re?ve?sz (1976). Notre re?sultat est obtenu sous les conditions
suivantes.
Hypothe?ses sur la densite? de copule c(и, и).
(C.1). La densite? de copule c(и) est continue, de?rivable et borne?e sur I2 = [, 1 ? ]2 ,
pour > 0;
(C.2). les de?rive?es partielles de la densite? c(и), par rapport a? la mesure de Lebesgue,
sont borne?es ; c?est-a? dire, qu?il existe une constante ? > 0 tel que
? 2 c(u1 , u2 )
? 2 c(u1 , u2 )
? 2 c(u1 , u2 )
?
?,
? ? pour (u1 , u2 ) ? (0, 1)2 .
?
?,
2
2
?u1
?u1 ?u2
?u2
(2.99)
Hypothe?ses sur la suite hn
(H.1). hn > 0, hn ? 0 et nh2n ? ?, lorsque n ? ?.
Hypothe?ses sur le noyau K(и)
Le noyau K(и, и) satisfait se qui suit.
(K.1). Le support de la fonction K(и) est compact et inclus dans I20 = [0 , 1 ? 0 ]2
pour un certain 0 > ;
(K.2). K(и) est une fonction a? variation borne?e sur I20 . Les variations totales de K(и)
sur I20 seront note?es par VARu?I20 K(u).
Sous ces conditions, le lemme suivant du? a? Re?ve?sz (1976) nous sera utile par la suite.
Lemme 2.3. Sous (H.1), (K.1) ? (K.2), la quantite?
u?v
VARv?I20 K
,
hn
est uniforme?ment borne?e pour tout n = 1, 2, . . . , et u ? I 2 .
(2.100)
2.4 Estimation non-parame?trique de la densite? de copule
91
Rappelons la de?finition du processus gaussien ?n (и, и) donne?e par (2.97).
Corollaire 2.2. On suppose que les conditions (C.1) ? (C.2), (K.1) ? (K.2) et (H.1)
soient ve?rifie?es. Sur un espace de probabilite?s assez riche, on peut construire une
suite de processus gaussiens {?n (u1 , u2 ) : 0 ? u1 , u2 ? 1} , n = 1, 2, . . . , de sorte que,
avec probabilite? 1 lorsque n ? ?, nous avons
sup
|?n (u1 , u2 ) ? ?n (u1 , u2 )| = O
(u1 ,u2 )?I20
log n
n1/6 hn
Sous l?hypothe?se d?inde?pendance des marginales, nous avons
(
lim sup n1/4 (log n)?1/2 (log log n)?1/4 hn
n??
sup
.
(2.101)
)
|?n (u1 , u2 ) ? ?n (u1 , u2 )|
? M,
(u1 ,u2 )?I20
(2.102)
avec M = 2?1/2 3?3/2 55/4 VARv?I20 K( u?v
).
hn
De?monstration. Compte tenu de la relation (2.87), nous pouvons e?crire
?
n {b
chn (u1 , u2 ) ? Khn ? c(u1 , u2 )}
Z
?
1
u1 ? s1 u2 ? s2
=
n
K
,
[dC?n (s1 , s2 ) ? dC(s1 , s2 )]
hn [0,1]2
hn
hn
Z
1
u1 ? s1 u2 ? s2
=
K
,
dG?n (s1 , s2 )
hn [0,1]2
hn
hn
!
Z
1
u1 ? s1 u2 ? s2
1
=:
K
,
dGn (s1 , s2 ) + O p
.
hn [0,1]2
hn
hn
nh2n
Apre?s inte?gration par parties, pour n assez grand, nous obtenons les relations
Z
1
u 1 ? s1 u 2 ? s2
?n (u1 , u2 ) ? ?n (u1 , u2 ) =
K
,
d(Gn (s1 , s2 ) ? Bn (s1 , s2 ))
hn [0,1]2
hn
hn
Z
1
u1 ? s1 u2 ? s2
=
(Gn (s1 , s2 ) ? Bn (s1 , s2 ))dK
,
.
hn (s,t)?I2
hn
hn
0
92
Principe d?invariance du processus empirique de copule
En combinant (2.101)avec cette dernie?re ine?galite?, on de?duit que
sup
1
u?s
||Gn ? Bn ||VARs?I20 K(
)
hn
hn
log n
= O
.
n1/6 hn
|?n (u1 , u2 ) ? ?n (u1 , u2 )| ?
(u1 ,u2 )?I20
En suivant la me?me de?marche pre?ce?dente et sous re?serve que les marges sont
inde?pendantes, nous avons (2.102) en vertu du re?sultat (2.96). Ce qui ache?ve la
de?monstration.
2.5
Approximation forte des statistiques de rangs
Dans cette section, nous fournissons un principe d?invariance fonctionnelle des statistiques de rang bivarie?es. Les statistiques de rangs de la forme
n
1X
Rn :=
J (Fn,1 (Xi,1 ), Fn,2 (Xi,2 )) ou? (Xi,1 , Xi,2 ) ? R2 ,
n i=1
(2.103)
ont e?te? e?tudie?es par plusieurs auteurs (citons, a? titre d?exemple,Ruymgaart et al.
(1972a), Ruymgaart (1974)). Dans leur e?tude portant sur le processus empirique de
copule, Fermanian et al. (2004) ont fourni une version de Rn en terme de la copule
empirique. En effet, Rn peut s?e?crire sous la forme
Z
n
1X
Rn =
J (Fn,1 (Xi,1 ), Fn,2 (Xi,2 )) =
J (u1 , u2 ) dC?n (u1 , u2 ),
n i=1
[0,1]2
(2.104)
ou? C?n (и) est la version ca?dla?g de la copule empirique de?finie par la relation suivante.
n
1X
C?n (u1 , u2 ) :=
1{F1n (x1 )<u1 ,F2n (x2 )<u2 } .
n i=1
Le processus empirique lie? a? ces statistiques est donne?, pour n ? 1, par
n
1 X
Jn := ?
J (Fn,1 (Xi,1 ), Fn,2 (Xi,2 )) ? E(Rn )},
n i=1
(2.105)
2.5 Approximation forte des statistiques de rangs
93
avec E(Rn ) est l?espe?rance mathe?matique de Rn . Nous pre?sentons maintenant le
re?sultat principal de cette section dans le the?ore?me suivant.
The?ore?me 2.12. On suppose que les marginales Fj (и), j = 1, 2, de la fonction de
re?partition jointe F(и) sont continues, que les de?rive?es partielles d?ordre 1 de la copule
C(и) associe?e sont continues et que la fonction J (и) est a? variation borne?e. Alors on
a
Z
Jn ?
[0,1]2
Bn;C (u)dJ (u) = O n?1/6 log(n) ,
(2.106)
ou? Bn;C (и) est le processus gaussien limite d?expression donne?e par (2.67).
De?monstration. En appliquant la proposition 3.2.1 de Fermanian (1997), nous
avons les e?galite?s suivantes
Z
?
J (u1 , u2 ) d(C?n ? C)(u1 , u2 )
n
[0,1]2
Z
h
i
?
=
n
C?n (u1 , u2 ) ? C(u1 , u2 ) dJ (u1 , u2 )
[0,1]2
Z
h
i
?
? n
C?n (u1 , 1) ? C(u1 , 1) dJ (u1 , u2 )
[0,1]2
Z
h
i
?
C?n (1, u2 ) ? C(1, u2 ) dJ (u1 , u2 )
? n
[0,1]2
Z
h
i
?
(C?n ? C)(u1 , 1) ? u1 dJ (u1 , 0)
[0,1]
Z
h
i
?
(C?n ? C)(1, u2 ) ? u2 dJ (0, u2 )
[0,1]
Z
?
n(C?n ? C)(u1 , u2 ) dJ (u1 , u2 ) + O n?1/2
=
[0,1]2
Z
=
G?n (u1 , u2 ) dJ (u1 , u2 ) + O n?1/2 .
[0,1]2
D?apre?s (2.93), nous avons
||Gn ? G?n || =
1
|Gn (u1 , u2 ) ? G?n (u1 , u2 )| = ? ,
n
(u1 ,u2 )?[0,1]2
sup
94
Principe d?invariance du processus empirique de copule
et compte tenu des hypothe?ses du the?ore?me 3.1, nous avons
Z
Jn ?
Z
Bn;C (u)dJ (u) ? ||Gn ? G?n ||
2
[0,1]
| dJ (u1 , u2 ) |
[0,1]2
Z
+||Gn ? Bn;C ||
[0,1]2
?1/6
= O(n?1/2 ) + O n
| dJ (u1 , u2 ) |
log(n) .
2
Chapitre 3
Approximation forte du processus
empirique de copule par un
processus de Kiefer
3.1
Introduction et notations
E?tant donne? une suite U1 , U2 , . . . , de vecteurs ale?atoires inde?pendants, uniforme?ment
distribue?s sur I d . On de?finit, pour tout n ? 1, le processus empirique multivarie?
uniforme par
?n (u) = n1/2 Fn (u) ?
d
Y
!
ui
,
(3.1)
i=1
ou? Fn (u) est la fonction de re?partition empirique multivarie?e uniforme associe?e a?
{U1 , U2 , . . . , Un }.
Rappelons(voir le chapitre 2) que le processus de Wiener a? d-parame?tres
W (u) : u ? I d est un processus gaussien centre? de fonction de covariance
E(W (u)W (v)) =
d
Y
i=1
min(ui , vi ).
Approximation forte du processus empirique de copule par un processus
96
de Kiefer
Plusieurs processus gaussiens ont e?te? construits a? partir de W (u) : u ? I d . Par
exemple le processus dit de Kiefer. On le de?finit de la fac?on suivante.
De?finition 3.1. Un processus gaussien K(u, t) a? (d+1)-parame?tres, de?fini sur
[0, 1]d О [0, ?) est dit processus de Kiefer, si
K(u, t) = W(u, t) ? W(1, t)
d
Y
ui ,
i=1
ou? W(u, t) est un processus de Wiener a? (d+1)-parame?tres.
Compte tenu de cette de?finition et les caracte?ristiques du processus de Wiener, pour
tout (u, v) dans I d О I d et t ? 0, le processus K(u, t) est centre? de fonction de
covariance
d
d
d
Y
Y
Y
E(K(u, t)K(v, s)) = (t ? s)
(ui ? vi ) ?
ui
vi
i=1
i=1
!
.
(3.2)
i=1
Ainsi, le processus de Kiefer K(и, и) appara??t comme un pont brownien par rapport
a? son premier argument en ?u? et comme un processus de Wiener standard par rapport a? son second argument en ?t?. On note que le processus n1/2 ?n (u) de?pendant
des parame?tres ?n? et ?u? n?est pas un processus gaussien, alors qu?il a la me?me
fonction de covariance que le processus de Kiefer K(u, n) qui est en l?occurrence
gaussien. C?est pourquoi ; il semble le?gitime de trouver un ordre de grandeur de la
diffe?rence de ces deux processus. D?ou? le principe d?invariance par un processus de
Kiefer.
La meilleure vitesse d?approximation connue d?un processus empirique uniforme,
lorsque d = 1, par un processus de Kiefer est due a? Komlo?s, Major et Tusna?dy (1975),
de l?ordre de n?1/2 (log n)2 . Cette vitesse co??ncide e?galement avec la meilleure vitesse
d?approximation connue du processus empirique uniforme bivarie?, par un pont brownien bivarie?, obtenue par Castelle et Laurent-Bonvalot (1998). En ce qui concerne
3.1 Introduction et notations
97
le processus empirique de quantile uniforme ?n (t), le meilleur re?sultat connu est du?
a? Cso?rgo? et Re?ve?sz (1975,1976). Ils ont e?tabli que, sur un espace de probabilite?s
convenable, il existe un processus de Kiefer K ? (t, n) approprie? de sorte que, lorsque
n ? ?,
sup |?n (t) ? n?1/2 K ? (t, n)| = O n?1/4 (log n)1/2 (log log n)1/4 ,
p.s.
t?[0,1]
Deheuvels (1988), Deheuvels et Mason (1990) ont montre? que cette vitesse est optimale et que ce principe est valable pour n?importe quel processus de Kiefer K(t, n)
conside?re?. De plus, il existe une constante k comprise entre 1/11 et 21/4 telle que
(
)
lim sup n1/4 (log n)?1/2 (log log n)?1/4
n??
sup |?n (t) ? n?1/2 K(t, n)|
? k,
p.s.
t?[0,1]
Rappelons l?expression du processus empirique multivarie? uniforme donne? par
(3.1). La vitesse d?approximation de ce processus par un processus de Kiefer est
loin d?e?tre optimale. L?un des re?sultats pionniers dans la litte?rature scientifique
de cette approximation est du? a? Cso?rgo? et Re?ve?sz (1975). Ils ont re?alise? que,
sur un espace de probabilite?s convenable, il existe un processus de Kiefer centre?
K(u, n) : u ? [0, 1]d , n ? [0, ?) de fonction de covariance donne?e par (3.2), tel
que
sup |n1/2 ?n (u) ? K(u, n)| = O n(d+1)/2(d+2) (log n)2 ,
p.s.
u?[0,1]d
Les re?sultats mentionne?s ci-dessus sont dans le cas particulier ou? F(u) =
Qd
i=1
ui .
Dans le cas ge?ne?ral, le processus empirique multivarie? est de?fini, pour tout n ? 1,
par
?n;F (x) = n1/2 (Fn (x) ? F(x))
pour x ? Rd ,
(3.3)
ou? F(x) de?signe la fonction de re?partition exacte de la variable ge?ne?rique X dans
Rd , qui engendre un e?chantillon de taille n ? 1, lequel a pour fonction de re?partition
empirique Fn (x). L?approximation de ce processus par un processus de Kiefer est
Approximation forte du processus empirique de copule par un processus
98
de Kiefer
due a? Borisov (1982)(voir e?galement Cso?rgo? et Horva?th (1988)). Nous exposons leurs
re?sultat dans le the?ore?me suivant.
The?ore?me 3.1. Soit Xi = (Xi1 , . . . , Xid ), i = 1, . . . , n, pour n ? 2, une suite
de vecteurs ale?atoires i.i.d., a? valeurs dans Rd , de?finis sur un espace de probabilite?s convenable (?, A, P), de fonction de re?partition jointe F(и) et de marginales
continues Fj (и), j = 1, . . . , d. Alors, il existe une suite de processus gaussiens
?(x, n) : x ? Rd , n ? [0, ?) de sorte que
sup n1/2 ?n;F (x) ? ?(x, n) = O n1/2?1/(4d) (log n)3/2 ,
p.s.,
(3.4)
x?Rd
ou?
?(x, n) : x ? Rd , n ? [0, ?) est un processus gaussien centre? de fonction de
covariance
E(?(x, t)?(y, s)) = (t ? s) (F(x ? y) ? F(x)F(y)) ,
(3.5)
avec (x ? y) := (min(x1 , y1 ), и и и , min(xd , yd )).
Dans ce qui suit, nous ferons usage de quelques re?sultats, convenablement
se?lectionne?s, issus de la the?orie des processus empiriques, afin d?e?tablir un principe d?invariance fort pour le processus empirique de copule par un processus de
Kiefer approprie?. Avant de de?velopper le de?tail de nos re?sultats, commenc?ons par
pre?senter nos hypothe?ses de travail et notamment quelques lemmes techniques. Soit
Xi = (X1i , . . . , Xdi ), pour i ? 1, une suite i.i.d., de re?pliques du vecteur ale?atoire
ge?ne?rique X = (X1 , . . . , Xd ) dans Rd . Nous supposerons, sans perte de ge?ne?ralite?,
que les variables ale?atoires et les processus introduits ici, et par la suite, peuvent
e?tre de?finis sur un espace de probabilite?s (?, A, P) suffisamment riche (voir Castelle
et Laurent-Bonvalot (1998)). Soient F(и) la fonction de re?partition exacte du vecteur ale?atoire X dans Rd , donne?e par F(x1 , . . . , xd ) = P(X1 ? x1 , . . . , Xd ? xd ),
3.1 Introduction et notations
99
et Fj (xj ) = P(Xj ? xj ), pour j = 1, . . . , d, les fonctions de re?partition marginales,
suppose?es continues. D?apre?s le the?ore?me de Sklar (1959), il existe une unique copule
de sorte que
F(x1 , . . . , xd ) := C(F1 (x1 ), . . . , Fd (xd )) pour tout x ? Rd .
D?une fac?on e?quivalente,
C(u1 , . . . , ud ) := F(F1? (u1 ), . . . , Fd? (ud )) pour tout u ? [0, 1]d ,
(3.6)
ou? Fj? (uj ) = inf{xj : Fj (xj ) ? uj } pour 1 ? j ? d, de?signe la fonction de quantile
associe?e a? Fj (и).
La fonction de re?partition empirique et les marges empiriques base?es sur
{X1 , . . . , Xn } sont donne?es, respectivement, pour tout n ? 1 et x = (x1 , . . . , xd ) ?
Rd , par
n
d
1 XY
Fn (x1 , . . . , xd ) :=
1{Xji ? xj },
n i=1 j=1
n
1X
1{Xji ? xj }
Fjn (xj ) :=
n i=1
pour tout 1 ? j ? d.
On de?finit la fonction de quantile empirique associe?e a? Fjn (xj ), pour tout 1 ? j ? d
et n ? 1, par la formule
?
Fjn
(uj ) = inf{tj ? R : Fjn (tj ) ? uj } pour uj ? [0, 1].
La copule empirique Cn et le processus empirique de copule Gn sont alors de?finis
respectivement, pour tout u ? [0, 1]d et n ? 1, par
?
?
(u1 ), . . . , Fdn
(ud )),
Cn (u1 , . . . , ud ) := Fn (F1n
Gn (u) := n1/2 (Cn (u) ? C(u)).
Approximation forte du processus empirique de copule par un processus
100
de Kiefer
En vue de l?e?tude de l?approximation du processus empirique de copule Gn par un
processus de Kiefer convenable, nous de?finissons le processus gaussien suivant. Pour
tout u ? [0, 1]d et n ? 0, le processus KC (u, n) est de?fini comme un processus
gaussien centre? de fonction de covariance donne?e par
E(KC (u, s)KC (v, t)) = (s ? t) {C(u ? v) ? C(u)C(v)} .
(3.7)
Il existe une relation entre le processus gaussien KC (и, и) et le processus de Kiefer
?(и, и) de?fini par (3.4). En effet nous avons l?e?galite? en distribution suivante
?F (x, n); x ? Rd , n > 0 ? KC ((F1 (x1 ), . . . , F1 (x1 )), n); x ? Rd , n > 0 .
Ainsi, nous dirons, par la suite, que le processus KC (и, и) est un processus de Kiefer.
Ce chapitre est organise? de la fac?on suivante : dans la section 3.2, nous e?nonc?ons
dans le the?ore?me 3.2 notre re?sultat concernant un principe d?invariance du processus
empirique de copule par un processus de Kiefer convenable lorsque d ? 2 ; dans le
the?ore?me 3.3 et sous quelques conditions de re?gularite?s, nous fournissons le comportement des oscillations du processus empirique de copule. Les de?monstrations seront
reporte?es dans la section 3.3.
3.2
3.2.1
Re?sultats
Un principe d?invariance du processus empirique de
copule
The?ore?me 3.2. E?tant donne?e une suite X1 , X2 , . . . de vecteurs ale?atoires dans Rd ,
de fonction de re?partition jointe F(и) et de marginales {Fj (и)}1?j?d continues. On
suppose que la copule C(и) associe?e a? F(и) est 2-fois differentiable sur (0, 1)d et que
3.2 Re?sultats
101
ses de?rive?es partielles d?ordre 1 sont continues sur (0, 1)d . Alors, il existe une suite de
processus gaussiens {KC (u, n) : u ? [0, 1]d , n > 0}, a? trajectoires presque su?rement
continues, telle que, lorsque n ? ?,
?
sup | nGn (u) ? KC? (u, n)| = O n1/2?1/(4d) (log n)3/2 , p.s.,
(3.8)
u?[0,1]d
ou?
K?C (u, n)
= KC (u, n) ?
d
X
(j)
KC (1, uj , 1, n)
j=1
?C(u)
,
?uj
u ? [0, 1]d ,
et
(j)
KC (uj , n) = KC (1, . . . , 1, uj , 1, . . . , 1, n),
est un processus de Kiefer dont la je?me composante est uj et les (d ? 1) autres sont
e?gales a? 1 avec n > 0. Pour de tels processus, voir par exemple Cso?rgo? (1979).
Comme conse?quence directe de ce dernier the?ore?me, nous pouvons de?duire une loi
du logarithme ite?re? du processus empirique de copule a? partir de celle du processus
gaussien K?C (и, n). En effet, d?apre?s Wichura (1973), nous avons, presque su?rement,
lorsque n ? ?,
supu?[0,1]d |K?C (u, n)|
lim sup
? d + 1.
(2n log log n)1/2
n??
(3.9)
D?apre?s le the?ore?me 3.2, nous avons
(
)
1/2
supu?[0,1]d |K?C (u, n)|
n
lim sup
sup |Cn (u) ? C(u)| = lim sup
2 log log n
(2n log log n)1/2
n??
n??
u?[0,1]d
(3.10)
ainsi
(
lim sup
n??
n
2 log log n
)
1/2
sup |Cn (u) ? C(u)|
? d + 1.
(3.11)
u?[0,1]d
Nous trouverons e?galement ce re?sultat dans les travaux de Deheuvels(1979).
Une autre application possible du the?ore?me 3.2 consiste a? trouver un ordre d?approximation du processus empirique des statistiques de rang bivarie?es par un processus
Approximation forte du processus empirique de copule par un processus
102
de Kiefer
gaussien (combinaisons de processus de Kiefer). Les statistiques de rangs conside?re?es
dans cette partie sont de la forme
n
1X
:=
J (Fn,1 (Xi,1 ), Fn,2 (Xi,2 )),
n i=1
Rn
(Xi,1 , Xi,2 ) ? R2 .
Plusieurs auteurs se sont inte?resse?s a? l?e?tude de ces statistiques, citons entre autres,
les travaux de Ruymgaart et al. (1972b), Ruymgaart (1974), Ru?schendorf (1976) et
Fermanian et al. (2004). Rappelons que la version modifie?e de la copule empirique
(voir la relation (2.89) dans le chapitre 2) s?exprime par
n
1X
1{Fn,1 (Xi,1 ) ? u1 , Fn,2 (Xi,2 ) ? u2 },
C?n (u1 , u2 ) =
n i=1
(3.12)
ainsi, l?expression Rn s?e?crit en fonction de C?n par
Z
Rn =
J (u1 , u2 ) dC?n (u1 , u2 ).
[0,1]2
On s?interesse a? l?e?tude d?une approximation du processus des statistiques de rangs
donne? par
n
1 X
Jn := ?
{J (Fn,1 (Xi,1 ), Fn,2 (Xi,2 )) ? E(Rn )}
n i=1
ou? E(Rn ) =
R
[0,1]2
J (u1 , u2 ) dC(u1 , u2 ).
Corollaire 3.1. Soit F(и, и) une fonction de re?partition bivarie?e, associe?e a? un copule
C(и), et de marginales Fj (и), pour j = 1, 2, continues. On suppose que les de?rive?es
partielles d?ordre 1 de la copule C(и) sont continues sur (0, 1)2 , que la fonction J (и)
R
est a? variation borne?e sur [0, 1]2 et que [0,1]2 d|J (u1 , u2 )| = ? < ?. Alors
Z
?1/2
Jn ? n
= O n?1/8 (log n)3/2 , p.s.,
K
(u
,
u
,
n)dJ
(u
,
u
)
(3.13)
C
1
2
1
2
[0,1]2
? R
| n [0,1]2 J (u1 , u2 ) d(C?n ? C)(u1 , u2 )|
?
lim sup
? 3?
2n log log n
n??
p.s.
(3.14)
3.2 Re?sultats
103
Soit wn (и) le module d?oscillation du processus empirique multivarie? de copule,
donne? par
wn (a) := sup{|Gn (u) ? Gn (v)| : |ui ? vi | ? a, (ui , vi ) ? [0, 1]2 , 1 ? i ? d}
:=
sup
| Gn ([u, v]) |,
a ? (0, 1).
(3.15)
u?v:?i?[1,d],|ui ?vi |?a
The?ore?me 3.3. On suppose que la copule C(и) est differentiable sur (0, 1)d et que
ses de?rive?es partielles d?ordre 1 sont continues sur [0, 1]d . Soit {an : n ? 1} une
suite de nombres positifs, ve?rifiant
(H.1) adn ? 0, and nadn ? ? ;
(H.2) nadn / log n ? ? ;
(H.3) log(1/adn )/ log log n ? ?.
Alors, avec probabilite? 1, nous avons
?1/2
?n (adn ) = OP (1).
lim 2adn log(1/adn )
n??
3.2.2
(3.16)
Principe d?invariance pour le processus empirique de
la copule lisse?e
Dans cette section, nous conside?rons les notations introduites dans le paragraphe
pre?ce?dent et nous supposons que les marges Fi , pour i = 1, . . . , d, des vecteurs
ale?atoires X1 , X2 , . . . , sont continues.
b n (и) de la copule C(и) par
Pour tout n ? 1, nous de?finissons l?estimateur lisse C
Z
1
u
?
v
b n (u) =
C
k
Cn (v)dv, pour u ? [0, 1]d ,
(3.17)
1/d
h [0,1]d
h
ou? k(и) est une fonction de poids et h = h(n) est un parame?tre de lissage. D?une
manie?re similaire, nous de?finissons le processus empirique de la copule lisse?, pour
Approximation forte du processus empirique de copule par un processus
104
de Kiefer
tout n ? 1, par
b n (u) :=
G
?
b n (u) ? C(u)) pour u ? [0, 1]d .
n(C
(3.18)
Afin d?e?tablir un principe d?invariance de ce dernier processus, nous introduisons
quelques conditions de re?gularite?s, portants sur la copule C(и), le noyau k(и) et le
parame?tre de lissage h. Ainsi
(F.1). Les de?rive?es partielles d?ordre s de la copule C(и) sont borne?es, i.e., il existe
une constante 0 < C < ? telle que
? s C(u)
? C, j1 + и и и + jd = s.
sup j1
j
d ? u1 . . . ? d ud
u?[0,1]
(C.1). h = h(n) ? 0, nh ? ? et
?
nhs/d ? 0 lorsque n ? ? ;
(C.2). le noyau k(и) est de?fini sur un support compact ;
(C.3). k(и) est d?ordre s, i.e.,
Z
k(u)du = 1,
d
ZR
ZR
d
Rd
uj11 . . . ujdd k(u)du = 0, j1 , . . . , jd ? 0, j1 + . . . + jd = 1, . . . , s ? 1,
|uj11 . . . ujdd |k(u)du < ?, j1 , . . . , jd ? 0, j1 + . . . + jd = s.
Corollaire 3.2. Dans un espace probabilise? convenable, sous (F.1)-(C.1)-(C.3), il
existe une suite de processus gaussiens {K?C (u, t); u ? [0, 1]d , t ? 0}, de sorte que,
lorsque n ? ?,
b n (u) ? ?1 K? (u, n)| = oP (1).
sup |G
n C
u?[0,1]d
ou? K?C (и, n) est de?fini dans le the?ore?me 3.2.
La preuve de ce corollaire se trouve a? l?appendice.
(3.19)
3.3 Appendice
105
Remarque 3.1.
1. Le corollaire 3.2 reste valable en remplac?ant la condition de compaccite? du
noyau k(и), donne? par (C.2), par la condition
(C.4) : il existe une suite de re?els {an }n?1 de sorte que
(i) an h tend vers 0, lorsque n ? ? ,
(ii)
3.3
? R
n {kvk>an } |k(v)|dv ? 0.
Appendice
3.3.1
De?monstration du the?ore?me 3.2
Cas d = 2 :
Dans cette section, on suppose que les variables ale?atoires X et Y sont de?finies sur un
espace de probabilite?s convenable, de marginales respectives F (и) et G(и) continues,
de fonction de re?partition jointe H(x, y) = P{X ? x, Y ? y}. D?apre?s Sklar (1959),
il existe une unique copule C(и) telle que
H(x, y) = C(F (x), G(y)), pour tout x, y ? R.
Posons Ui = F (Xi ) et Vi = G(Yi ), pour tout i ? 1, une suite de pseudo-observations,
inde?pendantes uniforme?ment distribue?es sur (0, 1) et de fonction de re?partition jointe
continue T(и, и). On constate que, pour (u, v) ? [0, 1]2 , nous avons
T(u, v) = P(U ? u, V ? v) = P(X ? F ? (u), Y ? G? (v)) = C(u, v).
(3.20)
Approximation forte du processus empirique de copule par un processus
106
de Kiefer
Nous utilisons les me?mes notations que Deheuvels et al. (2006), pour tout n ? 1 et
0 ? u, v ? 1, posons
n
1X
Tn (u, v) :=
1{Ui ? u, Vi ? v} := Hn (F ? (u), G? (v)),
n i=1
(3.21)
n
Un (u) := Tn (u, 1) :=
1X
1{Ui ? u} := Fn (F ? (u)),
n i=1
(3.22)
n
1X
1{Vi ? v} := Gn (G? (v)).
Vn (v) := Tn (1, v) :=
n i=1
(3.23)
Les fonctions de quantiles empiriques associe?es, respectivement, a? Un (и) et a? Vn (и)
s?expriment, respectivement, pour 0 ? u, v ? 1, par
?
U?
n (u) := inf{s ? 0 : Un (s) ? u} := F (Fn (u)),
(3.24)
?
V?
n (v) := inf{t ? 0 : Vn (t) ? v} := G(Gn (v)).
(3.25)
Compte tenu des transformations pre?ce?dentes, on constate que
?
?
Cn (u, v) := Hn (Fn? (u), G?
n (v)) = Tn (Un (u), Vn (v)),
C(u, v) := H(F ? (u), G? (v)) = T(u, v), pour 0 ? u, v ? 1.
(3.26)
(3.27)
Posons, pour tout n ? 1 et 0 ? u, v ? 1, les processus empiriques suivants
1
?n (u, v) := n 2 {Tn (u, v) ? T(u, v)},
1
?n;U (u) := ?n (u, 1) := n 2 {Un (u) ? u},
1
?n;V (v) := ?n (1, v) := n 2 {Vn (v) ? v},
1
?n;U (u) := n 2 {U?
n (u) ? u},
(3.29)
(3.30)
(3.31)
1
?n;V (v) := n 2 {V?
n (v) ? v},
?n,0 (u, v) := ?n (u, v) ? ?n;U (u)
(3.28)
(3.32)
?C(u, v)
?C(u, v)
? ?n;V (v)
.
?u
?v
(3.33)
3.3 Appendice
107
On peut alors de?composer le processus empirique de copule de la fac?on suivante.
1
?
Gn (u, v) := ?n,1 (u, v) := n 2 {Tn (U?
n (u), Vn (v)) ? T(u, v)}
1
1
?
?
?
?
?
2
:= n 2 {Tn (U?
n (u), Vn (v)) ? T(Un (u), Vn (v))} + n {T(Un (u), Vn (v)) ? T(u, v)}
1
?
?
?
2
:= ?n (U?
n (u), Vn (v)) + n {C(Un (u), Vn (v)) ? C(u, v)}
1
1
1
:= ?n (u + n? 2 ?n;U (u), v + n? 2 ?n;V (v)) + n 2 {U?
n (u) ? u}
1
+n 2 {V?
n (v) ? v}
?C(u, v)
+
?u
?C(u, v)
?v
1
1
:= ?n (u + n? 2 ?n;U (u), v + n? 2 ?n;V (v)) + ?n;U (u)
?C(u, v)
?C(u, v)
+ ?n;V (v)
.
?u
?v
(3.34)
Nous mentionnons quelques lemmes techniques, utiles a? la suite de notre
de?monstration. Le re?sultat suivant est du? a? Chung (1949).
Lemme 3.1. Nous avons, avec probabilite? 1,
1
lim sup(2 log log n)?1/2 k?n;U k = lim sup(2 log log n)?1/2 k?n;U k = , (3.35)
2
n??
n??
1
lim sup(2 log log n)?1/2 k?n;V k = lim sup(2 log log n)?1/2 k?n;V k = . (3.36)
2
n??
n??
Le lemme suivant est du? a? Kiefer (1967).
Lemme 3.2. Nous avons, presque su?rement,
lim sup n1/4 (log n)?1/2 (log log n)?1/4 k?n;U + ?n;U k = 21/4 ,
n??
lim sup n1/4 (log n)?1/2 (log log n)?1/4 k?n;V + ?n;V k = 21/4 .
n??
Rappelons que, voir la relation (2.35) dans le chapitre 2, le module d?oscillations
wn (и) du processus empirique uniforme multivarie? s?exprime par
wn (a) :=
sup
| ?n ([s, t]) |,
s?t:|t?s|?a
D?apre?s Einmahl et Ruymgaart (1987), nous avons
a ? (0, 1).
Approximation forte du processus empirique de copule par un processus
108
de Kiefer
Lemme 3.3. Supposons que la fonction de re?partition jointe T(и, и) admet une densite? t(и, и) continue et borne?e sur [0, 1]2 , c?est-a?-dire M = sup(u,v)?[0,1]2 t(u, v) < ?.
Soit {an }n?1 une suite de nombres positifs dans (0, 1) tel que an ? 0, lorsque n ? ?,
et ve?rifiant
i)nan ? ?,
ii)nan / log n ? ?,
iii) log(1/an )/ log log n ? ?
Alors, avec probabilite? 1, nous avons
wn (an )
= M 1/2 .
n?? (2an log(1/an ))1/2
lim
(3.37)
Afin de contro?ler l?e?cart du processus ?n (и, и) entre (u1 , v1 ) et (u2 , v2 ), nous faisons
usage du lemme 2.2 (voir chapitre 2 page 70). D?apre?s Deheuvels et al. (2006), pour
tout 0 ? u1 , v1 , u2 , v2 ? 1, nous avons
| ?n (u1 , v1 ) ? ?n (u2 , v2 ) |? 3 О wn (|u1 ? u2 | ? |v1 ? v2 |).
(3.38)
Nous sommes maintenant en mesure de reprendre la de?monstration de notre re?sultat.
Tout d?abord, fixons un > 0 et soit an = (1 + )2?1/2 n?1/2 (log log n)1/2 . Nous avons
1
1
?n,1 (u, v) ? ?n,0 (u, v) = ?n (u + n 2 ?n;U (u), v + n 2 ?n;V (v)) ? ?n (u, v)
+(?n;U (u) + ?n;U (u))
?C(u, v)
?C(u, v)
+ (?n;V (v) + ?n;V (v))
.
?u
?v
Compte tenu de (3.38), nous avons
1
1
sup | ?n (u + n 2 ?n;U (u), v + n 2 ?n;V (v)) ? ?n (u, v) |? 3wn (an ).
0?u,v?1
Comme 0 ? ?C(u, v)/?u ? 1 et 0 ? ?C(u, v)/?v ? 1 , alors nous avons
k?n,1 ? ?n,0 k ? 3wn (an ) + k?n;U + ?n;U k + k?n;V + ?n;V k.
(3.39)
3.3 Appendice
109
Ainsi,
n1/4 (log n)?1/2 (log log n)?1/4 k?n,1 ? ?n,0 k
lim sup
n??
? 3 О 2?1/4 О M 1/2 О (1 + )1/2 + 2 О 2?1/4
? 2?1/4 (3M 1/2 + 2) < ?,
ce qui nous permet de de?duire que nous avons, presque su?rement,
Gn (u, v) = ?n,1 (u, v) = ?n,0 (u, v) + O n?1/4 (log n)1/2 (log log n)1/4 .
(3.40)
D?apre?s (3.4), nous avons
sup
(u,v)?[0,1]2
?
| n?n (u, v) ? K(u, v, n)| = O n3/8 (log n)3/2 , p.s.
(1)
(3.41)
(2)
Les processus gaussiens KC (u, 1, n) et KC (1, v, n) sont aussi deux processus de
Kiefer ; puisqu?ils repre?sentent deux projections du processus de Kiefer KC (u, v; n)
lorsque u ? [0, 1] et v = 1 fixe, respectivement lorsque u = 1 fixe et v ? [0, 1]. En
appliquant (3.4) deux fois, presque su?rement, nous avons
sup
(u,1)?[0,1]2
?
(1)
| n?n,U (u) ? KC (u, 1, n)|
=
sup
(u,1)?[0,1]2
sup
(1,v)?[0,1]2
=
?
(1)
| n?n (u, 1) ? KC (u, 1, n)| = O n3/8 (log n)3/2 ,
(3.42)
?
(2)
| n?n,V (v) ? KC (1, v, n)|
sup
(1,v)?[0,1]2
?
(2)
| n?n (1, v) ? KC (1, v, n)| = O n3/8 (log n)3/2 .
(3.43)
Compte tenu de (3.40),(3.41), et (3.42), nous avons
sup
(u,v)?[0,1]2
?
| nGn (u, v) ? K?C (u, v, n)| = O n3/8 (log n)3/2 , p.s.,
(3.44)
ou?,
(1)
K?C (u, v, n) = KC (u, v, n) ? KC (u, 1, n)
?C(u, v)
?C(u, v)
(2)
? KC (1, v, n)
.
?u
?v
2
Approximation forte du processus empirique de copule par un processus
110
de Kiefer
Cas d ? 2 :
Soit Xi = (X1i , . . . , Xdi ), pour i ? 1, une suite i.i.d. de re?pliques ale?atoires du vecteur ale?atoire ge?ne?rique X ? Rd . La fonction F(x) = P(X1 ? x1 , . . . , Xd ? xd )
repre?sente la fonction de re?partition jointe exacte de X et Fj (и), pour 1 ? j ? d, les
fonctions de re?partition marginales, suppose?es continues.
Notons par Yi = (F1 (X1i ), . . . , Fd (Xdi )), pour i ? 1, les pseudo-observations uniforme?ment distribue?es sur (0, 1)d , de fonction de re?partition jointe H(и) donne?e,
pour tout u ? [0, 1]d , par
H(u) = P{Y1i ? u1 , . . . , Ydi ? ud },
= P{F1i (X1 ) ? u1 , . . . , Fd (Xdi ) ? ud } = C(u).
De la me?me fac?on, nous introduisons les notations suivantes. Pour tout u ? [0, 1]d
et n ? 1,
n
d
1 XY
Hn (u) :=
1{Yji ? uj } := Fn (F1? (u1 ), . . . , Fd? (ud )),
n i=1 j=1
1
?n (u) := n 2 {Hn (u) ? H(u)},
(3.45)
(3.46)
et pour tout j = 1, . . . , d,
Hjn (uj ) := Hn (1, . . . , 1, uj , 1, . . . , 1) := Fjn (Fj? (uj )),
1
?nj (uj ) := n 2 {Hjn (uj ) ? uj } = ?n (1, uj , 1),
1
?jn (uj ) := n 2 {H?
jn (uj ) ? uj },
?n,0 (u) := ?n (u) ?
d
X
j=1
?nj (uj )
(3.47)
(3.48)
(3.49)
?C(u)
.
?uj
(3.50)
3.3 Appendice
111
La de?marche de la de?monstration sera la me?me que pour d = 2. A? savoir, pour tout
u ? [0, 1]d et n ? 1, nous avons
Gn (u) = ?n (u + n
? 21
?n (u)) +
d
X
?in (ui )
i=1
?C(u)
?ui
1
= ?n,0 (u) + [?n (u + n? 2 ?n (u)) ? ?n (u)] +
d
X
?C(u)
.
(?in (ui ) + ?ni (ui ))
?u
i
i=1
D?apre?s Kiefer (1970b), nous avons
sup | ?in (ui ) + ?ni (ui ) |= O(n?1/4 (log n)1/2 (log log n)1/4 ) p.s.
ui ?[0,1]
En vertu de la loi du logarithme ite?re? e?tablie par Chung (1949), nous avons k ?in k=
O(n?1/2 (log log n)1/2 ). Ce qui implique que pour le choix de an := n?1/2 (log log n)1/2
dans (3.37), nous avons
1
sup | ?n (u+n? 2 ?n (u))??n (u) |? const.wn (an ) = O n?1/4 (log n)1/2 (log log n)1/4 .
u?[0,1]d
En conclusion
Gn (u) = ?n,0 (u) + O n?1/4 (log n)1/2 (log log n)1/4 .
Les processus KC? (и, n), respectivement
(3.51)
?
n?n,0 (и), s?e?crivent comme combinaisons
de processus de Kiefer, respectivement de processus empirique multivarie?. En appliquant (3.4) a? plusieurs reprises, nous pouvons e?tablir que
?
sup | n?n,0 (u) ? KC? (u, n)| = O n1/2?1/4d (log n)3/2 , p.s.,
u?[0,1]d
ou?
K?C (u, n) = KC (u, n) ?
d
X
j=1
(j)
KC (1, uj , 1, n)
?C(u)
,
?uj
u ? [0, 1]d ,
et
(j)
KC (1, uj , 1, n) = KC (1, . . . , 1, uj , 1, . . . , 1, n).
(3.52)
Approximation forte du processus empirique de copule par un processus
112
de Kiefer
Compte tenu de (3.51)-(3.52), nous avons
?
sup | nGn (u) ? KC? (u, n)| = O n1/2?1/4d (log n)3/2 + O n?1/4 (log n)1/2 (log log n)1/4
u?[0,1]d
2
= O n1/2?1/4d (log n)3/2 .
3.3.2
De?monstration du corollaire 3.1
D?apre?s Deheuvels (2009), l?estimateur C?n (и) est asymptotiquement e?quivalent a?
Cn (и) puisque
sup
(u1 ,u2 )?[0,1]2
|Cn (u1 , u2 ) ? C?n (u1 , u2 )| =
1
,
n
(3.53)
ainsi
Z
Z
J (u1 , u2 ) dCn (u1 , u2 ) + O(n?1 ),
J (u1 , u2 ) dC?n (u1 , u2 ) =
[0,1]2
[0,1]2
et
Z
Z
J (u1 , u2 ) d(C?n ? C)(u1 , u2 ) =
[0,1]2
J (u1 , u2 ) d(Cn ? C)(u1 , u2 ) + O(n?1 ).
[0,1]2
D?apre?s le the?ore?me 7 dans Fermanian et al. (2004),
?
n
Z
Z
J (u1 , u2 ) d(C?n ? C)(u1 , u2 ) =
[0,1]2
?
n{C?n (u1 , u2 ) ? C(u1 , u2 )}dJ (u1 , u2 )
[0,1]2
+O(n?1/2 ).
Ainsi, nous avons les ine?galite?s suivantes,
Z
Gn (u1 , u2 )dJ (u1 , u2 )
[0,1]2
Z
?
|
sup {Gn (u1 , u2 ) ? n?1/2 K?C (u1 , u2 , n)}|d|J (u1 , u2 )|
[0,1]2 (u1 ,u2 )?[0,1]2
Z
+
sup
|n?1/2 K?C (u1 , u2 , n)|d|J (u1 , u2 )|
[0,1]2 (u1 ,u2 )?[0,1]2
3.3 Appendice
113
Z
?
|
[0,1]2
sup
(u1 ,u2
)?[0,1]2
{Gn (u1 , u2 ) ? n?1/2 K?C (u1 , u2 , n)}|d|J (u1 , u2 )|
Z
|n?1/2 K?C (u1 , u2 , n)|d|J (u1 , u2 )| + O(n?1/2 )
Z
?1/2 ?
?
sup
|{Gn (u1 , u2 ) ? n
KC (u1 , u2 , n)}|
d|J (u1 , u2 )|
(u1 ,u2 )?[0,1]2
[0,1]2
Z
?1/2 ?
+
sup
|n
KC (u1 , u2 , n)|
d|J (u1 , u2 )| + O(n?1/2 ).
+
sup
[0,1]2 (u1 ,u2 )?[0,1]2
(u1 ,u2 )?[0,1]2
[0,1]2
D?apre?s l?un des re?sultats de Wichura (1973) concernant la loi du logarithme ite?re?
pour le processus de Kiefer, on a
lim sup
sup
n??
(u,v)?[0,1]2
|K (u, v, n)|
? C
? 1,
2n log log n
p.s.
Comme les de?rive?es partielles d?ordre 1 de la copule C(и) sont majore?es par 1, alors
lim sup
sup
n??
(u,v)?[0,1]2
|K? (u, v, n)|
? C
? 3,
2n log log n
p.s.
Rappelons que parmi les hypothe?ses du corollaire 3.1, la fonction J (и) est a? variation
R
borne?e et que [0,1]2 d|J (u, v)| = ? < ?, ainsi
? R
| n [0,1]2 J (u, v) d(C?n ? C)(u, v)|
?
2n log log n
? O n?1/4 (log2 n)?1/2 (log n)3/2 +
sup
(u,v)?[0,1]2
|K? (u, v, n)|
? C
,
2n log log n
d?ou?
? R
| n [0,1]2 J (u, v) d(C?n ? C)(u, v)|
?
lim sup
2n log log n
n??
Z
|K? (u, v, n)|
?
d|J (u, v)| lim sup sup ? C
2n log log n
n?? (u,v)?[0,1]2
[0,1]2
? 3?.
2
Approximation forte du processus empirique de copule par un processus
114
de Kiefer
3.3.3
De?monstration du the?ore?me 3.3.
D?apre?s la de?composition (3.60), pour tout u ? [0, 1]d et n ? 1, nous avons
1
Gn (u) := ?n (u + n? 2 ?n (u)) +
d
X
?in (ui )
i=1
? 21
ou? (u+n
?n (u)) := (u1 +n
? 21
? 21
?1n (u1 ), . . . , ud +n
?C(u)
,
?ui
?dn (ud )). Pour tout u, v ? [0, 1]d ,
et n ? 1, nous avons
1
1
Gn (u) ? Gn (v) := ?n (u + n? 2 ?n (u)) ? ?n (v + n? 2 ?n (v))
d
X
?C(u)
+
(?in (ui ) ? ?in (vi ))
?ui
i=1
d
X
?C(u) ?C(v)
+
?in (vi )
?
.
?u
?v
i
i
i=1
Nous e?tudions chaque terme de cette somme se?pare?ment lorsque | u ? v |? adn . Nous
rappelons que la suite an ve?rifie les conditions (H.1) ? (H.3). Nous avons
1
1
| ?n (u + n? 2 ?n (u)) ? ?n (v + n? 2 ?n (v)) |
sup
|u?v|?adn
?
sup
1
| ?n (u + n? 2 ?n (u)) ? ?n (u) |
u?[0,1?hn ]d
+
1
| ?n (v + n? 2 ?n (v)) ? ?n (v) |
sup
v?[0,1?hn ]d
+
sup
| ?n (v) ? ?n (u) |,
|u?v|?adn
ou? hn = ((1 + ?)2?1/2 n?1/2 (log log n)1/2 )1/d . Pour n suffisamment grand et d?apre?s
(3.37), nous avons
1
1
| ?n (u + n? 2 ?n (u)) ? ?n (v + n? 2 ?n (v)) |
sup
|u?v|?adn
= OP (hdn log(1/hdn ))1/2 + OP (adn log(1/adn ))1/2 .
(3.54)
Deheuvels (1997) a e?tabli que sous les hypothe?ses (H.1-H.3), on a
?
lim sup {2an (log log n)}?1/2 ?in
(an ) = 1, p.s.,
n??
(3.55)
3.3 Appendice
115
?
(an ) := sup|ui ?vi |?an | ?in (ui ) ? ?in (vi ) |. D?autre part, 0 ? ?C(u)/?ui ? 1,
ou? ?in
pour i = 1, . . . , d, ainsi nous avons
|
sup
|ui ?vi |?an
?
d
X
(?in (ui ) ? ?in (vi ))
i=1
sup
d
X
?C(u)
|
?ui
| (?in (ui ) ? ?in (vi )) |= OP ((an (log log n))1/2 ),
(3.56)
|ui ?vi |?an i=1
et
sup
d
X
| ?in (vi )
vi ?[0,1] i=1
?C(u) ?C(v)
?
?ui
?vi
| ? 2d sup | ?in (vi ) |
vi ?[0,1]
= OP log log n1/2 .
(3.57)
Compte tenu de (3.54), (3.56) et (3.57), nous avons
?1/2
?(an ) = OP (1).
lim sup 2adn log(1/adn )
(3.58)
n??
2
3.3.4
De?monstration du corollaire 3.2
Nous de?composons le processus empirique de copule lisse?e comme suit.
?
Z
1
u?v
n
k
Cn (v)dv ? C(u)
h [0,1]d
h1/d
Z
1
u?v ?
=
k
n(Cn (v) ? C(v)) dv
h [0,1]d
h1/d
Z
?
1
u?v
+ n
k
C(v)dv ? C(u)
h [0,1]d
h1/d
Z
1
u?v
=
k
Gn (v) dv
h [0,1]d
h1/d
Z
?
1
u?v
+ n
k
C(v)dv ? C(u) .
h [0,1]d
h1/d
b n (u) =
G
(3.59)
Approximation forte du processus empirique de copule par un processus
116
de Kiefer
Nous contro?lons la diffe?rence entre le processus empirique de la copule Gn (и) et le
b n (и) de la manie?re suivante.
processus empirique de la copule lisse?e G
Z
1/d
b
|Gn (u) ? Gn (u)| ? Q h
v) ? Gn (u))k(v)dv
i (Gn (u ? h
u
?1
u
di=1 i , i
h1/d h1/d
Z
+ sup |Gn (u)| Q h
k(v)dv
?
1
i
di=1 ui ?1 , ui
u?[0,1]d
h1/d h1/d
Z
? 1/d
+ n Q h
(C(u
?
h
v)
?
C(u))k(v)dv
di=1 ui ?1 , ui i
h1/d h1/d
Z
?
+ n sup |C(u)| Q h
i k(v)dv ? 1
u
?1
u
d
i
u?[0,1]d
, i
i=1
h1/d h1/d
:= ?1;n (u) + ?2;n (u) + ?3;n (u) + ?4;n (u).
(3.60)
Majoration de ?3;n (и) :
Sous les hypothe?ses (F.1), (C.1)-(C.3) et en moyennant le de?veloppement de Taylor
a? l?ordre s, nous avons
Z
s/d
hn ? |?3;n (u)| =
n
s!
s
?
C(u
?
h
?v)
n
uk11 . . . ukdd
k(v)dv
,
kd
k1
?u
.
.
.
?u
1
d
k1 +иии+kd =s
X
ou? ? = (?1 , . . . , ?d ) et 0 < ?i < 1. Par application du the?ore?me de la convergence
domine?e, on a
X
1
?1/2 ?(s/d)
n
hn
|?3;n (u)| = s! k +иии+k
1
? s C(u)
?uk11 . . . ?ukdd
d =s
Z
uk11
. . . ukdd k(v)dv .
(3.61)
Ainsi, par (C.1) et (C.3), nous avons
sup |?3;n (u)| = O(n1/2 hs/d
n ) = o(1).
(3.62)
u?[0,1]d
Majoration de ?1;n (и) :
Par application du the?ore?me 3.2 et d?apre?s la continuite?, presque su?rement, du pro-
3.3 Appendice
117
cessus gaussien K?C (u, n), nous avons
sup |?1;n (u)| ?
sup
sup
u,v?[0,1]d |u?v|?hn
u?[0,1]d
Z
|Gn (v) ? Gn (u)| K(v)dv
= oP (1)O(1) = oP (1).
(3.63)
Majoration de ?2;n (и) :
Comme supu?[0,1]d |Gn (u)| = OP (1) et sous l?hypothe?se (C.2), nous avons, lorsque
n ? ?,
Z
? n Q h
di=1 ui ?1 ,
ui
h1/d h1/d
i k(v)dv ? 1 = o(1),
donc supu?[0,1]d |?2;n (u)| = oP (1).
Selon des arguments similaires, nous avons supu?[0,1]d |?4;n (u)| = oP (1).
En regroupant ces re?sultats, nous avons
b n (u) ? Gn (u)| = oP (1).
sup |G
u?[0,1]d
De plus
b n (u) ? ?1 K? (u, n)| ?
sup |G
n C
u?[0,1]d
b n (u) ? Gn (u)|
sup |G
u?[0,1]d
1
+ sup |Gn (u) ? ? K?C (u, n)|,
n
u?[0,1]d
ce qui ache?ve la de?monstration.
(3.64)
Approximation forte du processus empirique de copule par un processus
118
de Kiefer
Chapitre 4
On the Multivariate Two-sample
Problem using Strong
Approximations of Empirical
Copula Processes
Abstract 4.0.1. We establish optimal rates for the strong approximation of
two-sample empirical copula processes by sequences of Gaussian processes. These
results are applied to investigate Crame?r-von Mises-type statistics. The weighted
Crame?r-von Mises two-sample is discussed.
120
4.1
Multivariate Two-sample Problem
Introduction and motivation
Copulas are a useful tool to model dependent data as they allow to separate the
dependence properties of the data from their marginal properties and to construct
multivariate models with marginal distributions of arbitrary form. In the monographs by Nelsen (2006) and Joe (1997) the reader may find detailed ingredients
of the modelling theory as well as surveys of the commonly used copulas. Copulas
have become popular in applied statistics, because of the fact that they constitute
a flexible and robust way to model dependence between the margins of random
vectors. This feature has motivated successful applications in actuarial science and
survival analysis (see, e.g., Frees et Valdez (1998), Cui et Sun (2004)). In the literature on risk management and, more generally, in mathematical economics and
mathematical finance modelling, a number of illustrations are provided (refer to
books of Cherubini et al. (2004) and McNeil et al. (2005)), in particular, in the
context of asset pricing and credit risk management.
In this chapter, we are concerned with testing the similarity between dependence
structures, which has several advantages as argued by Re?millard et Scaillet (2009).
First, it is applicable to any dimension. It is not restricted to the two dimensional
case only. Second, it is not affected by strict monotonic transformations. Re?millard et
Scaillet (2009) presented some applications of testing equality between copulas with
emphasis in finance, psychology, insurance and medicine. In the statistical literature,
this is called the two-sample problem, which has received considerable attention. We
refer to Burke (1977), Cso?rgo? (1979), and the references therein.
In a single copula context, note that the adequacy of a copula for a given ran-
4.1 Introduction and motivation
121
dom vector is usually tested using goodness of fit methods. Several proposals have
been made recently for goodness-of-fit tests of copula models. Panchenko (2005)
has proposed a test based on a V -statistic. Fermanian (2005) and Scaillet (2007)
have investigated deeply kernel-based goodness of fit testing procedures. Dobric? et
Schmid (2007) propose a test based on Rosemblatt?s transform. For more details,
the reader is referred to Genest et al. (2009).
Let Cn (и) and Dm (и) denote the empirical copulas functions based on independent
samples of sizes n and m, respectively. In this paper we consider statistical comparison procedures of the unknown copulas C(и) and D(и) based on Cn (и) and Dm (и).
First, we consider approximations of empirical processes based Cn (и) and Dm (и) by
Gaussian processes. Our theorems yield the best possible approximation rates given
the construction we use, and correspond to the results obtained in Deheuvels (2009).
Secondly, we present two-sample tests of the hypothesis that C = D. We investigate
several test statistics including the one studied in Re?millard et Scaillet (2009).
The rest of this chapter is organized as follow. Д4.2.1 is devoted to preliminary results on the empirical copula process and the statement of reference list concerning
invariance principles for copulas. In Д4.2.3 We first derive the strong approximation
of copula processes in the general case. In Д4.2.3, we specialize into the case of independent margins, precisely, we provide the strong approximations for the ?n;m (и) and
?n;m (и), defined below, by sequences of appropriate Gaussian processes. These representations will be used, in Д4.3, to derive some asymptotic properties of the statistics
considered in this chapter for testing equality between copulas. Some concluding remarks and possible future developments are mentioned in Д4.4. To avoid interrupting
the flow of the presentation, all mathematical developments are relegated to Д4.5.
122
4.2
4.2.1
Multivariate Two-sample Problem
Two sample-Problem
Empirical Copula Process
We shall first consider the one-sample empirical copula processes and define the
approximating Gaussian process, which are used throughout. Let X = (X1 , . . . , Xd )
be a vector of d ? 2 continuous random variables with distribution function [d.f.]
F(и), and Fi (и) be the i-marginal d.f. of F(и). The characterization theorem of Sklar (1959) implies that there exists a copula function C(и) on [0, 1]d with uniform
marginals such that
d
F(x1 , . . . , xd ) = C(F1 (x1 ), . . . , Fd (xd )) for (x1 , . . . , xd ) ? R .
(4.1)
When F(и) is continuous, it is easy to see that the copula associated with F(и) is
uniquely determined and given by
C(u1 , . . . , ud ) = F(F1? (u1 ), . . . , Fd? (ud )) for (u1 , . . . , ud ) ? [0, 1]d ,
(4.2)
where, for j = 1, . . . , d, Fj? (u) = inf{x : Fj (x) ? u}, with u ? [0, 1], is the quantile
function of Fj (и). Consider a sequence {Xk = (X1k , . . . , Xdk ), k ? 1} of independent
and identically distributed [i.i.d.] random replicТ of X. Throughout the sequel, we
assume that the marginal distribution functions F1 (и), . . . , Fd (и) of X are continuous.
Setting 1A for the indicator function of A, we define, for each n ? 1, the empirical
counterparts of F(и), F1 (и), . . . , Fd (и) and F1? (и), . . . , Fd? (и), respectively, by setting,
for j = 1, . . . , d,
n
1X
d
Fn (x) =
1{Xk ?x} for x ? R ,
n k=1
(4.3)
n
1X
1 k
Fjn (x) =
= Fn (1, . . . , 1, x, 1, . . . , 1) for x ? R,
n k=1 {Xj ?x}
(4.4)
4.2 Two sample-Problem
123
?
?
?
inf{x : Fjn (x) ? t} for t ? (0, 1),
?
?
?
?
?
Fjn
(t) =
limt?0 Fjn
(t)
for t = 0,
?
?
?
?
? lim F ? (t)
for t = 1.
t?1 jn
(4.5)
In view of the characterization (4.2), we define an empirical copula function of Fn (и)
as any copulas Cn (и) fulfilling the fundamental identity
?
?
Cn (u1 , . . . , ud ) := Fn (F1n
(u1 ), . . . , Fdn
(ud )) for u ? [0, 1]d .
The empirical copula process is defined by
?n (u) = n1/2 {Cn (u) ? C(u)} for u ? [0, 1]d .
(4.6)
In the case of known margins, Neuhaus (1971) and Bickel et Wichura (1971) showed
that, as n ? ?
d
?n (u) ? BC (u),
(4.7)
(d)
where convergence holds with respect to the J1 -topology on Dd , and where BC
denotes a continuous Gaussian process fulfulling
E(BC (u)) = 0, E(BC (u)BC (v)) = C(u ? v) ? C(u)C(v),
and u ? v := (min(u1 , v1 ), . . . , min(ud , vd )). For precise definitions of the space Dd
(d)
and the J1 -topology, in the setup of multivariate empirical processes, we refer to
Einmahl (1987). The function Cn (и) was briefly discussed by Ruymgaart (1973), pp.
6?13, in the introduction of his doctoral thesis. Deheuvels (1979b) investigated the
consistency of Cn (и) and Deheuvels (1981a) obtained the exact law and the limiting
process of ?n (и) when the two margins are independent. The empirical copula process
?n (и) has been studied in full generality in Stute (1984), Ga?enssler et Stute (1987) and
124
Multivariate Two-sample Problem
Ru?schendorf (1974, 1976). In the latter references, the normalized empirical copula
process was introduced under the name multivariate rank order process on a discrete
grid. In fact in that paper more generally the sequential version was introduced and
analyzed for nonstationary and mixing random variables. Fermanian et al. (2004)
show that the weak convergence of ?n (и) to BC (и) (in the bivariate case) holds on
[0, 1]2 when C(и) has continuous partial derivatives on [0, 1]2 , where
BC (u) = BC (u) ? BC (u1 , 1)
?C(u)
?C(u)
? BC (1, u2 )
?u1
?u2
for u ? [0, 1]2 .
In the sequel, we will need some notations and definitions regarding some Gaussian
processes, which play a central role in strong approximation theory. We start with a
multivariate Wiener process W(t) : t ? Rd+ . This process has continuous sample
paths and fulfills
d
Y
E(W(t)) = 0 and E(W(t)W(s)) =
(si ? ti ) for s, t ? Rd+ .
i=1
A multivariate Brownian Bridge on [0, 1]d is defined, in terms of W(и), by setting
( d )
Y
B(t) = W(t) ?
ti W(1, . . . , 1).
i=1
This process has continuous sample paths and fulfills
E(B(t)) = 0 and E(B(t)B(s)) =
d
d
Y
Y
(si ? ti ) ?
si ti
i=1
for s, t ? [0, 1]d .
i=1
For the independence case, the Copula Brownian bridge is a centered Gaussian
process defined, in terms of B(и), by setting
( d )
d
X
Y
BC (t) = B(t) ?
ti B(1, . . . , 1, tj , 1, . . . , 1),
j=1
i6=j
and covariance function given by
E(BC (t)BC (s)) =
d
Y
i=1
{(si ? ti ) ? si ti }
for s, t ? [0, 1]d .
4.2 Two sample-Problem
125
We define a sequence of copula Brownian bridges, with the same law of
BC (t) : t ? [0, 1]d , by setting, for n = 1, 2, . . . , and t ? [0, 1]d ,
( d )
d
X
Y
Bn,C (t) = Bn (t) ?
ti Bn (1, . . . , 1, tj , 1, . . . , 1).
(4.8)
j=1
4.2.2
i6=j
Two-sample empirical process and main statistical
tests
Let {Xk = (X1k , . . . , Xdk ), k ? 1}, and {Yk = (Y1k , . . . , Ydk ), k ? 1}, be i.i.d., random
d-vectors with respective d.f. F(и) and G(и). For each i = 1, . . . , d and j = 1, 2, . . .,
denote the i-th marginal d.f. of Xj by Fi (x) = P(Xij ? x), for x ? R, and the
corresponding quantile function [q.f.,] Fi? (u) = inf{x : Fi (x) ? u}, for u ? (0, 1).
Similarly, let Gi (и) the i-th marginal d.f. of Yj , and the corresponding q.f. is denoted
by G?
i (и). We assume throughout that Fi (и), i = 1, . . . , d, (resp. Gi (и)) are continuous.
Then the unique copulas C(и) and D(и) associated with the first and with the second
sample are determined, for any u = (u1 , . . . , ud ) ? [0, 1]d , by
C(u1 , . . . , ud ) = F(F1? (u1 ), . . . , Fd? (ud )),
D(u1 , . . . , ud ) =
(4.9)
?
G(G?
1 (u1 ), . . . , Gd (ud )).
We would like to test the following null hypothesis
H0 : C(u) = D(u) =
d
Y
ui
for all u ? [0, 1]d ,
i=1
against
H1 : C(u) 6= D(u)
d
for some u ? [0, 1]
and D(u) =
d
Y
ui for all u ? [0, 1]d .
i=1
Obviously this is not equivalent to testing for F = G. Here we focus on the equality
between the dependence structure as posited by C(u) = D(u), for u ? [0, 1]d , leaving
the behavior of the margins out of our field of interest.
126
Multivariate Two-sample Problem
To obtain consistent tests, we rely on a statistic based on suitable functional of
empirical copulas Cn (и) and Dm (и) defined bellow. In view of the characterization
(4.9), we define an empirical copula function of Fn (и) based on the first sample
X1 , . . . , Xn , respectively an empirical copula function of Gm (и), based on the sample
Y1 , . . . , Ym , as any copulas Cn (и) and Dm (и), respectively, fulfilling the identities,
for u ? [0, 1]d ,
?
?
Cn (u1 , . . . , ud ) := Fn (F1n
(u1 ), . . . , Fdn
(ud )),
(4.10)
?
Dm (u1 , . . . , ud ) := Gm (G?
1m (u1 ), . . . , Gdm (ud )).
(4.11)
Consider the empirical process ?n;m (и), defined by
?n;m (u) = [nm/(n + m)]1/2 {Cn (u) ? Dm (u)} ,
u ? [0, 1]d .
(4.12)
To test the null hypothesis H0 , we use a Crame?r-von Mises type statistic, given by
Z
(1)
?n;m :=
{?n;m (u)}2 du.
(4.13)
[0,1]d
The almost sure representation of the process {?n;m (u) : u ? [0, 1]d , n, m ? 1} in
terms of Gaussian processes, will be used to derive the limiting law of the statistics
(1)
?n;m . Let H2 an alternative of H0 , given by
H2 : C(u) = D(u)
for all u ? [0, 1]d and D(u) 6=
d
Y
ui for some u ? [0, 1]d .
i=1
In order to test H2 , we introduce the following two-sample empirical copula process
)
(
d
Y
?n;m (u) = [nm/(n + m)]1/2 Cn (u) + Dm (u) ? 2
Gim (G?
u ? [0, 1]d .
im (ui )) ,
i=1
(4.14)
We propose to use the following statistic, based on {?n;m (u) : u ? [0, 1]d , n, m ? 1},
Z
(2)
?n;m :=
{?n;m (u)}2 du,
(4.15)
[0,1]d
4.2 Two sample-Problem
127
Remark 4.2.1. Throughout this chapter, the underlying probability space is assumed
to be rich enough, in the sense that an independent sequence of Gaussian processes,
which is independent of the originally given i.i.d. sequence of random vectors, can
be constructed on this probability space. This is a technical requirement which allows
for the construction of the Gaussian processes in Theorems 4.2 and 4.3 below. Since
one can expand the underlying probability space, this assumption is not restrictive,
(refer to de Acosta (1982) for details).
4.2.3
Strong approximations of ?n;m and ?n;m
General case
We define empirical copula processes associated with the first and second sample,
respectively, for n, m ? 1 and u ? [0, 1]d , by
?n (u) := n1/2 {Cn (u) ? C(u)},
(4.16)
?m (u) := m1/2 {Dm (u) ? D(u)}.
(4.17)
The Copula Brownian bridges associated with C(и) and D(и) are given, for u ? [0, 1]d ,
by
BC (u) = BC (u) ?
d
X
?C(u)
j=1
and
BD (u) = BD (u) ?
?uj
d
X
?D(u)
j=1
?uj
BC (1, uj , 1),
(4.18)
BD (1, uj , 1).
(4.19)
We define sequences of copula Brownian bridges, with the same law of {BC (u) :
u ? [0, 1]d } and {BD (u) : u ? [0, 1]d }, respectively, by setting, for n = 1, 2, . . . ,
m = 1, 2, . . . and u ? [0, 1]d ,
Bn,C (u) = Bn,C (u) ?
d
X
?C(u)
j=1
?uj
Bn,C (1, uj , 1),
(4.20)
128
Multivariate Two-sample Problem
and
Bm,D (u) = Bm,D (u) ?
d
X
?D(u)
j=1
?uj
Bm,D (1, uj , 1).
(4.21)
In the following we give the strong approximation of ?n;m (и) in general case.
Theorem 4.1. Assume that C(и) and D(и) are twice continuously differentiable on
(0, 1)d and all the partial derivatives of second order are continuous on [0, 1]d . On
a suitable probability space, we may define the processes ?n;m (u) : u ? [0, 1]d , in
combination with a Gaussian process Bn;m (u) : u ? [0, 1]d , n, m = 1, 2, . . . , in
such a way that, if min(n, m) ? ? in such a way n/(n + m) ? ? ? [0, 1] then we
have almost surely,
sup |?n;m (u) ? Bn;m (u)| = O (?(n, m)) ,
(4.22)
u?[0,1]d
where
?(n, m) = max n?1/(2(2d?1)) log n, m?1/(2(2d?1)) log m ,
(4.23)
Bn;m (u) = [m/(n + m)]1/2 Bn,C (u) + [n/(n + m)]1/2 Bm,D (u).
(4.24)
and
Independence case
In this section, we are mainly concerned with the strong approximations of empirical copula processes generated by a sample of random vectors with independent
margins. In this case, the copula Brownian bridges Bn,C (t) : t ? [0, 1]d , n ? 1 and
Bm,D (t) : t ? [0, 1]d , m ? 1 in (4.20) and (4.21), bellow, have the same representation given in (4.8). The next result gives the limit null distribution of the two-sample
empirical process ?n;m (и) defined in equation (4.12).
4.2 Two sample-Problem
129
Theorem 4.2. On a suitable probability space, it is possible to define
?n;m (u) : u ? [0, 1]d , n, m = 1, 2, . . . , jointly with a sequence of copula Brownian
bridges Bn;m (u) : u ? [0, 1]d , n, m = 1, 2, . . . , in such a way that, under the null
hypothesis H0 , if min(n, m) ? ?, in such a way n/(n + m) ? ? ? [0, 1], then we
have almost surely,
sup |?n;m (u) ? Bn;m (u)| = O (?(n, m)) ,
(4.25)
u?[0,1]d
where
?(n, m) = max n?1/2d (log n)2/d , m?1/2d (log m)2/d ,
(4.26)
and
Bn;m (u) = [m/(n + m)]1/2 Bn,C (u) + [n/(n + m)]1/2 Bm,D (u).
(4.27)
In addition, when d = 2, if min(n, m) ? ?, in such a way n/(n + m) ? ? ? [0, 1],
then we may construct the above processes so that, almost surely,
(
)
lim sup{Vn;m }
n,m??
sup
(u1 ,u2 )?[0,1]2
|?n;m (u1 , u2 ) ? Bn;m (u1 , u2 )|
? 2 О 3?3/2 О 55/4 ,(4.28)
where Vn;m = max n1/4 (log n)?1/2 (log2 n)?1/4 , m1/4 (log m)?1/2 (log2 m)?1/4 .
We consider now the strong approximation of the process ?n;m (и) defined in (4.15),
under the null hypothesis H0 . This is formulated in the following theorem.
Theorem 4.3. On a suitable probability space, it is possible to define
?n;m (u) : u ? [0, 1]d , n, m = 1, 2, . . ., jointly with a sequence of copula Brownian
bridges B?n;m (u) : u ? [0, 1]d , n, m = 1, 2, . . . , in such a way that, under the null
hypothesis H0 , if min(n, m) ? ?, in such a way n/(n + m) ? ? ? [0, 1], then we
have almost surely,
sup |?n;m (u) ? B?n;m (u)| = O (?(n, m)) ,
u?[0,1]d
(4.29)
130
Multivariate Two-sample Problem
where ?(n, m) est given in Theorem (4.2) and for n, m = 1, 2, . . . , u ? [0, 1]d ,
B?n;m (u) = [m/(n + m)]1/2 Bn,C (u)
(
+ [n/(n + m)]1/2
Bm,D (u) ? 2
( d
d
X
Y
j=1
)
ui
)
Bm,D (1, uj , 1) .(4.30)
i6=j
In addition, when d = 2, if n/(n + m) ? ? ? [0, 1] as min(n, m) ? ?, then we may
construct the above processes in such a way that, almost surely,
(
lim sup{Vn;m }
n,m??
)
sup
(u1 ,u2
)?[0,1]2
|?n;m (u1 , u2 ) ? B?n;m (u1 , u2 )|
? 3?3/2 55/4 131/2 , (4.31)
where {Vn;m } is given in Theorem (4.2).
Remark 4.2.2.
1. The Gaussian processes Bn,C (и) and Bm,D (и) are independent by construction.
Hence B?n;m (и) is a Gaussian process since it is a linear combination of independent Gaussian processes.
2. Under H0 , the process B?n;m (и) is Gaussian with mean zero, and covariance
function given by
E(B?n;m (u)B?n;m (v))
=
d
Y
i=1
ui ? vi ?
d
Y
ui vi ,
for u, v ? [0, 1]d .
i=1
see, for example Burke (1977) and Cso?rgo? (1979) for details this calculation.
4.3
Asymptotic law of statistical test
In the general case, i.e., H0? : C(u) = D(u) 6=
Corollary.
Qd
i=1
ui , we have the following
4.3 Asymptotic law of statistical test
131
Corollary 4.1. Under conditions of Theorem 4.1, if min(n, m) ? ?, in such a
way n/(n + m) ? ? ? [0, 1], then, under H0? , we have almost surely,
Z
(1)
?n;m ?
{Bn;m (u)} du = O (M(n, m)) ,
d
2
(4.32)
[0,1]
where M(n, m) = ?(n, m) max (log log n)1/2 , (log log m)1/2 .
Corollary 4.2 below is a natural consequence of Theorem 4.2, when combined with
(1)
the definition (4.13) of ?n;m .
Corollary 4.2. Under the null hypothesis H0 , and the same conditions of Theorem
4.2, if min(n, m) ? ?, in such a way n/(n + m) ? ? ? [0, 1], then we have almost
surely,
Z
(1)
2
?n;m ?
{Bn;m (u)} du = O (`(n, m)) ,
[0,1]d
where `(n, m) = ?(n, m) max (log log n)1/2 , (log log m)1/2 .
(4.33)
In addition, when d = 2, if n/(n + m) ? ? ? [0, 1] as min(n, m) ? ?, then we may
construct the above processes in such a way that, almost surely,
Z
(1)
lim sup{Ve (n, m)} ?n;m ?
n,m??
{Bn;m (u, v)} dudv ? 2 О 3?3/2 О 55/4 ,
2
2
(4.34)
[0,1]
where Ve (n, m) = {Vn;m } max{(log log n)1/2 , (log log m)1/2 }.
Remark 4.3.1. We infer from Theorem 4.1 , that
sup |?n;m (u)| ? sup |Bn;m (u)| = O(?(n, m)).
u?[0,1]d
u?[0,1]d
By using Theorem 4.2, we obtain
sup |?n;m (u)| ? sup |Bn;m (u)| = O(?(n, m)).
u?[0,1]d
d
u?[0,1]
(4.35)
(4.36)
132
Multivariate Two-sample Problem
Corollary 4.3 below is a natural consequence of Theorem 4.3.
Corollary 4.3. Under condition of Theorem 4.3, we have
Z
(2)
?n;m ?
[0,1]d
{B?n;m (u)}2 du
= O(`(n, m)),
(4.37)
where `(n, m) is given in Corollary 4.2.
Remark 4.3.2. From Theorem 4.3, we can derive the following
sup |?n;m (u)| ? sup B?n;m (u) = O(?(n, m)).
u?[0,1]d
d
u?[0,1]
(4.38)
Remark 4.3.3. Using the same preceding methodology, we can study the following
integral statistic, and provide the limiting distribution under H0 of
?(3)
n;m
Z
:=
?n;m (u) du.
[0,1]d
(3)
The statistic ?n;m is of great interest since the tabulation of significance points of
the limiting distribution under H0 is known.
(1)
Remark 4.3.4. Note that the study of weighted versions of the statistics ?n;m and
(2)
?n;m are possible. We limit ourselves to the following more or less straightforward
case. Let
?(4)
n;m :=
( d
Y
Z
[0,1]d
)
i
u2?
i
{?n;m (u)}2 du,
(4.39)
{?n;m (u)}2 du.
(4.40)
i=1
and
?(5)
n;m :=
( d
Y
Z
[0,1]d
)
i
u2?
i
i=1
For the choice of ?i > ?1/2, i = 1, . . . , d, we have, almost surely,
( d
)
Z
Y
(4)
2?i
2
ui
Bn;m (u)du = O(`(n, m)),
?n;m ?
[0,1]d
i=1
(4.41)
4.4 Concluding remarks and future works
133
and
( d
)
Z
Y
(5)
2
i
(u)du
u2?
B
?n;m ?
= O(`(n, m)).
n;m
i
d
[0,1]
(4.42)
i=1
The proof is essentially identical to the proof of (4.33) and (4.37), with the added
elementary observation that
Z
( d
Y
[0,1]d
)
i
u2?
i
du < ?,
(4.43)
i=1
for ?i > ?1/2, i = 1, . . . , d.
4.4
Concluding remarks and future works
Denote by {KC (u, t) : u ? [0, 1]d , t ? 0} a multivariate Gaussian process with
continuous sample paths and fulfills
E (KC (u, s)) = 0 and E (KC (u, s)KC (v, t)) = (s ? t) {C(u ? v) ? C(u)C(v)} ,
for u, v ? [0, 1]d and s, t ? 0. Note that the process {KC (u, t) : u ? [0, 1]d , t ? 0} is
known in the literature under the name of Kiefer process. For each n > 0, uj ? [0, 1]
and j = 1, . . . , d, the copula Gaussian process is defined by
KC (u, n) =: KC (u, n) ?
d
X
KC (1, uj , 1, n)
j=1
?C(u)
,
?uj
u ? [0, 1]d .
(4.44)
In chapter 3, we have established the strong approximations of the empirical copula
process {?n (u) : u ? [0, 1]d } by a single Gaussian process {KC (u, n) : u ?
[0, 1]d , n ? 0}. We recall our result as follows.
Theorem 4.4. Assume that C(и), associated with F(и), is twice continuously differentiable on (0, 1)d , and the second derivative continuous on [0, 1]d . On a suitable probability space, we may define the empirical copula process {?n (u) : u ? [0, 1]d ; n > 0}
134
Multivariate Two-sample Problem
in combination with a Gaussian process {KC (u, t) u ? [0, 1]d ; t ? 0}, in such a way
that, almost surely as n ? ?
?
sup | n?n (u) ? KC (u, n)| = O n1/2?1/(4d) (log n)3/2 .
(4.45)
u?[0,1]d
In the particular case of independence, i.e., C(u) =
Qd
i=1
ui the process {KC (u, n)
u ? [0, 1]d ; n ? 0} is equal to
KC (u, n) =: KC (u, n) ?
d
X
KC (1, uj , 1, n)
j=1
d
Y
ui ,
u ? [0, 1]d ,
i6=j
with mean zero and covariance functions
( d
)
d
d
d
Y
Y
X
Y
E (KC (u, s)KC (v, t)) = (s?t)
(ui ? vi ) + (d ? 1)
ui vi ?
(ui ? vi )
ui vj
i=1
i=1
i=1
i6=j
where u, v ? [0, 1]d and s, t ? 0. For more details the reader may refer to Cso?rgo?
(1979). Theorem 4.4 may be used to derive the limiting behavior of the statistics
(1)
(2)
?n;m and ?n;m following the same line of proofs of the Corollaries 4.2 and 4.3. The
statement of Theorem 4.4 for the processes ?n;m (и) and ?n;m (и) is straightforward.
We may refer also to Cso?rgo? (1979), where the same kind of approximation is used.
The strong approximation methodology used in this paper can also accommodate
the corresponding k-sample problem studied in Kiefer (1959) as mentioned in Burke
(1977), but for the sake of clarity we have restricted ourselves to two samples.
We have addressed the two-sample problem in copula models. The rate of approximation of the processes ?n;m (и) and ?n;m (и) by sequences of Gaussian processes given,
respectively, in Theorems 4.2 and 4.3, are the best possible to our knowledge.
4.5 Proofs
4.5
135
Proofs
For easy reference and completeness, we recall the following result when C(u) =
Qd
i=1 ui .
Theorem 4.5. [Deheuvels (2009)] On a suitable probability space, one can construct
a sequence {Bn,C (u) : u ? [0, 1]d } of copula Brownian Bridges such that we may
define the empirical copula process {?n (u) : u ? [0, 1]d }, such that, almost surely as
n ? ?,
sup |?n (u) ? Bn,C (u)| = O
u?[0,1]d
(log n)2/d
n1/2d
.
(4.46)
In addition, when d = 2, we may construct the above processes in such a way that,
almost surely,
(
lim sup n1/4 (log n)?1/2 (log log n)?1/4
n??
)
sup
(u1 ,u2 )?[0,1]2
|?n (u1 , u2 ) ? Bn,C (u1 , u2 )|
= 2?1/2 3?3/2 55/4 . (4.47)
Proof of Theorem 4.1. Observe the following decomposition
?n;m (u) = [m/(n + m)]1/2 ?n (u) ? [n/(n + m)]1/2 ?m (u).
(4.48)
Suppose that the conditions of Theorem 4.1 are satisfied. On a suitable probability
space, we may define the empirical copula process {?n (u) : u ? [0, 1]d ; n > 0} in
combination with a sequence of Gaussian processes {Bn,C (u) : u ? [0, 1]d ; n > 0}, in
such a way that, almost surely as n ? ?,
sup |?n (u) ? Bn,C (u)| = O
log n
n1/2(2d?1)
u?[0,1]d
.
(4.49)
Similarly, we have almost surely, as m ? ?,
sup |?m (u) ? Bm,D (u)| = O
u?[0,1]d
log m
m1/2(2d?1)
.
(4.50)
136
Multivariate Two-sample Problem
For the details of this approximation, see theorem 2.9 chapter 2. We make use of
(4.49) and (4.50), in combinaison with the triangle inequality, to write
sup | ?n;m (u) ? Bn;m (u) | ? [m/(n + m)]1/2 sup | ?n (u) ? Bn,C (u) |
u?[0,1]d
u?[0,1]d
+[n/(n + m)]1/2 sup | ?m (u) ? Bm,D (u) |
u?[0,1]d
= O
(log n)2/d
n1/(2(2d?1))
+O
(log m)2/d
m1/(2(2d?1))
= O(?(n, m)).
(4.51)
2
Thus the proof of Theorem 4.1 is complete.
Proof of Theorem 4.2. Under H0 , by using Theorem 4.5, for u ? [0, 1]d , when
min(n, m) ? ?, in such a way n/(n + m) ? ? ? [0, 1], we have
?n;m (u) = [m/(n + m)]1/2 ?n (u) ? [n/(n + m)]1/2 ?m (u),
(4.52)
and
sup | ?n;m (u) ? Bn;m (u) | ? [m/(n + m)]1/2 sup | ?n (u) ? Bn,C (u) |
u?[0,1]d
u?[0,1]d
+[n/(n + m)]1/2 sup | ?m (u) ? Bm,D (u) |
u?[0,1]d
= O
(log n)2/d
(log m)2/d
+O
n1/2d
m1/2d
= O(?(n, m)).
(4.53)
Note that Bn;m (u) is a Gaussian process, using the fact that {Xk }k?1 and {Yk }k?1
are independent sequences, hence the processes {Bn,C (u) : u ? [0, 1]d , n ? 1} and
{Bm,D (u) : u ? [0, 1]d , m ? 1} can be constructed independently.
In the bivariate case d = 2, we assume that n/(n + m) ? ? ? [0, 1], as min(n, m) ?
4.5 Proofs
137
?, by the triangle inequality,
||?n;m ? Bn;m || =
sup
(u1 ,u2 )?[0,1]2
|?n;m (u1 , u2 ) ? Bn;m (u1 , u2 )|
? [m/(n + m)]1/2 | ?n (u1 , u2 ) ? Bn,C (u1 , u2 ) |
+ [n/(n + m)]1/2 | ?m (u1 , u2 ) ? Bm,D (u1 , u2 ) | .
A straightforward consequence of the Fact 2 is that we have, almost surely,
(
)
lim sup{Vn;m }
sup
n,m??
(u1 ,u2 )?[0,1]2
|?n;m (u1 , u2 ) ? Bn;m (u1 , u2 )|
?
? ?1/2 + (1 ? ?)1/2 2?1/2 3?3/2 55/4
? 2 О 3?3/2 55/4 .
2
Thus the proof of Theorem 4.2 is complete.
Proof of Corollary 4.2. The proof is largely inspired from Deheuvels et al. (2006)
in the case d = 2. Let us recall the definitions (4.16)-(4.17) of ?n (и) and ?m (и). Hence,
under H0 , by the triangle inequality, one obtains
Z
(1)
?n;m ?
Z
{Bn,m (u)} du = 2
[0,1]
?
2
2
Z
{?n;m (u)} du ?
[0,1]2
[0,1]
{Bn;m (u)} du
2
2
sup |?n;m (u) ? Bn;m (u)| sup |?n;m (u) + Bn;m (u)|
u?[0,1]2
u?[0,1]2
)
(
?
sup |?n;m (u) ? Bn;m (u)| 2 sup |?n;m (u)| + sup |?n;m (u) ? Bn;m (u)| .
u?[0,1]2
u?[0,1]2
u?[0,1]2
(4.54)
For easy reference, we recall the following fact given in Deheuvels et al. (2006)
1
lim sup(2 log log n)?1/2 sup |?n (u)| = lim sup(2 log log m)?1/2 sup |?m (u)| = ,
4
n??
m??
u?[0,1]2
u?[0,1]2
(4.55)
138
Multivariate Two-sample Problem
which implies, under H0 , that
1
lim sup{(2 log log n)?1/2 ? (2 log log m)?1/2 } sup |?n;m (u)| ? .
2
n,m??
u?[0,1]2
(4.56)
Combining (4.28), (4.54) and (4.56) yields to (4.34). Likewise, by combining (4.25),
(4.54) and (4.56) we conclude that (4.33) holds. For d ? 3, the proof is similar and
2
will be omitted.
Proof of Theorem 4.3. Recall ?n;m (и) defined in (4.14). Noting that, under H0 ,
for u ? [0, 1]d , we have
(
?n;m (u) = [nm/(n + m)]1/2
d
Y
Cn (u) + Dm (u) ? 2
)
Gim (G?
im (ui )) ,
i=1
1/2
= [m/(n + m)]
1/2
?n (u) + [n/(n + m)]
{?m (u) ? 2Vm (u)} , (4.57)
where the processes ?n (и) and ?m (и) are given, respectively, by (4.16) and (4.17), and
( d
)
d
Y
Y
Vm (u) = m1/2
Gim (G?
ui , for u ? [0, 1]d .
im (ui )) ?
i=1
i=1
First, recall the following useful lemma.
Lemma 4.1. [Telescoping] Let {ai : 1 ? i ? k} and {bi : 1 ? i ? k} a sequence of
real numbers, then
k
Y
i=1
ai ?
k
Y
k
i?1
k
X
Y
Y
bi =
(ai ? bi )
bj
ah .
i=1
i=1
j=1
(4.58)
h=1+i
Applying Lemma 4.1, one gets
Vm (u) =
d
X
i=1
1/2
m
{Gim (G?
im (ui ))
? ui }
i?1
Y
Gjm (G?
jm (uj ))
j=1
d
Y
uh , for u ? [0, 1]d .
h=i+1
Let ?e(и) be the multivariate empirical process defined by
(
)
d
Y
?em (u) = m1/2 Gm (u) ?
ui , for u ? [0, 1]d .
i=1
4.5 Proofs
139
Using the following result, due to Stute (1982) (p. 99),
sup
ui ?[0,1]
|e
?m (1, G?
jm (ui ), 1)
? ?em (1, ui , 1)| = O
(log m)1/2 (log log m)1/4
m1/4
(4.59)
and the fact that, for i = 1, . . . , d, we have |(Gim (G?
im (ui )) ? ui )| ? 1/m, one obtains
the following representation
Vm (u) =
( d
d
X
Y
i=1
)
uj
?em (1, ui , 1) + O
j6=i
(log m)1/2 (log log m)1/4
m1/4
.
An application of the triangle inequality shows that
=
?
=
=
( d )
d
X
Y
sup Vm (u) ?
ui Bm,D (1, ui , 1)
u?[0,1]d
k=1
i6=k
( d )
( d
)
d
d
X
X
Y
Y
ui Bm,D (1, ui , 1)
sup uj ?em (1, ui , 1) ?
d
u?[0,1]
i=1
k=1
i6=k
j6=i
(log m)1/2 (log log m)1/4
+O
m1/4
(log m)1/2 (log log m)1/4
d sup | ?em (u) ? Bm (u) | +O
m1/4
u?[0,1]d
(log m)3/2
(log m)1/2 (log log m)1/4
O
+O
m1/(2d)
m1/4
(log m)3/2
O
,
(4.60)
m1/(2d)
where the last approximation of uniform multivariate empirical process is due to
Massart (1989). Hence, we obtain an approximation of the process Vm (и), given by
( d )
d
X
Y
(log m)3/2
ui Bm,D (1, ui , 1) = O
sup Vm (u) ?
.
m1/(2d)
u?[0,1]d k=1
i6=k
Under the null hypothesis H0 , we have, by triangular inequality, for n, m = 1, 2, . . . ,
140
Multivariate Two-sample Problem
and u ? [0, 1]d ,
sup ?n;m (u) ? B?n;m (u)
u?[0,1]d
sup [m/(n + m)]1/2 |?n (u) ? Bn,C (u)| + sup [n/(n + m)]1/2 |?m (u) ? Bm,D (u)|
?
u?[0,1]d
u?[0,1]d
( d )
d
X
Y
+ sup 2[n/(n + m)]1/2 Vm (u) ?
ui Bm,D (1, ui , 1)
u?[0,1]d
k=1
i6=k
(log m)2/d
(log m)3/2
(log n)2/d
+O
+O
= O
n1/2d
m1/2d
m1/(2d)
= O(?(n, m)).
In the bivariate case, d = 2, we have the following decomposition
(
)
2
Y
?n;m (u1 , u2 ) = [nm/(n + m)]1/2 Cn (u1 , u2 ) + Dm (u1 , u2 ) ? 2
Gim (G?
im (ui )) ,
i=1
1/2
= [m/(n + m)]
1/2
?n (u1 , u2 ) + [n/(n + m)]
{?m (u1 , u2 ) ? 2Vm (u1 , u2 )} ,
where
Vm (u1 , u2 ) = m1/2
( 2
Y
Gim (G?
im (ui )) ?
i=1
2
Y
)
ui
.
i=1
First, note that the following decomposition of Vm (и, и) holds.
?
?
Vm (u1 , u2 ) = m1/2 G1m (G?
1m (u1 ))G2m (G2m (u2 )) ? G1m (G1m (u1 ))u2
+G1m (G?
1m (u1 ))u2 ? u1 u2
?
?
= m1/2 G1m (G?
1m (u1 )){G2m (G2m (u2 )) ? u2 } + u2 {G1m (G1m (u1 )) ? u1 }
1/2
= m1/2 u1 {G2m (G?
u2 {G1m (G?
2m (u2 )) ? u2 } + m
1m (u1 )) ? u1 }
1 1/2
{G1m (G?
+ 1/2 m1/2 {G2m (G?
2m (u2 )) ? u2 }m
1m (u1 )) ? u1 } . (4.61)
m
It follows from definition of ?m (и) (cf. (4.11)) that
?
?
G2m (G?
2m (u2 )) = Dm (G1m (1), G2m (u2 )),
?
?
G1m (G?
1m (u1 )) = Dm (G1m (u1 ), G2m (1)).
4.5 Proofs
141
Whence, as to the first two terms of the last line in (4.61), we can consider the
following difference
?
1/2
?
u2 Dm (G?
m1/2 u1 {Dm (G?
1m (u1 ), G2m (1)) ? u1 }
1m (1), G2m (u2 )) ? u2 } + m
? {u1 Bm,D (1, u2 ) + u2 Bm,D (u1 , 1)}
= u1 {?m (1, u2 ) ? Bm,D (1, u2 )} + u2 {?m (u1 , 1) ? Bm,D (u1 , 1)} .
Using (4.47) twice we get
(
)
lim sup m1/4 (log m)?1/2 (log log m)?1/4
sup
m??
(u1 ,u2 )?[0,1]2
|?m (1, u2 ) ? Bm,D (1, u2 )|
= 2?1/2 3?3/2 55/4 ,
(4.62)
and
(
)
lim sup m1/4 (log m)?1/2 (log log m)?1/4
m??
sup
(u1 ,u2 )?[0,1]2
|?m (u1 , 1) ? Bm,D (u1 , 1)|
= 2?1/2 3?3/2 55/4 ,
(4.63)
respectively, under H0 . Now we estimate the last term in (4.61), first we have
1/2
?
1/2
m1/2 {G2m (G?
{G2m (G?
{G?
2m (u2 )) ? u2 } = m
2m (u2 )) ? G2m (u2 )} + m
2m (u2 ) ? u2 }
?
1/2
= m1/2 {G2m (G?
(u
))
?
G
(u
)}
?
m
{G
(u
)
?
u
}
2
2
2m
2
2
2m
2m
1/2
+ m {G2m (u2 ) ? u2 } + m1/2 {G2m (u2 ) ? u2 }
(2)
= ?(1)
m (u2 ) + ?m (u2 ).
(4.64)
Using one more (4.59), one finds
sup
u2 ?[0,1]
|?(1)
m (u2 )|
=O
(log m)1/2 (log log m)1/4
m1/4
.
(4.65)
Now, using the Bahadur-Kiefer representation (refer to Kiefer (1970a) and Bahadur
(1966)), to obtain
(
lim sup m1/4 (log m)?1/2 (log log m)?1/4
m??
)
sup |?(2)
m (u2 )|
u2 ?[0,1]
= 21/4 .
(4.66)
142
Multivariate Two-sample Problem
Hence we have
sup |m
1/2
u2 ?[0,1]
{G2m (G?
2m (u2 ))
? u2 }| = O
(log m)1/2 (log log m)1/4
m1/4
(log m)1/2 (log log m)1/4
m1/4
.
(4.67)
.
(4.68)
Similarly we have
sup |m
u1 ?[0,1]
1/2
{G1m (G?
1m (u1 ))
? u1 }| = O
Then the last term in (4.61) is equal to
)
(
1
1/2
sup
|m1/2 {G2m (G?
{G1m (G?
lim sup
2m (u2 )) ? u2 }m
1m (u1 )) ? u1 }|
m1/2 (u1 ,u2 )?[0,1]2
m??
(log m)1/2 (log log m)1/4
=o
.
(4.69)
m1/4
Observe that
sup
(u1 ,u2 )?[0,1]2
| ?n;m (u1 , u2 ) ? B?n;m (u1 , u2 ) |? [m/n + m]1/2
+[n/(n + m)]1/2
sup
(u1 ,u2 )?[0,1]2
+2[n/(n + m)]1/2
sup
(u,1)?[0,1]2
+2[n/(n + m)]1/2
sup
(1,v)?[0,1]2
+2[n/(n + m)]1/2 m?1/2
sup
(u1 ,u2 )?[0,1]2
| ?n (u1 , u2 ) ? Bn,C (u1 , u2 ) |
| ?m (u1 , u2 ) ? Bm,D (u1 , u2 ) |
| ?m (u, 1) ? Bm,D (u, 1) |
| ?m (1, v) ? Bm,D (1, v) |
sup
(u1 ,u2
)?[0,1]2
1/2
| m1/2 {G2m (G?
{G1m (G?
2m (u2 )) ? u2 }m
1m (u1 )) ? u1 } | .
(4.70)
Using (4.47), once more, in connection with (4.62), (4.63), (4.69) and (4.70), we
have, almost surely,
(
)
lim sup {Vn;m }
n,m??
sup
(u1 ,u2
)?[0,1]2
|?n;m (u1 , u2 ) ? B?n;m (u1 , u2 )|
?
(?1/2 + 5(1 ? ?)1/2 )2?1/2 3?3/2 55/4
?
3?3/2 55/4 131/2 .
Thus the proof of Theorem 4.3 is complete.
?
2
Proof of Corollary 4.1. Equation (4.32) follows directly from Theorem 4.1, and
4.5 Proofs
by following the same line of the proof of Corollary 4.2.
143
2
Proof of Corollary 4.3. Equation (4.37) follows directly from Theorem 4.3, and
by following the same line of the proof of Corollary 4.2.
2
144
Multivariate Two-sample Problem
Bibliographie
Akaike, H. (1954). An approximation to the density function. Ann. Inst. Statist.
Math., Tokyo, 6, 127?132.
Bahadur, R. (1966). A note on quantiles in large samples. ann. Math.Statist, 37,
577?580.
Behnen, K., Hus?kova?, M., et Neuhaus, G. (1985). Rank estimators of scores for
testing independence. Statist. Decisions, 3(3-4), 239?262.
Bickel, P. J. et Wichura, M. J. (1971). Convergence criteria for multiparameter
stochastic processes and some applications. Ann. Math. Statist., 42, 1656?1670.
Billingsley, P. (1968). Conergence of Probability Measures, volume 11 of third edition.
Wiley, New York.
Billingsley, P. (1995). Probability and Measure, volume 11 of third edition. Wiley,
New York.
Borisov, I. S. (1980). An approximation of empirical fields. In Nonparametric statistical inference, Vol. I, II (Budapest, 1980), volume 32 of Colloq. Math. Soc. Ja?nos
Bolyai, pages 77?87. North-Holland, Amsterdam.
146
BIBLIOGRAPHIE
Borisov, I. S. (1982). Approximation of empirical fields that are constructed from
vector observations with dependent coordinates. Sibirsk. Mat. Zh., 23(5), 31?41,
222.
Bouzebda, S. et Keziou, A. (2008). A test of independence in some copula models.
Math. Methods Statist., 17(2), 123?137.
Bretagnolle, J. et Massart, P. (1989). Hungarian constructions from the nonasymptotic viewpoint. Ann. Probab., 17(1), 239?256.
Burke, M. D. (1977). On the multivariate two-sample problem using strong approximations of the EDF. J. Multivariate Anal., 7(4), 491?511.
Castelle, N. et Laurent-Bonvalot, F. (1998). Strong approximations of bivariate
uniform empirical processes. Ann. Inst. H. Poincare? Probab. Statist., 34(4), 425?
480.
Cherubini, U., Luciano, E., et Vecchiato, W. (2004). Copula methods in finance.
Wiley Finance Series. John Wiley & Sons Ltd., Chichester.
Chung, K.-L. (1949). An estimate concerning the Kolmogoroff limit distribution.
Trans. Amer. Math. Soc., 67, 36?50.
Cook, R, D. et Johnson, M, E. (1981). A family of distributions for modelling nonelliptically symmetric multivariate data. Journal of the Royal Statistical Society,
43(2), 210?218.
Cso?rgo?, M. (1979). Strong approximations of Hoeffding, Blum, Kiefer,Rosenblatt
Multivariate Empirical Process. Journal of Multivariate Analysis, 9, 84?100.
BIBLIOGRAPHIE
147
Cso?rgo?, M. (2007). A glimpse of the KMT (1975) approximation of empirical processes by Brownian bridges via quantiles. Acta Sci. Math. (Szeged), 73(1-2),
349?366.
Cso?rgo?, M. et Horva?th, L. (1988). A note on strong approximations of multivariate
empirical processes. Stochastic Process. Appl., 28(1), 101?109.
Cso?rgo?, M. et Horva?th, L. (1993). Weighted approximations in probability and statistics. Wiley Series in Probability and Mathematical Statistics : Probability and
Mathematical Statistics. John Wiley & Sons Ltd., Chichester. With a foreword
by David Kendall.
Cso?rgo?, M. et Re?ve?sz, P. (1975). A strong approximations of the multivariate empirical process. Stud.Scient.Math.Hung, 10(10), 427?434.
Cso?rgo?, M. et Re?ve?sz, P. (1981). Strong approximations in probility and statistics.
Academic Press,New York, (6).
Cui, S. et Sun, Y. (2004). Checking for the gamma frailty distribution under the
marginal proportional hazards frailty model. Statist. Sinica, 14(1), 249?267.
Dall?Aglio, G. (1956). Sugli estremi dei momenti delle funzioni di ripartizione doppia.
Ann. Scuoloa Norm. Sup. Pisa (3), 10, 35?74.
Daniels, H. E. (1950). Rank correlation and population models. J. Roy. Statist. Soc.
Ser. B., 12, 171?181.
Darsow, W., Nguyen, B., et Olsen, E. (1992). Copulas and markov processes. Illinois
Journal of Mathematics, 36(4), 600?642.
148
BIBLIOGRAPHIE
de Acosta, A. (1982). Invariance principles in probability for triangular arrays of
B-valued random vectors and some applications. Ann. Probab., 10(2), 346?373.
Deheuvels, P. (1978). Caracte?risation comple?te des lois extre?mes multivarie?es et de
la convergence des types extre?mes. Publ.Inst.Statist. Univ.Paris, 1-2(2), 1?37.
Deheuvels, P. (1979a). De?termination comple?te du comportement asymptotique
en loi des valeurs extre?mes multivarie?es d?un e?chantillon de vecteurs ale?atoires
inde?pendants. C. R. Acad. Sci. Paris Se?r. A-B, 288(3), A217?A220.
Deheuvels, P. (1979b). La fonction de de?pendance empirique et ses proprie?te?s. Un
test non parame?trique d?inde?pendance. Acad. Roy. Belg. Bull. Cl. Sci. (5), 65(6),
274?292.
Deheuvels, P. (1979c). Proprie?te?s d?existence et proprie?te?s topologiques des fonctions de de?pendance avec applications a? la convergence des types pour des lois
multivarie?es. C. R. Acad. Sci. Paris Se?r. A-B, 288(2), A145?A148.
Deheuvels, P. (1980). Nonparametric test of independence. In Nonparametric asymptotic statistics (Proc. Conf., Rouen, 1979) (French), volume 821 of Lecture Notes
in Math., pages 95?107. Springer, Berlin.
Deheuvels, P. (1981a). An asymptotic decomposition for multivariate distributionfree tests of independence. Journal of Multivariate Analysis, 11, 102?113.
Deheuvels, P. (1981b). A Kolmogorov-Smirnov type test for independence and multivariate samples. Rev. Roumaine Math. Pures Appl., 26(2), 213?226.
Deheuvels, P. (1981c). Multivariate tests of independence. In Analytical methods
BIBLIOGRAPHIE
149
in probability theory (Oberwolfach, 1980), volume 861 of Lecture Notes in Math.,
pages 42?50. Springer, Berlin.
Deheuvels, P. (1988). On the approximation of quantile processes by Kiefer processes. Journal of Theoretical Probability., 11, 997?1018.
Deheuvels, P. (1997). Strong laws for local quantile processes. Ann. Probab., 25(4),
2007?2054.
Deheuvels, P. (2009). A multivariate bahadur-kiefer representation for the empirical
copula process. Zap. Nauchn. Sem. S.-Peterburg. Otdel. Mat. Inst. Steklov., 364,
120?147.
Deheuvels, P. et Mason, D. M. (1990). Bahadur-Kiefer-type processes. Ann. Probab.,
18, 669?697.
Deheuvels, P., Peccati, G., et Yor, M. (2006). On quadratic functionals of the
Brownian sheet and related processes. Stochastic Process. Appl., 116(3), 493?
538.
Dobric?, J. et Schmid, F. (2007). A goodness of fit test for copulas based on Rosenblatt?s transformation. Comput. Statist. Data Anal., 51(9), 4633?4642.
Durbin, J. et Stuart, A. (1951). Inversions and rank correlation coefficients. J. Roy.
Statist. Soc. Ser. B., 13, 303?309.
Einmahl, J. H. J. (1987). Multivariate empirical processes, volume 32 of CWI Tract.
Stichting Mathematisch Centrum Centrum voor Wiskunde en Informatica, Amsterdam.
150
BIBLIOGRAPHIE
Einmahl, J. H. J. et Mason, D. M. (1988a). Laws of the iterated logarithm in the
tails for weighted uniform empirical processes. Ann. Probab., 16(1), 126?141.
Einmahl, J. H. J. et Mason, D. M. (1988b). Strong limit theorems for weighted
quantile processes. Ann. Probab., 16(4), 1623?1643.
Einmahl, J. H. J. et Ruymgaart, F. H. (1987). The almost sure behavior of the
oscillation modulus of the multivariate empirical process. Statist. Probab. Lett.,
6(2), 87?96.
Eland-Johnson, R. C. et Johnson, N. L. (1980). Survival models and data analysis.
John Wiley & Sons Inc., New York. Wiley Series in Probability and Mathematical
Statistics.
Embrechts, P., Hoing, A., et Juri, A. (2003). Using copulae to bound the value-atrisk for functions of dependent risks. Finance and Stochastics, 7(2), 145?167.
Fermanian, J.-D. (1997). Multivariate hazard rates under random censorship. J.
Multivariate Anal., 62(2), 273?309.
Fermanian, J.-D. (2005). Goodness-of-fit tests for copulas. J. Multivariate Anal.,
95(1), 119?152.
Fermanian, J.-D., Radulovic?, D., et Wegkamp, M. (2004). Weak convergence of
empirical copula processes. Bernoulli, 10(5), 847?860.
Fe?ron, R. (1956). Sur les tableaux de corre?lation dont les marges sont donne?es. Cas
de l?espace a trois dimensions. Publ. Inst. Statist. Univ. Paris, 5, 3?12.
BIBLIOGRAPHIE
151
Fre?chet, M. (1951). Sur les tableaux de corre?lation dont les marges sont donne?es.
Ann. Univ. Lyon. Sect. A. (3), 14, 53?77.
Frees, J.-D. et Valdez, E. (1998). Understanding relationschips using copulas. North.
Amer. Actu. Journ., (2), 1?25.
Ga?enssler, P. et Stute, W. (1987). Seminar on empirical processes, volume 9 of DMV
Seminar. Birkha?user Verlag, Basel.
Galambos, J. (1978). The asymptotic theory of extreme order statistics. John Wiley
& Sons, New York-Chichester-Brisbane. Wiley Series in Probability and Mathematical Statistics.
Genest, C. et MacKay, R. J. (1986). Copules archime?diennes et familles de lois
bidimensionnelles dont les marges sont donne?es. Canad. J. Statist., 14, 145?159.
Genest, C. et Werker, B. J. M. (2002). Conditions for the asymptotic semiparametric
efficiency of an omnibus estimator of dependence parameters in copula models.
In Distributions with given marginals and statistical modelling, pages 103?112.
Kluwer Acad. Publ., Dordrecht.
Genest, C., Ghoudi, K., et Rivest, L.-P. (1995). A semiparametric estimation procedure for dependence parameters in multivariate families of distributions. Biometrika, 82(3), 543?552.
Genest, C., Re?millard, B., et Beaudoin, D. (2009). Goodness-of-fit tests for copulas :
a review and a power study. Insurance Math. Econom., 44(2), 199?213.
Gijbels, I. et Mielniczuk, J. (1990). Estimating the density of a copula function.
Comm. Statist. Theory Methods, 19(2), 445?464.
152
BIBLIOGRAPHIE
Ha?jek, J., S?ida?k, Z., et Sen, P. K. (1999). Theory of rank tests. Probability and
Mathematical Statistics. Academic Press Inc., San Diego, CA, second edition.
Hall, P. (1992). The boostrap and Edgeworth Expansion. Springer., Berlin. Springer
Series in Statistics.
Hoeffding, W. (1940). Masstabinvariante korrelationtheorie. Schriften des Mathematischen Instituts und des Instituts fu?r Angewandte Mathematik der Universita?t
Berlin, 5, 181?233.
Joe, H. (1997). Multivariate models and dependence concepts, volume 73 of Monographs on Statistics and Applied Probability. Chapman & Hall, London.
Joe, H. et Xu, J. (1996). The estimation method of inference functions for margins
for multivariate models, departement of statistics,university of britich columbia.
Technical Report, (166).
Kiefer, J. (1959). K-sample analogues of the Kolmogorov-Smirnov and Crame?r-V.
Mises tests. Ann. Math. Statist., 30, 420?447.
Kiefer, J. (1967). On Bahadur?s representation of sample quantiles. Ann. Math.
Statist., 38, 1323?1342.
Kiefer, J. (1970a). Deviations between the sample quantile process and the sample
df. In Nonparametric Techniques in Statistical Inference (Proc. Sympos., Indiana
Univ., Bloomington, Ind., 1969), pages 299?319. Cambridge Univ. Press, London.
Kiefer, J. (1970b). Old and new methods for studying order statistics and sample
quantiles. In Nonparametric Techniques in Statistical Inference (Proc. Sympos.,
BIBLIOGRAPHIE
153
Indiana Univ., Bloomington, Ind., 1969), pages 349?357. Cambridge Univ. Press,
London.
Kimeldorf, G. et Sampson, A. (1975). Uniform representations of bivariate distributions. Comm. Statist., 4(7), 617?627.
Klaassen, C. A. J. et Wellner, J. A. (1997). Efficient estimation in the bivariate
normal copula model : normal margins are least favourable. Bernoulli, 3(1), 55?
77.
Mason, D. M. et van Zwet, W. R. (1987). A refinement of the KMT inequality for
the uniform empirical process. Ann. Probab., 15(3), 871?884.
Massart, P. (1989). Strong approximation for multivariate empirical and related
processes,via KMT constructions. Ann. Probab., 17, 266?292.
McNeil, A. J., Frey, R., et Embrechts, P. (2005). Quantitative risk management.
Princeton Series in Finance. Princeton University Press, Princeton, NJ. Concepts,
techniques and tools.
Nelsen, R. B. (1999). An introduction to copulas, volume 139 of Lecture Notes in
Statistics. Springer-Verlag, New York.
Nelsen, R. B. (2006). An introduction to copulas. Springer Series in Statistics.
Springer, New York, second edition.
Neuhaus, G. (1971). On weak convergence of stochastic processes with multidimensional time parameter. Ann. Math. Statist., 42, 1285?1295.
154
BIBLIOGRAPHIE
Nikitin, Y. (1995). Asymptotic efficiency of nonparametric tests. Cambridge University Press, Cambridge.
Oakes, D. (1994). Multivariate survival distributions. J. Nonparametr. Statist.,
3(3-4), 343?354.
Panchenko, V. (2005). Goodness-of-fit test for copulas. Phys. A, 355(1), 176?182.
Parzen, E. (1962). On estimation of a probability density function and mode. Ann.
Math. Statist., 33, 1065?1076.
Re?millard, B. et Scaillet, O. (2009). Testing for equality between two copulas. J.
Multivariate Anal., 100(3), 377?386.
Re?ve?sz, P. (1976). On multivariate empirical density functions. Sankhya? Ser. A,
38(3), 212?220.
Rosenblatt, M. (1956). Remarks on some nonparametric estimates of a density
function. Ann. Math. Statist., 27, 832?837.
Ru?schendorf, L. (1974). On the empirical process of multivariate, dependent random
variables. J. Multivariate Anal., 4, 469?478.
Ru?schendorf, L. (1976). Asymptotic distributions of multivariate rank order statistics. Ann. Statist., 4(5), 912?923.
Ru?schendorf, L. (2009). On the distributional transform, Sklar?s theorem, and the
empirical copula process. J. Statist. Plann. Inference, 139(11), 3921?3927.
Ruymgaart, F. H. (1973). Asymptotic theory of rank tests for independence. Mathematisch Centrum, Amsterdam. Mathematical Centre Tracts, 43.
BIBLIOGRAPHIE
155
Ruymgaart, F. H. (1974). Asymptotic normality of nonparametric tests for independence. Ann. Statist., 2, 892?910.
Ruymgaart, F. H., Shorack, G. R., et van Zwet, W. R. (1972a). Asymptotic normality of nonparametric tests for independence. Ann. Math. Statist., 43, 1122?1135.
Ruymgaart, F. H., Shorack, G. R., et van Zwet, W. R. (1972b). Asymptotic normality of nonparametric tests for independence. Ann. Math. Statist., 43, 1122?1135.
Scaillet, O. (2007). Kernel-based goodness-of-fit tests for copulas with fixed smoothing parameters. J. Multivariate Anal., 98(3), 533?543.
Schmidt, R. et Stadtmu?ller, U. (2006). Non-parametric estimation of tail dependence. Scand. J. Statist., 33(2), 307?335.
Schweizer, B. (1991). Thirty years of copulas. In Advances in probability distributions with given marginals (Rome, 1990), volume 67 of Math. Appl., pages 13?50.
Kluwer Acad. Publ., Dordrecht.
Schweizer, B. et Sklar, A. (1983). Probabilistic metric spaces. North-Holland Series in
Probability and Applied Mathematics. North-Holland Publishing Co., New York.
Schweizer, B. et Wolff, E. F. (1981). On nonparametric measures of dependence for
random variables. Ann. Statist., 9(4), 879?885.
Scott, D. W. (1992). Multivariate density estimation. Wiley Series in Probability
and Mathematical Statistics : Applied Probability and Statistics. John Wiley &
Sons Inc., New York. Theory, practice, and visualization, A Wiley-Interscience
Publication.
156
BIBLIOGRAPHIE
Serfling, R. J. (1980). Approximation theorems of mathematical statistics. John
Wiley & Sons Inc., New York. Wiley Series in Probability and Mathematical
Statistics.
Shao, J. et Tu, D. S. (1995). The jackknife and bootstrap. Springer Series in Statistics.
Springer-Verlag, New York.
Shih, J. et Louis, T. (1995). Inferences on the association parameter in copula
models for biariate survival data. Biometrics, 51, 1384?1399.
Shiryaev, A. N. (1996). Probability. Second edition. Springer, New York.
Sklar, A. (1959). Fonctions de re?partition a? n dimensions et leurs marges. Publ.
Inst. Statist. Univ. Paris, 8, 229?231.
Sklar, M. (1996). Random variables, distribution functions, and copulas?a personal
look backward and forward. In Distributions with fixed marginals and related
topics (Seattle, WA, 1993), volume 28 of IMS Lecture Notes Monogr. Ser., pages
1?14. Inst. Math. Statist., Hayward, CA.
Skorohod, A. V. (1956). Limit theorems for stochastic processes. Teor. Veroyatnost.
i Primenen., 1, 289?319.
Stute, W. (1982). The oscillation behavior of empirical processes. Ann. Probab.,
10(1), 86?107.
Stute, W. (1984). The oscillation behavior of empirical processes : the multivariate
case. Ann. Probab., 12(2), 361?379.
BIBLIOGRAPHIE
157
Tusna?dy, G. (1977). A remark on the approximation of the sample DF in the
multidimensional case. Period. Math. Hungar., 8(1), 53?55.
Van der Vaart, W. et Wellner, J. A. (1996). Weak convergence and empirical processes. Springer Series in Statistics. Springer-Verlag, New York. With applications
to statistics.
Wand, M. P. et Jones, M. C. (1995). Kernel smoothing, volume 60 of Monographs
on Statistics and Applied Probability. Chapman and Hall Ltd., London.
Wichura, M. J. (1973). Some Strassen-type laws of the iterated logarithm for multiparameter stochastic processes with independent increments. Ann. Probability,
1, 272?296.
Widder, D. V. (1941). The Laplace Transform. Princeton Mathematical Series, v.
6. Princeton University Press, Princeton, N. J.
emme 3.1. Nous avons, avec probabilite? 1,
1
lim sup(2 log log n)?1/2 k?n;U k = lim sup(2 log log n)?1/2 k?n;U k = , (3.35)
2
n??
n??
1
lim sup(2 log log n)?1/2 k?n;V k = lim sup(2 log log n)?1/2 k?n;V k = . (3.36)
2
n??
n??
Le lemme suivant est du? a? Kiefer (1967).
Lemme 3.2. Nous avons, presque su?rement,
lim sup n1/4 (log n)?1/2 (log log n)?1/4 k?n;U + ?n;U k = 21/4 ,
n??
lim sup n1/4 (log n)?1/2 (log log n)?1/4 k?n;V + ?n;V k = 21/4 .
n??
Rappelons que, voir la relation (2.35) dans le chapitre 2, le module d?oscillations
wn (и) du processus empirique uniforme multivarie? s?exprime par
wn (a) :=
sup
| ?n ([s, t]) |,
s?t:|t?s|?a
D?apre?s Einmahl et Ruymgaart (1987), nous avons
a ? (0, 1).
Approximation forte du processus empirique de copule par un processus
108
de Kiefer
Lemme 3.3. Supposons que la fonction de re?partition jointe T(и, и) admet une densite? t(и, и) continue et borne?e sur [0, 1]2 , c?est-a?-dire M = sup(u,v)?[0,1]2 t(u, v) < ?.
Soit {an }n?1 une suite de nombres positifs dans (0, 1) tel que an ? 0, lorsque n ? ?,
et ve?rifiant
i)nan ? ?,
ii)nan / log n ? ?,
iii) log(1/an )/ log log n ? ?
Alors, avec probabilite? 1, nous avons
wn (an )
= M 1/2 .
n?? (2an log(1/an ))1/2
lim
(3.37)
Afin de contro?ler l?e?cart du processus ?n (и, и) entre (u1 , v1 ) et (u2 , v2 ), nous faisons
usage du lemme 2.2 (voir chapitre 2 page 70). D?apre?s Deheuvels et al. (2006), pour
tout 0 ? u1 , v1 , u2 , v2 ? 1, nous avons
| ?n (u1 , v1 ) ? ?n (u2 , v2 ) |? 3 О wn (|u1 ? u2 | ? |v1 ? v2 |).
(3.38)
Nous sommes maintenant en mesure de reprendre la de?monstration de notre re?sultat.
Tout d?abord, fixons un > 0 et soit an = (1 + )2?1/2 n?1/2 (log log n)1/2 . Nous avons
1
1
?n,1 (u, v) ? ?n,0 (u, v) = ?n (u + n 2 ?n;U (u), v + n 2 ?n;V (v)) ? ?n (u, v)
+(?n;U (u) + ?n;U (u))
?C(u, v)
?C(u, v)
+ (?n;V (v) + ?n;V (v))
.
?u
?v
Compte tenu de (3.38), nous avons
1
1
sup | ?n (u + n 2 ?n;U (u), v + n 2 ?n;V (v)) ? ?n (u, v) |? 3wn (an ).
0?u,v?1
Comme 0 ? ?C(u, v)/?u ? 1 et 0 ? ?C(u, v)/?v ? 1 , alors nous avons
k?n,1 ? ?n,0 k ? 3wn (an ) + k?n;U + ?n;U k + k?n;V + ?n;V k.
(3.39)
3.3 Appendice
109
Ainsi,
n1/4 (log n)?1/2 (log log n)?1/4 k?n,1 ? ?n,0 k
lim sup
n??
? 3 О 2?1/4 О M 1/2 О (1 + )1/2 + 2 О 2?1/4
? 2?1/4 (3M 1/2 + 2) < ?,
ce qui nous permet de de?duire que nous avons, presque su?rement,
Gn (u, v) = ?n,1 (u, v) = ?n,0 (u, v) + O n?1/4 (log n)1/2 (log log n)1/4 .
(3.40)
D?apre?s (3.4), nous avons
sup
(u,v)?[0,1]2
?
| n?n (u, v) ? K(u, v, n)| = O n3/8 (log n)3/2 , p.s.
(1)
(3.41)
(2)
Les processus gaussiens KC (u, 1, n) et KC (1, v, n) sont aussi deux processus de
Kiefer ; puisqu?ils repre?sentent deux projections du processus de Kiefer KC (u, v; n)
lorsque u ? [0, 1] et v = 1 fixe, respectivement lorsque u = 1 fixe et v ? [0, 1]. En
appliquant (3.4) deux fois, presque su?rement, nous avons
sup
(u,1)?[0,1]2
?
(1)
| n?n,U (u) ? KC (u, 1, n)|
=
sup
(u,1)?[0,1]2
sup
(1,v)?[0,1]2
=
?
(1)
| n?n (u, 1) ? KC (u, 1, n)| = O n3/8 (log n)3/2 ,
(3.42)
?
(2)
| n?n,V (v) ? KC (1, v, n)|
sup
(1,v)?[0,1]2
?
(2)
| n?n (1, v) ? KC (1, v, n)| = O n3/8 (log n)3/2 .
(3.43)
Compte tenu de (3.40),(3.41), et (3.42), nous avons
sup
(u,v)?[0,1]2
?
| nGn (u, v) ? K?C (u, v, n)| = O n3/8 (log n)3/2 , p.s.,
(3.44)
ou?,
(1)
K?C (u, v, n) = KC (u, v, n) ? KC (u, 1, n)
?C(u, v)
?C(u, v)
(2)
? KC (1, v, n)
.
?u
?v
2
Approximation forte du processus empirique de copule par un processus
110
de Kiefer
Cas d ? 2 :
Soit Xi = (X1i , . . . , Xdi ), pour i ? 1, une suite i.i.d. de re?pliques ale?atoires du vecteur ale?atoire ge?ne?rique X ? Rd . La fonction F(x) = P(X1 ? x1 , . . . , Xd ? xd )
repre?sente la fonction de re?partition jointe exacte de X et Fj (и), pour 1 ? j ? d, les
fonctions de re?partition marginales, suppose?es continues.
Notons par Yi = (F1 (X1i ), . . . , Fd (Xdi )), pour i ? 1, les pseudo-observations uniforme?ment distribue?es sur (0, 1)d , de fonction de re?partition jointe H(и) donne?e,
pour tout u ? [0, 1]d , par
H(u) = P{Y1i ? u1 , . . . , Ydi ? ud },
= P{F1i (X1 ) ? u1 , . . . , Fd (Xdi ) ? ud } = C(u).
De la me?me fac?on, nous introduisons les notations suivantes. Pour tout u ? [0, 1]d
et n ? 1,
n
d
1 XY
Hn (u) :=
1{Yji ? uj } := Fn (F1? (u1 ), . . . , Fd? (ud )),
n i=1 j=1
1
?n (u) := n 2 {Hn (u) ? H(u)},
(3.45)
(3.46)
et pour tout j = 1, . . . , d,
Hjn (uj ) := Hn (1, . . . , 1, uj , 1, . . . , 1) := Fjn (Fj? (uj )),
1
?nj (uj ) := n 2 {Hjn (uj ) ? uj } = ?n (1, uj , 1),
1
?jn (uj ) := n 2 {H?
jn (uj ) ? uj },
?n,0 (u) := ?n (u) ?
d
X
j=1
?nj (uj )
(3.47)
(3.48)
(3.49)
?C(u)
.
?uj
(3.50)
3.3 Appendice
111
La de?marche de la de?monstration sera la me?me que pour d = 2. A? savoir, pour tout
u ? [0, 1]d et n ? 1, nous avons
Gn (u) = ?n (u + n
? 21
?n (u)) +
d
X
?in (ui )
i=1
?C(u)
?ui
1
= ?n,0 (u) + [?n (u + n? 2 ?n (u)) ? ?n (u)] +
d
X
?C(u)
.
(?in (ui ) + ?ni (ui ))
?u
i
i=1
D?apre?s Kiefer (1970b), nous avons
sup | ?in (ui ) + ?ni (ui ) |= O(n?1/4 (log n)1/2 (log log n)1/4 ) p.s.
ui ?[0,1]
En vertu de la loi du logarithme ite?re? e?tablie par Chung (1949), nous avons k ?in k=
O(n?1/2 (log log n)1/2 ). Ce qui implique que pour le choix de an := n?1/2 (log log n)1/2
dans (3.37), nous avons
1
sup | ?n (u+n? 2 ?n (u))??n (u) |? const.wn (an ) = O n?1/4 (log n)1/2 (log log n)1/4 .
u?[0,1]d
En conclusion
Gn (u) = ?n,0 (u) + O n?1/4 (log n)1/2 (log log n)1/4 .
Les processus KC? (и, n), respectivement
(3.51)
?
n?n,0 (и), s?e?crivent comme combinaisons
de processus de Kiefer, respectivement de processus empirique multivarie?. En appliquant (3.4) a? plusieurs reprises, nous pouvons e?tablir que
?
sup | n?n,0 (u) ? KC? (u, n)| = O n1/2?1/4d (log n)3/2 , p.s.,
u?[0,1]d
ou?
K?C (u, n) = KC (u, n) ?
d
X
j=1
(j)
KC (1, uj , 1, n)
?C(u)
,
?uj
u ? [0, 1]d ,
et
(j)
KC (1, uj , 1, n) = KC (1, . . . , 1, uj , 1, . . . , 1, n).
(3.52)
Approximation forte du processus empirique de copule par un processus
112
de Kiefer
Compte tenu de (3.51)-(3.52), nous avons
?
sup | nGn (u) ? KC? (u, n)| = O n1/2?1/4d (log n)3/2 + O n?1/4 (log n)1/2 (log log n)1/4
u?[0,1]d
2
= O n1/2?1/4d (log n)3/2 .
3.3.2
De?monstration du corollaire 3.1
D?apre?s Deheuvels (2009), l?estimateur C?n (и) est asymptotiquement e?quivalent a?
Cn (и) puisque
sup
(u1 ,u2 )?[0,1]2
|Cn (u1 , u2 ) ? C?n (u1 , u2 )| =
1
,
n
(3.53)
ainsi
Z
Z
J (u1 , u2 ) dCn (u1 , u2 ) + O(n?1 ),
J (u1 , u2 ) dC?n (u1 , u2 ) =
[0,1]2
[0,1]2
et
Z
Z
J (u1 , u2 ) d(C?n ? C)(u1 , u2 ) =
[0,1]2
J (u1 , u2 ) d(Cn ? C)(u1 , u2 ) + O(n?1 ).
[0,1]2
D?apre?s le the?ore?me 7 dans Fermanian et al. (2004),
?
n
Z
Z
J (u1 , u2 ) d(C?n ? C)(u1 , u2 ) =
[0,1]2
?
n{C?n (u1 , u2 ) ? C(u1 , u2 )}dJ (u1 , u2 )
[0,1]2
+O(n?1/2 ).
Ainsi, nous avons les ine?galite?s suivantes,
Z
Gn (u1 , u2 )dJ (u1 , u2 )
[0,1]2
Z
?
|
sup {Gn (u1 , u2 ) ? n?1/2 K?C (u1 , u2 , n)}|d|J (u1 , u2 )|
[0,1]2 (u1 ,u2 )?[0,1]2
Z
+
sup
|n?1/2 K?C (u1 , u2 , n)|d|J (u1 , u2 )|
[0,1]2 (u1 ,u2 )?[0,1]2
3.3 Appendice
113
Z
?
|
[0,1]2
sup
(u1 ,u2
)?[0,1]2
{Gn (u1 , u2 ) ? n?1/2 K?C (u1 , u2 , n)}|d|J (u1 , u2 )|
Z
|n?1/2 K?C (u1 , u2 , n)|d|J (u1 , u2 )| + O(n?1/2 )
Z
?1/2 ?
?
sup
|{Gn (u1 , u2 ) ? n
KC (u1 , u2 , n)}|
d|J (u1 , u2 )|
(u1 ,u2 )?[0,1]2
[0,1]2
Z
?1/2 ?
+
sup
|n
KC (u1 , u2 , n)|
d|J (u1 , u2 )| + O(n?1/2 ).
+
sup
[0,1]2 (u1 ,u2 )?[0,1]2
(u1 ,u2 )?[0,1]2
[0,1]2
D?apre?s l?un des re?sultats de Wichura (1973) concernant la loi du logarithme ite?re?
pour le processus de Kiefer, on a
lim sup
sup
n??
(u,v)?[0,1]2
|K (u, v, n)|
? C
? 1,
2n log log n
p.s.
Comme les de?rive?es partielles d?ordre 1 de la copule C(и) sont majore?es par 1, alors
lim sup
sup
n??
(u,v)?[0,1]2
|K? (u, v, n)|
? C
? 3,
2n log log n
p.s.
Rappelons que parmi les hypothe?ses du corollaire 3.1, la fonction J (и) est a? variation
R
borne?e et que [0,1]2 d|J (u, v)| = ? < ?, ainsi
? R
| n [0,1]2 J (u, v) d(C?n ? C)(u, v)|
?
2n log log n
? O n?1/4 (log2 n)?1/2 (log n)3/2 +
sup
(u,v)?[0,1]2
|K? (u, v, n)|
? C
,
2n log log n
d?ou?
? R
| n [0,1]2 J (u, v) d(C?n ? C)(u, v)|
?
lim sup
2n log log n
n??
Z
|K? (u, v, n)|
?
d|J (u, v)| lim sup sup ? C
2n log log n
n?? (u,v)?[0,1]2
[0,1]2
? 3?.
2
Approximation forte du processus empirique de copule par un processus
114
de Kiefer
3.3.3
De?monstration du the?ore?me 3.3.
D?apre?s la de?composition (3.60), pour tout u ? [0, 1]d et n ? 1, nous avons
1
Gn (u) := ?n (u + n? 2 ?n (u)) +
d
X
?in (ui )
i=1
? 21
ou? (u+n
?n (u)) := (u1 +n
? 21
? 21
?1n (u1 ), . . . , ud +n
?C(u)
,
?ui
?dn (ud )). Pour tout u, v ? [0, 1]d ,
et n ? 1, nous avons
1
1
Gn (u) ? Gn (v) := ?n (u + n? 2 ?n (u)) ? ?n (v + n? 2 ?n (v))
d
X
?C(u)
+
(?in (ui ) ? ?in (vi ))
?ui
i=1
d
X
?C(u) ?C(v)
+
?in (vi )
?
.
?u
?v
i
i
i=1
Nous e?tudions chaque terme de cette somme se?pare?ment lorsque | u ? v |? adn . Nous
rappelons que la suite an ve?rifie les conditions (H.1) ? (H.3). Nous avons
1
1
| ?n (u + n? 2 ?n (u)) ? ?n (v + n? 2 ?n (v)) |
sup
|u?v|?adn
?
sup
1
| ?n (u + n? 2 ?n (u)) ? ?n (u) |
u?[0,1?hn ]d
+
1
| ?n (v + n? 2 ?n (v)) ? ?n (v) |
sup
v?[0,1?hn ]d
+
sup
| ?n (v) ? ?n (u) |,
|u?v|?adn
ou? hn = ((1 + ?)2?1/2 n?1/2 (log log n)1/2 )1/d . Pour n suffisamment grand et d?apre?s
(3.37), nous avons
1
1
| ?n (u + n? 2 ?n (u)) ? ?n (v + n? 2 ?n (v)) |
sup
|u?v|?adn
= OP (hdn log(1/hdn ))1/2 + OP (adn log(1/adn ))1/2 .
(3.54)
Deheuvels (1997) a e?tabli que sous les hypothe?ses (H.1-H.3), on a
?
lim sup {2an (log log n)}?1/2 ?in
(an ) = 1, p.s.,
n??
(3.55)
3.3 Appendice
115
?
(an ) := sup|ui ?vi |?an | ?in (ui ) ? ?in (vi ) |. D?autre part, 0 ? ?C(u)/?ui ? 1,
ou? ?in
pour i = 1, . . . , d, ainsi nous avons
|
sup
|ui ?vi |?an
?
d
X
(?in (ui ) ? ?in (vi ))
i=1
sup
d
X
?C(u)
|
?ui
| (?in (ui ) ? ?in (vi )) |= OP ((an (log log n))1/2 ),
(3.56)
|ui ?vi |?an i=1
et
sup
d
X
| ?in (vi )
vi ?[0,1] i=1
?C(u) ?C(v)
?
?ui
?vi
| ? 2d sup | ?in (vi ) |
vi ?[0,1]
= OP log log n1/2 .
(3.57)
Compte tenu de (3.54), (3.56) et (3.57), nous avons
?1/2
?(an ) = OP (1).
lim sup 2adn log(1/adn )
(3.58)
n??
2
3.3.4
De?monstration du corollaire 3.2
Nous de?composons le processus empirique de copule lisse?e comme suit.
?
Z
1
u?v
n
k
Cn (v)dv ? C(u)
h [0,1]d
h1/d
Z
1
u?v ?
=
k
n(Cn (v) ? C(v)) dv
h [0,1]d
h1/d
Z
?
1
u?v
+ n
k
C(v)dv ? C(u)
h [0,1]d
h1/d
Z
1
u?v
=
k
Gn (v) dv
h [0,1]d
h1/d
Z
?
1
u?v
+ n
k
C(v)dv ? C(u) .
h [0,1]d
h1/d
b n (u) =
G
(3.59)
Approximation forte du processus empirique de copule par un processus
116
de Kiefer
Nous contro?lons la diffe?rence entre le processus empirique de la copule Gn (и) et le
b n (и) de la manie?re suivante.
processus empirique de la copule lisse?e G
Z
1/d
b
|Gn (u) ? Gn (u)| ? Q h
v) ? Gn (u))k(v)dv
i (Gn (u ? h
u
?1
u
di=1 i , i
h1/d h1/d
Z
+ sup |Gn (u)| Q h
k(v)dv
?
1
i
di=1 ui ?1 , ui
u?[0,1]d
h1/d h1/d
Z
? 1/d
+ n Q h
(C(u
?
h
v)
?
C(u))k(v)dv
di=1 ui ?1 , ui i
h1/d h1/d
Z
?
+ n sup |C(u)| Q h
i k(v)dv ? 1
u
?1
u
d
i
u?[0,1]d
, i
i=1
h1/d h1/d
:= ?1;n (u) + ?2;n (u) + ?3;n (u) + ?4;n (u).
(3.60)
Majoration de ?3;n (и) :
Sous les hypothe?ses (F.1), (C.1)-(C.3) et en moyennant le de?veloppement de Taylor
a? l?ordre s, nous avons
Z
s/d
hn ? |?3;n (u)| =
n
s!
s
?
C(u
?
h
?v)
n
uk11 . . . ukdd
k(v)dv
,
kd
k1
?u
.
.
.
?u
1
d
k1 +иии+kd =s
X
ou? ? = (?1 , . . . , ?d ) et 0 < ?i < 1. Par application du the?ore?me de la convergence
domine?e, on a
X
1
?1/2 ?(s/d)
n
hn
|?3;n (u)| = s! k +иии+k
1
? s C(u)
?uk11 . . . ?ukdd
d =s
Z
uk11
. . . ukdd k(v)dv .
(3.61)
Ainsi, par (C.1) et (C.3), nous avons
sup |?3;n (u)| = O(n1/2 hs/d
n ) = o(1).
(3.62)
u?[0,1]d
Majoration de ?1;n (и) :
Par application du the?ore?me 3.2 et d?apre?s la continuite?, presque su?rement, du pro-
3.3 Appendice
117
cessus gaussien K?C (u, n), nous avons
sup |?1;n (u)| ?
sup
sup
u,v?[0,1]d |u?v|?hn
u?[0,1]d
Z
|Gn (v) ? Gn (u)| K(v)dv
= oP (1)O(1) = oP (1).
(3.63)
Majoration de ?2;n (и) :
Comme supu?[0,1]d |Gn (u)| = OP (1) et sous l?hypothe?se (C.2), nous avons, lorsque
n ? ?,
Z
? n Q h
di=1 ui ?1 ,
ui
h1/d h1/d
i k(v)dv ? 1 = o(1),
donc supu?[0,1]d |?2;n (u)| = oP (1).
Selon des arguments similaires, nous avons supu?[0,1]d |?4;n (u)| = oP (1).
En regroupant ces re?sultats, nous avons
b n (u) ? Gn (u)| = oP (1).
sup |G
u?[0,1]d
De plus
b n (u) ? ?1 K? (u, n)| ?
sup |G
n C
u?[0,1]d
b n (u) ? Gn (u)|
sup |G
u?[0,1]d
1
+ sup |Gn (u) ? ? K?C (u, n)|,
n
u?[0,1]d
ce qui ache?ve la de?monstration.
(3.64)
Approximation forte du processus empirique de copule par un processus
118
de Kiefer
Chapitre 4
On the Multivariate Two-sample
Problem using Strong
Approximations of Empirical
Copula Processes
Abstract 4.0.1. We establish optimal rates for the strong approximation of
two-sample empirical copula processes by sequences of Gaussian processes. These
results are applied to investigate Crame?r-von Mises-type statistics. The weighted
Crame?r-von Mises two-sample is discussed.
120
4.1
Multivariate Two-sample Problem
Introduction and motivation
Copulas are a useful tool to model dependent data as they allow to separate the
dependence properties of the data from their marginal properties and to construct
multivariate models with marginal distributions of arbitrary form. In the monographs by Nelsen (2006) and Joe (1997) the reader may find detailed ingredients
of the modelling theory as well as surveys of the commonly used copulas. Copulas
have become popular in applied statistics, because of the fact that they constitute
a flexible and robust way to model dependence between the margins of random
vectors. This feature has motivated successful applications in actuarial science and
survival analysis (see, e.g., Frees et Valdez (1998), Cui et Sun (2004)). In the literature on risk management and, more generally, in mathematical economics and
mathematical finance modelling, a number of illustrations are provided (refer to
books of Cherubini et al. (2004) and McNeil et al. (2005)), in particular, in the
context of asset pricing and credit risk management.
In this chapter, we are concerned with testing the similarity between dependence
structures, which has several advantages as argued by Re?millard et Scaillet (2009).
First, it is applicable to any dimension. It is not restricted to the two dimensional
case only. Second, it is not affected by strict monotonic transformations. Re?millard et
Scaillet (2009) presented some applications of testing equality between copulas with
emphasis in finance, psychology, insurance and medicine. In the statistical literature,
this is called the two-sample problem, which has received considerable attention. We
refer to Burke (1977), Cso?rgo? (1979), and the references therein.
In a single copula context, note that the adequacy of a copula for a given ran-
4.1 Introduction and motivation
121
dom vector is usually tested using goodness of fit methods. Several proposals have
been made recently for goodness-of-fit tests of copula models. Panchenko (2005)
has proposed a test based on a V -statistic. Fermanian (2005) and Scaillet (2007)
have investigated deeply kernel-based goodness of fit testing procedures. Dobric? et
Schmid (2007) propose a test based on Rosemblatt?s transform. For more details,
the reader is referred to Genest et al. (2009).
Let Cn (и) and Dm (и) denote the empirical copulas functions based on independent
samples of sizes n and m, respectively. In this paper we consider statistical comparison procedures of the unknown copulas C(и) and D(и) based on Cn (и) and Dm (и).
First, we consider approximations of empirical processes based Cn (и) and Dm (и) by
Gaussian processes. Our theorems yield the best possible approximation rates given
the construction we use, and correspond to the results obtained in Deheuvels (2009).
Secondly, we present two-sample tests of the hypothesis that C = D. We investigate
several test statistics including the one studied in Re?millard et Scaillet (2009).
The rest of this chapter is organized as follow. Д4.2.1 is devoted to preliminary results on the empirical copula process and the statement of reference list concerning
invariance principles for copulas. In Д4.2.3 We first derive the strong approximation
of copula processes in the general case. In Д4.2.3, we specialize into the case of independent margins, precisely, we provide the strong approximations for the ?n;m (и) and
?n;m (и), defined below, by sequences of appropriate Gaussian processes. These representations will be used, in Д4.3, to derive some asymptotic properties of the statistics
considered in this chapter for testing equality between copulas. Some concluding remarks and possible future developments are mentioned in Д4.4. To avoid interrupting
the flow of the presentation, all mathematical developments are relegated to Д4.5.
122
4.2
4.2.1
Multivariate Two-sample Problem
Two sample-Problem
Empirical Copula Process
We shall first consider the one-sample empirical copula processes and define the
approximating Gaussian process, which are used throughout. Let X = (X1 , . . . , Xd )
be a vector of d ? 2 continuous random variables with distribution function [d.f.]
F(и), and Fi (и) be the i-marginal d.f. of F(и). The characterization theorem of Sklar (1959) implies that there exists a copula function C(и) on [0, 1]d with uniform
marginals such that
d
F(x1 , . . . , xd ) = C(F1 (x1 ), . . . , Fd (xd )) for (x1 , . . . , xd ) ? R .
(4.1)
When F(и) is continuous, it is easy to see that the copula associated with F(и) is
uniquely determined and given by
C(u1 , . . . , ud ) = F(F1? (u1 ), . . . , Fd? (ud )) for (u1 , . . . , ud ) ? [0, 1]d ,
(4.2)
where, for j = 1, . . . , d, Fj? (u) = inf{x : Fj (x) ? u}, with u ? [0, 1], is the quantile
function of Fj (и). Consider a sequence {Xk = (X1k , . . . , Xdk ), k ? 1} of independent
and identically distributed [i.i.d.] random replicТ of X. Throughout the sequel, we
assume that the marginal distribution functions F1 (и), . . . , Fd (и) of X are continuous.
Setting 1A for the indicator function of A, we define, for each n ? 1, the empirical
counterparts of F(и), F1 (и), . . . , Fd (и) and F1? (и), . . . , Fd? (и), respectively, by setting,
for j = 1, . . . , d,
n
1X
d
Fn (x) =
1{Xk ?x} for x ? R ,
n k=1
(4.3)
n
1X
1 k
Fjn (x) =
= Fn (1, . . . , 1, x, 1, . . . , 1) for x ? R,
n k=1 {Xj ?x}
(4.4)
4.2 Two sample-Problem
123
?
?
?
inf{x : Fjn (x) ? t} for t ? (0, 1),
?
?
?
?
?
Fjn
(t) =
limt?0 Fjn
(t)
for t = 0,
?
?
?
?
? lim F ? (t)
for t = 1.
t?1 jn
(4.5)
In view of the characterization (4.2), we define an empirical copula function of Fn (и)
as any copulas Cn (и) fulfilling the fundamental identity
?
?
Cn (u1 , . . . , ud ) := Fn (F1n
(u1 ), . . . , Fdn
(ud )) for u ? [0, 1]d .
The empirical copula process is defined by
?n (u) = n1/2 {Cn (u) ? C(u)} for u ? [0, 1]d .
(4.6)
In the case of known margins, Neuhaus (1971) and Bickel et Wichura (1971) showed
that, as n ? ?
d
?n (u) ? BC (u),
(4.7)
(d)
where convergence holds with respect to the J1 -topology on Dd , and where BC
denotes a continuous Gaussian process fulfulling
E(BC (u)) = 0, E(BC (u)BC (v)) = C(u ? v) ? C(u)C(v),
and u ? v := (min(u1 , v1 ), . . . , min(ud , vd )). For precise definitions of the space Dd
(d)
and the J1 -topology, in the setup of multivariate empirical processes, we refer to
Einmahl (1987). The function Cn (и) was briefly discussed by Ruymgaart (1973), pp.
6?13, in the introduction of his doctoral thesis. Deheuvels (1979b) investigated the
consistency of Cn (и) and Deheuvels (1981a) obtained the exact law and the limiting
process of ?n (и) when the two margins are independent. The empirical copula process
?n (и) has been studied in full generality in Stute (1984), Ga?enssler et Stute (1987) and
124
Multivariate Two-sample Problem
Ru?schendorf (1974, 1976). In the latter references, the normalized empirical copula
process was introduced under the name multivariate rank order process on a discrete
grid. In fact in that paper more generally the sequential version was introduced and
analyzed for nonstationary and mixing random variables. Fermanian et al. (2004)
show that the weak convergence of ?n (и) to BC (и) (in the bivariate case) holds on
[0, 1]2 when C(и) has continuous partial derivatives on [0, 1]2 , where
BC (u) = BC (u) ? BC (u1 , 1)
?C(u)
?C(u)
? BC (1, u2 )
?u1
?u2
for u ? [0, 1]2 .
In the sequel, we will need some notations and definitions regarding some Gaussian
processes, which play a central role in strong approximation theory. We start with a
multivariate Wiener process W(t) : t ? Rd+ . This process has continuous sample
paths and fulfills
d
Y
E(W(t)) = 0 and E(W(t)W(s)) =
(si ? ti ) for s, t ? Rd+ .
i=1
A multivariate Brownian Bridge on [0, 1]d is defined, in terms of W(и), by setting
( d )
Y
B(t) = W(t) ?
ti W(1, . . . , 1).
i=1
This process has continuous sample paths and fulfills
E(B(t)) = 0 and E(B(t)B(s)) =
d
d
Y
Y
(si ? ti ) ?
si ti
i=1
for s, t ? [0, 1]d .
i=1
For the independence case, the Copula Brownian bridge is a centered Gaussian
process defined, in terms of B(и), by setting
( d )
d
X
Y
BC (t) = B(t) ?
ti B(1, . . . , 1, tj , 1, . . . , 1),
j=1
i6=j
and covariance function given by
E(BC (t)BC (s)) =
d
Y
i=1
{(si ? ti ) ? si ti }
for s, t ? [0, 1]d .
4.2 Two sample-Problem
125
We define a sequence of copula Brownian bridges, with the same law of
BC (t) : t ? [0, 1]d , by setting, for n = 1, 2, . . . , and t ? [0, 1]d ,
( d )
d
X
Y
Bn,C (t) = Bn (t) ?
ti Bn (1, . . . , 1, tj , 1, . . . , 1).
(4.8)
j=1
4.2.2
i6=j
Two-sample empirical process and main statistical
tests
Let {Xk = (X1k , . . . , Xdk ), k ? 1}, and {Yk = (Y1k , . . . , Ydk ), k ? 1}, be i.i.d., random
d-vectors with respective d.f. F(и) and G(и). For each i = 1, . . . , d and j = 1, 2, . . .,
denote the i-th marginal d.f. of Xj by Fi (x) = P(Xij ? x), for x ? R, and the
corresponding quantile function [q.f.,] Fi? (u) = inf{x : Fi (x) ? u}, for u ? (0, 1).
Similarly, let Gi (и) the i-th marginal d.f. of Yj , and the corresponding q.f. is denoted
by G?
i (и). We assume throughout that Fi (и), i = 1, . . . , d, (resp. Gi (и)) are continuous.
Then the unique copulas C(и) and D(и) associated with the first and with the second
sample are determined, for any u = (u1 , . . . , ud ) ? [0, 1]d , by
C(u1 , . . . , ud ) = F(F1? (u1 ), . . . , Fd? (ud )),
D(u1 , . . . ,
Документ
Категория
Без категории
Просмотров
3
Размер файла
1 219 Кб
Теги
1/--страниц
Пожаловаться на содержимое документа