Titre:Freakonometrics | An Open Lab-Notebook Experiment
La description :Freakonometrics Search Primary Menu Skip to content Academe Courses STT5100 2018 Automne Crash courses IA-data science ensae networks Actuarial science Computer Economics Statistics Trip Search for: M...
Classement Alexa Global: # 25,291,Alexa Classement dans France est # 1,432
L'adresse IP principale: 134.158.39.133,Votre serveur France,Villeurbanne ISP:Institut National de Physique Nucleaire et de Physique des Particules TLD:org Code postal:fr
Ce rapport est mis à jour en 30-Oct-2019
Geo IP vous fournit comme la latitude, la longitude et l'ISP (Internet Service Provider) etc. informations. Notre service GeoIP a trouvé l'hôte freakonometrics.hypotheses.org.Actuellement, hébergé dans France et son fournisseur de services est Institut National de Physique Nucleaire et de Physique des Particules .
Latitude: | 45.766670227051 |
Longitude: | 4.8833298683167 |
Pays: | France (fr) |
Ville: | Villeurbanne |
Région: | Rhone-Alpes |
ISP: | Institut National de Physique Nucleaire et de Physique des Particules |
domaine | Titre |
---|---|
freakonometrics.hypotheses.org | Freakonometrics | An Open Lab-Notebook Experiment |
bjjlabzurich.wordpress.com | bjj lab zürich – lab blog |
le-lab.over-blog.fr | le blog du lab' - laboratoire d'actions pour bezons (lab'). groupe de réflexion et d’action pour une |
kasperskyma.nexway.fr | kaspersky lab maroc boutique officielle - achetez les antivirus kaspersky lab sur la boutique en li |
magnoliaexperiment.blogspot.fr | magnolia experiment |
labmap.wordpress.com | [lab]map – [lab]map – le blog incubateur d'idées de la main à la pâte |
majerus.hypotheses.org | notebook |
ricardoixlz368147.blog2learn.com | want computer skills? experiment with this! - homepage |
islandexperimenthack55339.free-blogz.com | Island Experiment tips and hack - homepage |
messiahxwmhy.free-blogz.com | Island Experiment hack Gems - homepage |
andersondyria.free-blogz.com | island experiment hack gems - homepage |
islandexperimenttips99764.free-blogz.com | Island Experiment mod apk - homepage |
gunnercyqiz.free-blogz.com | island experiment cheats 2018 - homepage |
planbadventures.tumblr.com | destination wedding notebook |
picketfencewickes11590.free-blogz.com | not known factual statements about picket fence experiment - homepage |
Les informations d'en-tête HTTP font partie du protocole HTTP que le navigateur d'un utilisateur envoie à appelé contenant les détails de ce que le navigateur veut et acceptera de nouveau du serveur Web.
Date: | Tue, 29 Oct 2019 18:28:27 GMT |
Content-Type: | text/html; charset=UTF-8 |
Set-Cookie: | PHPSESSID=i83dvba2dtjfd6qtt4kgod77u4; path=/ |
Expires: | Thu, 19 Nov 1981 08:52:00 GMT |
Cache-Control: | no-store, no-cache, must-revalidate |
Pragma: | no-cache |
Link: | |
Access-Control-Allow-Origin: | * |
Content-Encoding: | gzip |
X-Backend: | hypo6 |
Vary: | Accept-Encoding |
X-Varnish: | 227152091 227444870 |
Age: | 12674 |
Via: | 1.1 varnish (Varnish/5.0) |
X-Served-By: | frontwebhypo2 |
Accept-Ranges: | bytes |
Content-Length: | 44395 |
Connection: | keep-alive |
ipv4: | IP:134.158.39.133 ASN:789 OWNER:IN2P3 IN2P3 Autonomous System, FR Country:FR |
Freakonometrics Search Primary Menu Skip to content Academe Courses STT5100 2018 Automne Crash courses IA-data science ensae networks Actuarial science Computer Economics Statistics Trip Search for: Multivariate Analysis Principal Component Analysis: A Generalized Gini Approach 23/10/2019 Arthur Charpentier 1 Comment With Stéphane Mussard and Téa Ouraga, we recently uploaded on arxiv a paper Principal Component Analysis: A Generalized Gini Approach , A principal component analysis based on the generalized Gini correlation index is provided. It is proven that the reduction dimensionality based on the generalized Gini correlation index, that relies on city-block distances, is robust to outliers. Some codes are also available on a dedicated github repo . Gini Mussard Ouraga PCA STT5100 De l’abus de notation dans les modèles de régression 18/10/2019 Arthur Charpentier 1 Comment De manière un peu rituelle, je commence toujours mon cours de régression en revenant sur un point important de la statistique : les abus de notation ! Car tout le monde utilise les mêmes lettres (surtout les grecques) pour désigner des objets de nature différente. Dans la majorité des livres, on pourra nous dire sur la même page que \widehat{\theta}=2.35 et que \text{Var}(\widehat{\theta})=1.07 , autrement dit \widehat{\theta} peut désigner en même temps un nombre (dans le premier cas) et une variable aléatoire (dans le second). C’est pour le moins déroutant ! En fait, la raison est assez simple. La statistique commence toujours par un échantillon \{y_1,y_2,\cdots,y_n\} , des données, des chiffres. Si on reste là, on fait du descriptif . L’étape classique est ensuite de supposer que les observations y_i sont des réalisations de variables aléatoires Y_i , qu’on supposera bien souvent indépendantes et identiquement distribuées. Et \widehat{\theta} sera alors une statistique, c’est à dire une fonction de mes observations. Je peux alors définir \widehat{\theta}=t(y_1,\cdots,y_n) comme étant la statistique observée sur mon échantillon, mais je peux aussi considérer \widehat{\theta}=t(Y_1,\cdots,Y_n) , qui est alors une variable aléatoire, mais avec la même notation. Si on voulait aider à comprendre, on utiliserait \widehat{\Theta} , mais bon, les choses sont ce qu’elles sont… Et en économétrie, ça devient rapidement un cauchemar quand on commence à parler des résidus… Autre particularité en statistique, c’est que si on distingue l’espérance et la moyenne (empirique), on a un seul mot pour parler de la variance, que ce soit pour une variable aléatoire, ou un vecteur de \mathbb{R}^n . On aura ainsi \mathbb{E}[Y]=\int y dF(y) et \overline{y}=\widehat{\mathbb{E}}[\boldsymbol{y}]=\frac{1}{n}\sum_{i=1} y_i alors que \text{Var}[Y]=\int [y-\mathbb{E}[Y]]^2 dF(y) et \widehat{\text{Var}}[\boldsymbol{y}]=\frac{1}{n}\sum_{i=1} (y_i-\overline{y})^2 Considérons un problème de régression maintenant, avec un modèle de la forme y_i=\boldsymbol{x}_i^\top\boldsymbol{\beta}+\varepsilon_i . Ici, \varepsilon_i est un nombre réel, inconnu. Dans une écriture matricielle, on a \boldsymbol{y}=\boldsymbol{X}\boldsymbol{\beta}+\boldsymbol{\varepsilon} , où cette fois \boldsymbol{\varepsilon} est un vecteur de \mathbb{R}^n (et oui, je suis désolé mais ici \boldsymbol{X} désigne la matrice des covariates, et non pas un vecteur aléatoire… je ferais un billet un jour pour parler du fait que parfois on dit que les \boldsymbol{x} sont donnés et des fois – comme on conditionne suivant \boldsymbol{X} , autrement dit, on les voit comme aléatoires). On peut parfois faire une hypothèse quant à la distribution des résidus. Autrement dit, les \varepsilon_i sont vues comme des réalisations de variables aléatoires \varepsilon_i , ainsi que \boldsymbol{\varepsilon} . On notera ainsi \boldsymbol{\varepsilon}\sim\mathcal{N}(\boldsymbol{0},\boldsymbol{\Sigma}) . Ah oui, autre point juste pour perdre les élèves : \text{Var}(\boldsymbol{\varepsilon})=\boldsymbol{\Sigma} alors que \text{Var}(\varepsilon_i)=\sigma^2 … Bon, ici comme on suppose les observations indépendentes, et identiquement distribuées, on supposera que \text{Var}(\boldsymbol{\varepsilon})=\boldsymbol{\Sigma}=\sigma^2\mathbb{I} . Encore une fois, \boldsymbol{\varepsilon} est (par définition) non observable. Par contre, on peut estimer ces résidus : à partir d’un estimateur \widehat{\boldsymbol{\beta}} de \boldsymbol{\beta} , on peut définir \widehat{\boldsymbol{\varepsilon}}=\boldsymbol{y}-\widehat{\boldsymbol{y}}=\boldsymbol{y}-\boldsymbol{x}^\top\widehat{\boldsymbol{\beta}} Histoire de clarifier, je vais plutôt noter \widehat{\boldsymbol{e}} ces résidus estimés, en utilisant l’estimateur par moindres carrés de \boldsymbol{\beta} . On peut noter que \widehat{\boldsymbol{e}}=(\mathbb{I}-\boldsymbol{H})\boldsymbol{y} où classiquement \boldsymbol{H}=\boldsymbol{X}(\boldsymbol{X}^\top\boldsymbol{X})^{-1}\boldsymbol{X}^\top est la matrice de projection sur l’espace engendré par toutes les combinaisons linéaires des variables explicatives. Mais là encore, on peut voir le vecteur (numérique) \widehat{\boldsymbol{e}} comme la réalisation d’une variable aléatoire \widehat{\boldsymbol{E}} . En particulier, \widehat{\boldsymbol{E}}=(\mathbb{I}-\boldsymbol{H})\boldsymbol{Y}=(\mathbb{I}-\boldsymbol{H})\boldsymbol{\varepsilon} où \boldsymbol{\varepsilon} est notre vecteur aléatoire, centré, de matrice de variance-covariance \text{Var}(\boldsymbol{\varepsilon})=\sigma^2\mathbb{I} . On peut alors en déduire que \mathbb{E}[\widehat{\boldsymbol{E}}]=(\mathbb{I}-\boldsymbol{H})\mathbb{E}[\boldsymbol{\varepsilon}]=\boldsymbol{0} et \text{Var}[\widehat{\boldsymbol{E}}]=(\mathbb{I}-\boldsymbol{H})\text{Var}[\boldsymbol{\varepsilon}](\mathbb{I}-\boldsymbol{H})^\top=\sigma^2(\mathbb{I}-\boldsymbol{H}) (car (\mathbb{I}-\boldsymbol{H}) est idenpotent). Cette dernière relation est particulièrement importante, car on notera que \text{Var}(\widehat{\boldsymbol{E}})\neq\sigma^2\mathbb{I} . En particulier, si on prend un résidu estimé au hasard \text{Var}(\widehat{E}_i)=\sigma^2(1-\boldsymbol{H}_{i,i}) (on avait parlé longuement de \boldsymbol{H}_{i,i} dans un billet récent, on leverage , en particulier on avait vu que \boldsymbol{H}_{i,i}\in[0,1] (on avait discuté la borne inférieur, qui peut être améliorée, en fait \boldsymbol{H}_{i,i}\in(0,1] ) de telle sorte que \text{Var}(\widehat{E}_i)\leq\sigma^2 . Si on poursuit un peu, on peut regarder la somme des carrés estimés, et noter que \mathbb{E}\big[\sum_{i=1}^n \widehat{E}_i^2\big]=\mathbb{E}[\text{trace}( \widehat{\boldsymbol{E}}\widehat{\boldsymbol{E}}^\top)] =\text{trace}(\mathbb{E}[\text{trace}( \widehat{\boldsymbol{E}}\widehat{\boldsymbol{E}}^\top]) i.e. \mathbb{E}\big[\sum_{i=1}^n \widehat{E}_i^2\big]=\sigma^2\text{trace}(\mathbb{I}-\boldsymbol{H}) or \text{trace}(\mathbb{I}-\boldsymbol{H})=n-p donc \widehat{\sigma}^2=\frac{1}{n-p}\sum_{i=1}^n \widehat{E}_i^2 est un estimateur sans biais de \sigma^2 . Et classiquement, on considèrera les résidus Studentisés \widehat{R}_i=\frac{\widehat{E}_i}{\widehat{\sigma}\sqrt{1-\boldsymbol{H}_{i,i}}} Si je voulais résumer un peu, on pourrait dire que \text{Var}(\boldsymbol{E})=\sigma^2\mathbb{I} \widehat{\text{Var}}(\boldsymbol{E})=\widehat{\sigma}^2\mathbb{I} \text{Var}(\widehat{\boldsymbol{E}})=\sigma^2(\mathbb{I}-\boldsymbol{H}) \widehat{\text{Var}}(\widehat{\boldsymbol{E}})=\widehat{\sigma}^2(\mathbb{I}-\boldsymbol{H}) En espérant que ça clarifie un peu…(?) notations regression résidus STT5100 Conferences , Research Machine Learning and Econometrics 15/10/2019 Arthur Charpentier Leave a comment This week-end, the Canadian Econometric Study Group will organise a conference in Montréal, on Machine Learning Econometrics . Since I was in the scientific committee, I’ve read some of the papers that will be presented, and it will be extremely interesting. There will be two invited speakers, Gregory Duncan (Amazon and University of Washington) and Dacheng Xiu (University of Chicago).I will be around at t
http://freakonometrics.hypotheses.org/8210
http://freakonometrics.hypotheses.org/724
http://freakonometrics.hypotheses.org/9066
http://freakonometrics.hypotheses.org/18117
http://freakonometrics.hypotheses.org/9023
http://freakonometrics.hypotheses.org/16383
http://freakonometrics.hypotheses.org/1173
http://freakonometrics.hypotheses.org/12729
http://freakonometrics.hypotheses.org/
http://freakonometrics.hypotheses.org/2462
Whois est un protocole qui permet d'accéder aux informations d'enregistrement.Vous pouvez atteindre quand le site Web a été enregistré, quand il va expirer, quelles sont les coordonnées du site avec les informations suivantes. En un mot, il comprend ces informations;
WHOIS LIMIT EXCEEDED - SEE WWW.PIR.ORG/WHOIS FOR DETAILS
REFERRER http://www.pir.org/
REGISTRAR Public Interest Registry
SERVERS
SERVER org.whois-servers.net
ARGS hypotheses.org
PORT 43
TYPE domain
RegrInfo
REGISTERED unknown
DOMAIN
NAME hypotheses.org
NSERVER
CCSDRV2.IN2P3.FR 193.48.96.201
DNS.UNIV-AVIGNON.FR 195.83.163.60
La liste suivante vous montre les fautes d'orthographe possibles des internautes pour le site Web recherché.