Econometrie TD 5

Create an illustration of an academic setting with graphs, mathematical formulas, and a computer, symbolizing econometric analysis and non-linear regression models, in a blue and white color scheme.

Non-Linear Econometric Models Quiz

Test your knowledge on non-linear econometric models through this comprehensive quiz. With 35 carefully crafted questions, this quiz covers various aspects of econometrics, maximum likelihood estimates, and model evaluations.

Show off your expertise and enhance your understanding by answering questions regarding:

  • Non-linear estimators
  • Statistical testing methods
  • Information theory in econometrics
  • Regression model characteristics
35 Questions9 MinutesCreated by AnalyzingData42
86. Dans les moindres carrés non linéaires, les équations normales sont :
A) linéaires
B) quadratiques
C) solutionnées analytiquement
D) solutionnées numériquement
87. Dans un modèle non linéaire, si on doit estimer 𝝾 paramètres, il y a :
A) 𝝾 équations normales linéaires.
B) 𝝾 équations normales non linéaires.
C) 𝝾 solutions aux équations normales.
D) 𝝾 estimations possibles.
88. L’estimateur des paramètres d’une régression non linéaire est donné :
A) par la méthode des MCO
B) par le maximum de vraisemblance
C) par optimisation dynamique
D) par la méthode itérative de Gauss - Newton
89. La méthode de Gauss – Newton permet :
A) de calculer les quantiles de la loi normale
B) d’estimer les paramètres des MCNL
C) d’obtenir le parcours des comètes
D) de réaliser des simulations d’un modèle économétrique.
90. Sous les hypothèses traditionnelles, l’estimateur des MCNL est :
A) sans biais.
B) de variance minimale.
C) convergent.
D) égal aux vrais paramètres du modèle.
91. Un test non linéaire nécessite :
A) l’évaluation du gradient de la fonction non linéaire avec les vrais paramètres
B) l’évaluation du gradient de la fonction non linéaire avec les paramètres estimés
C) l’évaluation du gradient et de la matrice Hessienne de la fonction non linéaire avec les vrais paramètres
D) l’évaluation du gradient et de la matrice Hessienne de la fonction non linéaire avec les paramètres estimés
92. Le test de Wald de plusieurs fonctions non linéaires des paramètres est distribué sous l’hypothèse nulle selon :
A) une loi normale
B) une loi du Khi-deux
C) une loi du Khi-hosk
D) une loi F de Fisher
93. L’estimateur du maximum de vraisemblance a été proposé par :
A) Karl Gauss
B) Karl Pearson
C) Stanley Fisher
D) Ronald Fisher
94. La fonction de log-vraisemblance d’un modèle de régression linéaire normal pour des observations indépendantes est :
A) l=−𝑝log(2𝜋)−𝑝log(𝜎2)−𝑝𝜺′𝜺
222 b) l = − 1 log(2𝜋) − 1 log(𝜎2) − (𝜺′𝜺❄𝜎2)
C) l = − 𝑝 log(2𝜋) − 𝑝 𝜎2 − log(𝜺′𝜺❄(2𝜎2))
D) l = − 𝑝 log(2𝜋) − 𝑝 log(𝜎2) − (𝜺′𝜺❄(2𝜎2)) 22
95. Les équations de vraisemblance :
A) sont toujours non linéaires
B) sont quadratiques dans les paramètres
C) peuvent être linéaires
D) peuvent être numériques
96. Le score est :
A) la valeur de la log-vraisemblance maximisée.
B) la valeur de la vraisemblance maximisée.
C) le vecteur du gradient de la log-vraisemblance.
D) la matrice Hessienne de la log-vraisemblance.
97. La matrice d’information de Fisher est :
A) le produit extérieur du vecteur du gradient.
B) le produit scalaire du vecteur du gradient.
C) l’espérance du produit extérieur du vecteur du gradient.
D) l’information contenue dans les variables du modèle.
98. La matrice d’information de Fisher est égale :
A) à l’opposé de la matrice Hessienne de la log-vraisemblance.
B) à la matrice Hessienne de la log-vraisemblance
C) à l’espérance de la matrice Hessienne de la log-vraisemblance.
D) à l’opposé de l’espérance de la matrice Hessienne de la log-vraisemblance.
99. La borne inférieure de Rao – Cramèr établit :
A) le minimum de la fonction de log-vraisemblance.
B) le minimum de la variance asymptotique d’un estimateur convergent et asymptotiquement normal.
C) le minimum de l’estimateur convergent des paramètres.
D) le minimum de la matrice d’information de Fisher
100. La variance asymptotique d’un estimateur convergent et asymptotiquement normal est plus grande ou égale :
A) à la matrice Hessienne de la fonction de log-vraisemblance.
B) à la matrice d’information de Fisher.
C) à la matrice de variance des MCO.
D) à l’inverse de la matrice d’information de Fisher.
101. Sous les conditions de régularité de la fonction de log-vraisemblance, l’estimateur du maximum de vraisemblance :
A) est asymptotiquement convergent.
B) est convergent.
C) est distribué selon la loi de probabilité de la vraisemblance.
D) non convergent mais normalement distribué.
102. La variance asymptotique de l’estimateur du maximum de vraisemblance :
A) est asymptotiquement normalement distribuée.
B) égale à l’opposé de l’inverse de la matrice d’information de Fisher.
C) est convergente.
D) est asymptotiquement égale au gradient de la log-vraisemblance.
103. Le test du rapport des vraisemblances nécessite :
A) l’estimation du modèle contraint uniquement.
B) l’estimation du modèle non contraint uniquement.
C) l’estimation des modèles contraint et non contraint.
D) L’estimation d’aucun de ces modèles.
104. Le test du rapport des vraisemblances est distribué sous l’hypothèse nulle selon :
A) une loi normale
B) une loi du Khi-deux
C) une loi 𝝹 de Fisher
D) une loi de la vraisemblance
105. L’estimateur MV de 𝜷 d’un modèle de régression linéaire normal est :
A) identique à l’estimateur des MCO 𝜷
B) proportionnel à l’estimateur des MCO 𝜷
C) plus petit que l’estimateur des MCO 𝜷
D) plus grand ou égal à l’estimateur des MCO 𝜷
106. L’estimateur MV de 𝜎2 d’un modèle de régression linéaire normal est :
A) identique à l’estimateur des MCO 𝜎^2
B) proportionnel à l'estimateur des MCO 𝜎^2
C) sans biais
D) est égal à 𝑆𝝶𝑅❄(𝑝 − 𝝾)
107. L’estimateur MV de 𝜎2 d’un modèle de régression linéaire normal est :
A) sans biais et convergent
B) sans biais et non convergent
C) biaisé et convergent
D) biaisé et non convergent
108. L’erreur quadratique moyenne d’un estimateur 𝜃 est :
A) 𝝸(𝜃 − 𝜃)^2
B) 𝝵𝑖𝑎𝑖𝑠2
c ) 𝑉(𝜃 − 𝜃) ^2 - Biais
D)𝑉(𝜃) - Biais
109. Dans un modèle de régression linéaire normal, la log-vraisemblance maximisée dépend :
A) du nombre de paramètre estimé : 𝝾
B) des degrés de liberté de la régression : 𝑝 − 𝝾
C) de la variance des paramètres estimés
D) de la somme des carrés des résidus.
110. Dans un modèle linéaire de probabilité, les erreurs :
A) sont auto corrélées
B) sont hétéroscédastiques
C) suivent une loi logistique
D) suivent une loi normale.
111. Dans un modèle LOGIT, pour modéliser la probabilité de choix, on utilise :
A) une loi binomiale
B) une loi logistique
C) une loi normale.
D) une loi uniforme
112. Pour obtenir l’estimateur du modèle PROBIT, on utilise :
A) une solution analytique.
B) une solution chimique.
C) une solution géométrique.
D) une solution numérique.
113. Dans le modèle LOGIT, le résidu LOGIT est :
A) nul.
B) orthogonal aux variables explicatives.
C) de variance minimale.
D) orthogonal aux paramètres estimés.
114. La log-vraisemblance d’un modèle PROBIT est :
A) localement convexe.
B) globalement convexe.
C) localement concave.
D) globalement concave.
115. Dans un modèle LOGIT ou PROBIT, les effets marginaux indiquent :
A) l’effet d’une variable explicative sur la probabilité de choix.
B) l’effet d’une variable explicative sur la log-vraisemblance.
C) l’effet d’une variable explicative sur l’estimateur du MV.
D) l’effet d’une variable explicative sur la variable dépendante.
116. Dans un modèle LOGIT ou PROBIT, l’effet marginal d’une variable explicative est maximal :
A) au point où Pr(𝑦 = 1) = 0.50.
B) au point où Pr(𝑦 = 1) = 1.00.
C) au point où la vraisemblance est maximale.
D) au point où la variable explicative est maximale.
117. Le test de Wald nécessite l’estimation :
A) du modèle contraint
B) du modèle non contraint
C) du maximum de vraisemblance.
D) du modèle sans constante.
118. Le test du multiplicateur de Lagrange nécessite l’estimation :
A) du modèle contraint
B) du modèle non contraint
C) du maximum de vraisemblance.
D) du modèle sans constante.
119. LetestdumultiplicateurdeLagrangeconsistesouventàestimerunerégressionauxiliaireet à calculer :
A) la fonction de vraisemblance
B) la statistique 𝝹 de ce modèle
C) la statistique 𝑝 × 𝑅2 de cette régression auxiliaire
D) la statistique 𝑝 × 𝑅2 du modèle contraint.
120. Pour des contraintes d’exclusion, la statistique de test du multiplicateur de Lagrange consiste à prendre :
A) la statistique 𝑝 × 𝑅2 d’une régression des résidus de la régression contrainte sur l’ensemble des variables incluses et exclue du modèle.
B) la statistique 𝑝 × 𝑅2 de la régression du modèle contraint.
C) la statistique 𝝹 des paramètres des variables incluses dans la régression contrainte.
D) la statistique 𝑅2 de la régression auxiliaire des résidus de la régression contrainte sur l’ensemble des variables incluses et exclue du modèle.
{"name":"Econometrie TD 5", "url":"https://www.quiz-maker.com/QPREVIEW","txt":"Test your knowledge on non-linear econometric models through this comprehensive quiz. With 35 carefully crafted questions, this quiz covers various aspects of econometrics, maximum likelihood estimates, and model evaluations.Show off your expertise and enhance your understanding by answering questions regarding:Non-linear estimatorsStatistical testing methodsInformation theory in econometricsRegression model characteristics","img":"https:/images/course7.png"}
Powered by: Quiz Maker