Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral TEMA 4. Modelos para Datos Censurados y de Selección Muestral. Profesor: Pedro Albarrán Pérez Universidad de Alicante. Curso 2010/2011. Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Contenido 1 Introducción 2 Modelo Tobit Introducción Estimación por Máxima Verosimilitud Diferencias con una simple Regresión Lineal Predicciones. Efectos Marginales Limitaciones del Modelo Tobit 3 Modelos en Dos Partes 4 Modelos de Selección Muestral El Problema de Selección Muestral para la Inferencia Causal Modelo de Truncamiento Incidental Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Variables Censuradas y Truncadas En ocasiones sólo se observan los verdaderos valores de una variable de interés para una parte de la muestra disponible Los modelos de selección muestral constituyen una especialmente importante generalización de estos modelos. Variables Censuradas: para algunas observaciones, sólo se sabe que la variable es mayor (o menor) que un valor censura por la derecha (o superior) ∗ Y = YU , , Y∗ < U si Y ∗ > U si censura por la izquierda (o inferior) ∗ Y = YL, , Y∗ > L si Y ∗ 6 L si La censura puede producirse por diversos motivos: resulta del proceso de recogida de datos se puede interpretar como solución de esquina en una decisión económica Introducción Modelo Tobit Variables Truncadas: Modelos en Dos Partes Modelos de Selección Muestral la muestra excluye observaciones censuradas. en el caso de censura por la derecha (o superior) Y = Y∗ si Y ∗ <U en el caso de censura por la izquierda (o inferior) Y = Y∗ si Y ∗ >L La censura/truncamiento puede considerarse como una situación en que falta información (completa) sobre la variable dependiente comparada con observar plenamente Y ∗ En algunos casos el valor de censura es desconocido o diferente para cada individuo. Formalmente, la variable observada Y resulta de una mixtura de un proceso latente continuo Y ∗ un mecanismo de selección (censura o truncamiento), modelizado en forma binaria Y = D = Y ∗ D + L (1 − D ) 1, Y∗ > U 0, Y∗ < U si si Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Introducción Modelo Tobit: especicación Variable latente Y ∗ ∗ = Ui |X1i , . . . , Xki ∼ Yi β0 + β1 X1i + · · · + βk Xki + Ui 2 N 0, σ (1) (2) Variable observada Y (censurada inferiomente en cero) Yi = max {0, Yi∗ } = max {0, β0 + β1 X1i + · · · + βk Xki + Ui } la generalización a censura superior y/o a que el punto de censura sea distinto de cero son triviales Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Introducción Alternativamente, se puede representar como Yi = ∗ i = β0 + β1 X1i + · · · + βk Xki + Ui > 0 Yi∗ , si Y 0, en caso contrario Otra formulación Yi i = Yi∗ , 0, i =1 si Di = 0 si D (3) ∗ i > 0 y cero en caso contrario donde D toma valor 1 si Y Di = β0 + β1 X1i + · · · + βk Xki + Ui > 0 1, si 0, en caso contrario (4) Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Estimación por Máxima Verosimilitud Existen dos tipos de observaciones: las no censuradas (que coinciden con la variable latente) las censuradas (con un único valor). La función de densidad debe denirse por partes: ∗ si i =1 i|i , ( i| i) = Pr ( i = 0| i ) , si i = 0 f y x Y f y x o también D D x f (yi |xi ) = [f (yi∗ |xi )]Di [Pr (Yi = 0|xi )]1−Di ∗ 0 i = Xi β + Ui Por simplicidad Y Por el supuesto de normalidad del termino de error 0 2 1 1 ∗ iβ ( i∗ | i ) = √ exp − 2 i − i0 β =φ 2 2σ σ 2πσ f y x y X X i = 0, la variable latente debe ser menor o igual que cero: −Xi0 β Pr (Y = 0|x ) = Pr (Y ∗ 6 0) = Pr (U 6 −X 0 β) = Φ Si D i i i i = 1−Φ Xi0 β σ i σ Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Estimación por Máxima Verosimilitud La contribución a la verosimilitud de una observación cualquiera (censurada o no) f (yi |xi ) = φ Xi0 β Di 1 − Φ Xi0 β 1−Di σ σ La función de log-verosimilitud será log L y1 , . . . , yn ; β0 , β1 , σ2 = log log L β, σ2 = n X i =1 n Y i =1 f (yi ) = n X i =1 log f (yi ) 0 0 Di log φ Xσi β + (1 − Di ) log 1 − Φ Xσi β Los valores que maximicen esta función serán nuestra estimación de los parámetros la optimización no tiene fórmula analítica cerrada Nota: en el modelo Tobit, a diferencia del modelo probit, sí se puede identicar la varianza del error σ2 con datos binarios, no existe suciente variabilidad en la variable dependiente Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Diferencias con una simple Regresión Lineal Un modelo de regresión lineal ignorando que hay observaciones censuradas ofrece una estimación sesgada porque considera los valores censurados como observaciones iguales al resto Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Diferencias con una simple Regresión Lineal ¾Se pueden ignorar los valores censurados para estimar? E [Yi |X ] = E [Yi |X , Yi > 0] Pr (Yi > 0) donde φ Xi0 β/σ E [Yi |X , Yi > 0] = Xi0 β + σλ Xi0 β/σ = Xi0 β + σ Φ 0 X β/σ Pr (Yi > 0) = Φ Xi0 β/σ i Utilizar sólo observaciones no censuradas también ofrece, en general, estimaciones sesgadas se omite λ (Xi0 β/σ) que estará correlacionado con las X i Además, 1 se pierden observaciones con información relevante a menor tamaño muestral, mayores errores estándar de las estimaciones 2 en ocasiones no se observa el punto de censura El problema con variables censuradas NO está en la falta de observabilidad, sino en una incorrecta especicación i Suponer que E [Y |X ] es lineal resulta inadecuado cuando la variable ∗ i latente Y es lineal Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Predicciones Predecir una variable censurada supone predecir si la variable dependiente está censurada o no predecir su valor, si no está censurada Para un modelo Tobit se necesita simplemente predecir el índice lineal b=β b0 + β b 1 X1i + · · · + β b k Xki b i = Xi0 β ω El valor de la variable dependiente observada en la parte no censurada es: bi Y b∗ = ω b0 + β b 1 X1i + · · · + β b k Xki , bi = β =Y i si bi > 0 ω La probabilidad de la censura: c (Y Pr ∗ b0 + β b 1 X1i + · · · + β b k Xki = Φ (ω bi) 6 0) = Φ β Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Efectos Marginales Para los modelos censurados, existen varios efectos marginales de interés El efecto marginal sobre la variable latente: E Yi∗ |X1i , . . . , Xki δXki δ no muy relevante porque se observa Y = βk i El efecto marginal sobre la probabilidad de censura: Yi = 0|X1i , . . . , Xki ) = δ Pr (Di = 0|X1i , . . . , Xki ) = −β φ (ω ) i k δXki δXki donde ωi = β0 + β1 X1i + · · · + βk Xki es el índice lineal. δ Pr ( El efecto marginal sobre la variable truncada (sólo sobre observaciones no censuradas) E Yi |X1i , . . . , Xki , Yi > 0) = h1 − ω λ (ω ) − λ (ω )2 i β i i i k δXki δ ( donde λ (ωi ) = φ (ωi ) /Φ (ωi ) es la inversa del ratio de Mills. El efecto marginal sobre la variable censurada (sobre observaciones censuradas y no censuradas): E Yi |X1i , . . . , Xki ) = Φ (ω ) β i k δXki δ ( Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Efectos Marginales Según las cuestiones relevantes, estaremos interesado en todos o sólo en algunos de esos efectos marginales Los efectos marginales pueden calcularse de varias formas evaluado en algún valor relevante de las variables explicativas evaluado en la media de las variables explicativas obteniendo la distribución de efectos marginales evaluados en sus valores observados de cada individuo Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Limitaciones del Modelo Tobit Generalizaciones triviales del modelo Tobit Se pueden considerar más de un punto de censura (censura superior e inferior simultáneas) Se puede modelizar el índice lineal con variables explicativas transformamadas no linealmente i β1 X1i + β2 X12i , β1 X1 + β2 X1i X2i , log X2 , etc. La variable dependiente puede haber sido transformada Y ∗ no será normal y se necesita conocer su distribución (para escribir la verosimilitud, calcular la probabilidad de censura, etc. ) el modelo Tobit para datos log-normales: ∗ i = U |X i i ∼ i = Y Y donde γ exp (β0 + β1 X1i + · · · + βk Xki + Ui ) 2 N 0, σ Y ∗ i, 0, si ln Y ∗ i >γ en caso contrario es el punto de censura. ∗ Nota: se dice que Y sigue una distribución log-normal, si su ∗ logaritmo ln Y sigue una distribución normal. i i Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Limitaciones del Modelo Tobit Problemas del modelo Tobit El modelo Tobit depende crucialmente de los supuestos de normalidad y homocedasticidad del término de error en el modelo de regresión lineal, independientemente de esos supuestos el estimador de MCO es consistente y se pueden calcular errores estándar robustos en el modelo Tobit, la estimación e inferencia es inválida si alguno de los dos supuestos es incorrecto Además impone el mismo mecanismo para determinar la probabilidad de censura y el valor de las observaciones no censuradas Los determinantes de la decisión de comprar pueden ser distintos de los que explican su valor (ej., tener un contrato indenido en la compra de una casa) La misma variable puede tener diferentes impactos sobre cada una de ellas (ej. la edad en la adquisición de seguro de vida) Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Especicación de un Modelo en Dos Partes Modelo en dos partes Se dene un indicador de censura: Di = 1 1, si 0, si Yi > 0 Yi = 0 La primera parte es un modelo probit o logit: D donde 2 i i= γ0 + γ1 W1i + · · · + γq Wqi + i > 0 1, si 0, en caso contrario (5) sigue una distribución normal (probit) o logística (logit) La segunda parte especica la esperanza condicional de la variable NO censurada Y i = exp (β0 + β1 X1,i + · · · + βk Xk ,i + Ui ) i si D i =1 i , . . . , Xki ) = 0 E (U |X1 Notad que la expresión ln (6) Las ecuaciones (6) − (7) (7) equivale a Yi = β0 + β1 X1,i + · · · + βk Xk ,i + Ui (6) si Di = 1 implican E (Yi |Di = 1, Xi ) = exp X β0 + β1 1,i + · · · + βk 2 Xk ,i + σ2 (8) Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Diferencias con el modelo Tobit El modelo en dos partes 1 No está denido en función de ninguna variable latente todas las ecuaciones del modelo se reeren directamente a variables observables. 2 No impone que las mismas variables y con el mismo coeciente i determinen tanto Y como la censura D 3 i Tampoco impone el mismo término de error para ambas ecuaciones i U y i pueden ser distintos y con distribuciones diferentes serán, en general independientes entre sí 4 i Sólo se supone que U en (7) es independiente en media de las variables explicativas no se supone toda la distribución con el Tobit Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Diferencias con el modelo Tobit El modelo en dos partes es más exible, tanto en sus supuestos como en el número de parámetros Si las restricciones del modelo Tobit son correctas, resulta más eciente estimarlo pero no siempre pueden compararse ambos modelos Un modelo en dos partes con el supuesto adicional de normalidad sí es una generalización del modelo Tobit para datos log-normales este modelo en dos partes una formulación más general dentro de la misma clase de modelos como ambos modelos están anidados, se puede contrastar si el resto de restricciones del modelo Tobit son correctas Se tiene que realizar un contraste de ratio de verosimilitudes entre ambos modelos se comprueba si las mismas variables y con el mismo coeciente están en la ecuación de censura y en la de valores no censurados Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Estimación, Predicciones y Efectos Marginales La estimación pude hacerse por separado (cada parte con sus propias variables y supuestos distribucionales) o conjuntamente (en general, suponiendo elementos en común) los modelos en dos partes pretenden evitar la complejidad de la estimación conjunta, pero ésta facilita algunos constrastes de hipótesis: relaciones entre los coecientes de la primera y de la segunda parte del modelo Existen tres magnitudes que se pueden querer predecir. 1 La probabilidad de censura, cuya predicción puede obtenerse directamente de la estimación de la primera parte del modelo 2 El valor predicho de las observaciones no censuradas se obtiene directamente de la estimación de la segunda parte del modelo 3 El valor predicho de las observaciones (censuradas o no), i i , Wi ) , E (Y |X incorpora ambas expresiones previas. Asimismo, nos interesan los tres efectos marginales relacionados con estas magnitudes Notad que aquí no existe ninguna variable latente que predecir, ni para la cual estimar efecto marginal. Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Limitaciones Una de las principales ventajas del modelo en dos partes reside en que puede estimarse cada parte por separado. El supuesto clave para esto es la independencia entre los términos de error de cada ecuación i i y U . Sin embargo, existen situaciones en que este supuesto no es realista Relajar este supuesto nos lleva a una nueva clase de modelos, que tiene gran importancia en Economía. Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral El Problema de Selección Muestral para la Inferencia Causal Problemas de Selección Muestral Los problemas de Selección de Muestral son habituales con datos observacionales Selección Muestral NO Aleatoria Diseño inadecuado de la encuesta (recogida de datos) Falta de respuesta selectiva de los individuos Truncamiento incidental: no se observa una variable Y debido al resultado de otra variable Ej.: oferta salarial en función de educación, etc.... sólo para los que trabajan Atrition en datos de panel: individuos no observados en periodos posteriores por razones relacionadas con el estudio Ej.: programa de formación Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral El Problema de Selección Muestral para la Inferencia Causal Selección Muestral Exógena vs. Endógena Selección Muestral Exógena o basada en las variables independientes (explicativas): selección basada en factores independientes del término de error =⇒MCO yi consistente = β 0 + β 1 xi + ui , Di =1 Di yi E ( D i xi ui ) E (Di xi ui ) =0 E (ui |xi ) si se observa = E ( ui xi ) = 0 ( yi , xi ) = β0 + β1 Di xi + Di ui i sólo si D es una función de x i = E [E (Di xi ui |xi )] = E [Di xi E (ui |xi )] Selección Muestral Endógena o basada en la variable dependiente: Ej.: Tobit, MCO sesgado Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Modelo de Truncamiento Incidental Modelo de Truncamiento Incidental i = Yi∗ Sólo se observa Y ∗ un umbral D > 0 i ∗ i Una variable latente de interés (similar a Tobit) Y si otra variable latente (diferente) supera ECUACIÓN DE SELECCIÓN Di = 1, 0, ∗ i >0 ∗ si Di 6 0 si D ECUACIÓN DE RESULTADOS (variable de interés) Yi = i =1 i =0 Yi∗ , si D −, si D Yi es una variable truncada: no toma ningún valor (con sentido) si Di =1 (estrictamente, veremos que está seleccionada endógenamente) Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Modelo de Truncamiento Incidental Truncamiento Incidental (2) Supuestos Modelo Lineal (con errores aditivos) para variables latentes Di ∗ = γ0 + γ1 W1i + · · · + γq Wqi + U1i Yi ∗ = β0 + β1 X1i + · · · + βk Xki + U2i errores posiblemente correlacionados ∗ ∗ i = Yi modelo Tobit: un caso especial cuando D (sólo una ecuación) Normalidad conjunta y Homocedasticidad de los errores correlacionados U1i U2i la varianza |Wi , Xi ∼ N σ21 = 1 0 0 , 1 σ12 σ12 σ22 está normalizada a 1, como en el probit: sólo se observa el signo de D ∗ i Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Sesgo de MCO. Estimación en Dos Etapas Estimación por MCO La esperanza condicional de la variable de interés (observada, truncada): E (Yi |Xi , Wi , Di = 1) = β0 +β1 X1i +· · ·+βk Xki +E (U2i |Xi , Wi , Di = 1) i i , Wi ) = 0 Aunque E (U2 |X i i i porque U2 es independiente de X y W , i el último término no es igual a cero porque U2 SÍ está relacionado i i con D a través de su correlación con U1 Se puede comprobar que: E (U2i |Xi , Wi , Di = 1) = ρλ (ω1i ) donde ω1i = γ0 + γ1 W1i + · · · + γq Wqi λ (z ) = φ( )/Φ( ) ρ = z z √ σ12/ σ2 2 Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Sesgo de MCO. Estimación en Dos Etapas Sesgo en MCO Sabemos que la esperanza condicional es E (Yi |Xi , Wi , Di = 1) = β0 + β1 X1i + · · · + βk Xki + ρλ γ0 + γ1 W1i + · · · + γq Wqi ¾Qué sucede si estimamos por mínimos cuadrados ordinarios la i i ecuación Y en función de las variables X ? Yi = π0 + π1 X1i + · · · + πk Xki + i ?? bj → βj π Si ρ 6= 0, la selección muestral es importante y el estimador MCO estará sesgado por la omisión de una variable relevante λ (ω1i ) correlacionada con las variables explicativas X Tampoco se puede incluir directamente parámetros γ en ω1i NO son conocidos λ (ω1i ) i porque los Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Sesgo de MCO. Estimación en Dos Etapas Estimación en Dos Etapas El procedimiento de Estimación en Dos Etapas para la corrección de sesgo por Selección Muestral es: 1 Estimar inicialmente sólo la ecuación de selección (Probit) para toda la muestra i = 1|Wi ) = Pr (Di∗ > 0|Wi ) = Φ γ0 + γ1 W1i + · · · + γq Wqi Pr (D se puede predecir para cada individuo el valor del índice lineal b 1i = γ b0 + γ b1 W1i + · · · + γ bq Wqi ω y calcular una variable con el valor para cada individuo del ratio de Mills predicho bλi = λ (ω b 1i ) 2 i Estimar por MCO la ecuación de resultados para la variable Y en la muestra seleccionada incluyendo como variables explicativas Xi y Yi = δ0 + δ1 X1i + · · · + δk Xki + δk +1bλi + εi bλi Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Sesgo de MCO. Estimación en Dos Etapas Estimación en Dos Etapas (2) La estimación por MCO sí es consistente b δj → βj , b δk +1 → ρ j = 1, . . . , k Se puede contrastar fácilmente si existe selección muestral H0 :ρ=0 Sin embargo, la estimación en dos etapas NO es eciente: estimando conjuntamente las dos ecuaciones la varianza de los parámetros estimados es menor Además, los errores estándar de MCO no están adecuadamente calculados: necesitan una corrección (distinta y más compleja que calcular errores estándar robustos) para controlar que se utiliza una variable predicha realmente observada bλi en lugar de una Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Estimación Conjunta por Máxima Verosimilitud Estimación Conjunta (Máxima Verosimilitud) Para un individuo, debemos calcular la probabilidad de observar conjuntamente tanto la variable de selección Di como la variable de i resultado Y f (yi , di |Wi , Xi ) = i = 0|Wi ) , Pr (Di = 1|Wi ) f (yi |Xi , Di = 1) , Pr (D i =0 si Di = 1 si D La función de verosimilitud para todos los parámetros es: L n Y i =1 β, γ, σ12 , σ22 = [Pr (Di = 0|Wi ; γ)]1−Di Pr (D i = 1|Wi ; γ) f i i , Di = 1; β, σ12 , σ22 y |X La estimación conjunta del modelo de truncamiento incidental explota el supuesto de normalidad conjunta de los errores Esto permite escribir la forma concreta de la (log-)verosimilitud función de Di Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Identicación del Modelo Limitaciones del Modelo de Truncamiento Incidental Supuestos cruciales para la estimación del modelo: normalidad conjunta y homocedasticidad Si estos supuestos no son ciertos, las estimaciones no son consistentes Incluso en la estimación en dos etapas: Yi = δ0 + δ1 X1i + · · · + δk Xki + δk +1bλi + εi el término de corrección por selección muestral aditivo λi = λ (γ0 + γ1 W1i + · · · + γq Wqi ) depende, en su expresión-forma funcional, del supuesto de normalidad λ (z ) = φ (z ) Φ (z ) Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Identicación del Modelo Limitaciones (2) Sin normalidad, se tendrá (en muchas ocasiones) que E (Yi |Xi , Wi , Di la función g (•) = 1) = β0 + β1 X1i + · · · + βk Xki + g γ0 + γ1 W1i + · · · + γq Wqi no está restringida a ser la inversa del ratio de Mills Pero esta formulación no es completamente general: el término de corrección por selección muestral aparece aditivamente g (•) está restringida a depender del índice lineal de la ecuación de selección Problema: no se conoce la forma concreta de g (•), a menos que hagamos otro supuesto sobre la distribución conjunta de los errores Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Identicación del Modelo Identicación Cuando W i = Xi , existen problemas de adecuada identicación general del modelo Aunque g (•) sea una función no lineal, se puede aproximar linealmente y/o g (γ0 + γ1 W1i + · · · + γq Wqi ) i estará correlacionado con las X (o alguna de ellas) Esto supone un problema porque puede existir multicolinealidad entre la corrección g variables explicativas X no está claro si g (ω1i ) i (ω1i ) y las realmente recoge el efecto de selección muestral o un término polinomial (omitido) de las variables X Una forma concreta de g (•) i = Wi sólo es creíble cuando X i si también aceptamos el supuesto distribucional que genera dicha forma funcional concreta. Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Identicación del Modelo Identicación (2) i La adecuada identicación del modelo requiere que las variables X sean un subconjunto de las variables W i i 1 Todas las variables X se incluyen en la ecuación de selección (Probit) 2 Restricciones de exclusión: algunas variables W i i (instrumentos ) no se incluyen en la ecuación de resultados para Y (Lineal) Las restricciones de exclusión permiten una variación adicional en g (ω1i ), i distinta de la variación de las X evita confundir g (ω1i ) i con las variables X o funciones de ésta el modelo de selección es más creíble incluso si no se acepta el supuesto distribucional: g (•) será una buena aproximación a al verdadera forma funcional de la corrección PERO las restricciones de exclusión no son contrastables: se deciden a priori y si no son ciertas el modelo estimado estará sesgado. La teoría económica (o algún razonamiento) debería guiar qué variables pueden afectar la selección, pero no el resultado Introducción Modelo Tobit Modelos en Dos Partes Modelos de Selección Muestral Predicciones y Efectos Marginales Predicciones y Efectos Marginales En esencia, no existen diferencia con lo que ya sabemos para otros modelos. Según nuestro interés, se puede querer predecir: la probabilidad de selección (ecuación probit) el valor de la variable de interés truncada (ecuación con corrección) el valor de la variable latente de interés alguna combinación de las anteriores También según el caso, puede interesarnos los efectos marginales asociados a cada una de las expresiones anteriores En todos los casos, se necesita una adecuada estimación (consistente, no sesgada) de los parámetros relevantes.