首页 理论教育 非线性结构模型的识别方法优化方案

非线性结构模型的识别方法优化方案

时间:2023-06-09 理论教育 版权反馈
【摘要】:随着非线性结构模型的广泛应用,在20世纪70至80年代,非线性模型的结构识别问题成为模型识别的重点,Rothenberg和Brown是具有代表性的研究文献。在一些正则条件下,Rothenberg建立了一类识别参数模型的一般性准则,这些准则被广泛应用于非线性参数模型的识别性研究。为了便于行文,在介绍Rothenberg关于具有确定简化型结构模型的识别研究文献之前,首先介绍Rothenberg界定的结构、模型、观测等价以及可识别等相关的概念。假设4.1.1:结构参数空间Θ是Rm的开子集。

非线性结构模型的识别方法优化方案

随着非线性结构模型的广泛应用,在20世纪70至80年代,非线性模型的结构识别问题成为模型识别的重点,Rothenberg(1971)和Brown(1983)是具有代表性的研究文献。为了研究具有确定的简化型的结构宏观计量经济学模型的一般性识别方法,本节首先介绍Rothenberg(1971)和Brown(1983)设定的结构模型及其识别定理。

(1)Rothenberg的识别定理

Rothenberg(1971)指出,Koopmans&Rubin(1950)和Fisher(1959)等关于结构模型识别的研究工作主要集中于某类特定模型施加某些特殊约束的情况,往往判断结构方程组中单个方程的可识别性,特别是绝大多数文献研究了线性模型的识别问题。Rothenberg(1971)认为信息矩阵是对样本中可用未知参数信息的测度,无疑它与模型识别有关,并且不可识别就是缺乏区分不同结构的充分信息。因此,Rothenberg(1971)基于信息矩阵寻求识别模型的条件。在一些正则条件下,Rothenberg(1971)建立了一类识别参数模型的一般性准则,这些准则被广泛应用于非线性参数模型的识别性研究。

为了便于行文,在介绍Rothenberg(1971)关于具有确定简化型结构模型的识别研究文献之前,首先介绍Rothenberg(1971)界定的结构、模型、观测等价以及可识别等相关的概念。

假设结构S由m维参数θ和n维随机向量X的已知连续概率密度函数f(x,θ)描述,即,∀θ∈Θ⊆Rm,∫f(x,θ)dx=1;于是,参数空间Θ⊆Rm定义了一个模型M。并且,对于随机向量X的任一样本x,如果概率密度函数f(x,θ)和对数似然函数ln f(x,θ)在参数空间Θ连续可微,则信息矩阵

是在参数空间Θ上的连续函数。

对于参数θ1和θ2,如果∀x∈Rn,f(x,θ)1=f(x,θ)2,则称参数θ1和θ2观测等价。若在参数空间Θ⊆Rm上不存在与参数θ0观测等价的参数,则称参数θ0在参数空间Θ上可识别,也称参数θ0在参数空间Θ上全局可识别(global identifiable)。相应地,如果在参数θ0的一个开邻域上不存在与参数θ0观测等价的参数,则称参数θ0在参数空间Θ上是局部可识别的(locally identifiable)。

为了建立一般性的结构模型识别理论,Rothenberg(1971)提出了关于结构的一些基本假定,称之为正则条件。

假设4.1.1:结构参数空间Θ是Rm的开子集。

假设4.1.2:对于参数空间Θ⊆Rm中的每一个参数θ,f(x,θ)是n维随机向量X的密度函数。显然,∀θ∈Θ,有f(x,θ)≥0,∫f(x,θ)dx=1。

假设4.1.3:∀θ∈Θ,n维随机向量X的正支撑集合{x:f(x,θ)>0}相同,记{x:f(x,θ)>0}=B,并且集合B被称为随机向量X的样本空间

假设4.1.4:在参数空间Θ的任意凸集上,对所有的θ,f(x,θ)是平滑的,并且,∀x∈B,f(x,θ)和ln f(x,θ)是θ的连续可微函数。

假设4.1.5:在参数空间Θ上,信息矩阵L(θ)是θ的连续函数。

M(θ)是参数空间Θ上连续函数的矩阵,若存在θ0∈Θ,使得矩阵M(θ)在θ0的一个开邻域上秩为常数,则称θ0是函数矩阵M(θ)的一个正则点。

在上述假设下,Rothenberg(1971)证明了下面的无约束的局部识别定理。

命题4.1.1(无约束的局部识别定理):假设θ0∈Θ是L(θ)的正则点,θ0是局部可识别的当且仅当矩阵L(θ0)是非奇异的。

例如,对于非线性回归模型,

yt=h(xt,θ)+εt,εt~i.i.d.N(0,In),t=1,2,…,T;

是在参数空间Θ上的连续函数。

对于参数θ1和θ2,如果∀x∈Rn,f(x,θ)1=f(x,θ)2,则称参数θ1和θ2观测等价。若在参数空间Θ⊆Rm上不存在与参数θ0观测等价的参数,则称参数θ0在参数空间Θ上可识别,也称参数θ0在参数空间Θ上全局可识别(global identifiable)。相应地,如果在参数θ0的一个开邻域上不存在与参数θ0观测等价的参数,则称参数θ0在参数空间Θ上是局部可识别的(locally identifiable)。

为了建立一般性的结构模型识别理论,Rothenberg(1971)提出了关于结构的一些基本假定,称之为正则条件。

假设4.1.1:结构参数空间Θ是Rm的开子集。

假设4.1.2:对于参数空间Θ⊆Rm中的每一个参数θ,f(x,θ)是n维随机向量X的密度函数。显然,∀θ∈Θ,有f(x,θ)≥0,∫f(x,θ)dx=1。

假设4.1.3:∀θ∈Θ,n维随机向量X的正支撑集合{x:f(x,θ)>0}相同,记{x:f(x,θ)>0}=B,并且集合B被称为随机向量X的样本空间。

假设4.1.4:在参数空间Θ的任意凸集上,对所有的θ,f(x,θ)是平滑的,并且,∀x∈B,f(x,θ)和ln f(x,θ)是θ的连续可微函数。

假设4.1.5:在参数空间Θ上,信息矩阵L(θ)是θ的连续函数。

M(θ)是参数空间Θ上连续函数的矩阵,若存在θ0∈Θ,使得矩阵M(θ)在θ0的一个开邻域上秩为常数,则称θ0是函数矩阵M(θ)的一个正则点。

在上述假设下,Rothenberg(1971)证明了下面的无约束的局部识别定理。

命题4.1.1(无约束的局部识别定理):假设θ0∈Θ是L(θ)的正则点,θ0是局部可识别的当且仅当矩阵L(θ0)是非奇异的。

例如,对于非线性回归模型,

yt=h(xt,θ)+εt,εt~i.i.d.N(0,In),t=1,2,…,T;

如果θ是未知的m维参数向量,h(xt,θ)是关于θ二次可微的已知函数,xt是可观测的非随机变量;对于样本y1,…,yn,log f=-为对数密度函数,并且L(θ)=[rij(θ)]=为信息矩阵,其中hi(xt,θ)是h(xt,θ)关于参数θi的偏导数。于是,如果m×n矩阵H(θ0)=[hi(xt,θ0)]的秩为m,则参数θ0是局部可识别的。

并且,Rothenberg(1971)指出,在实际经济问题研究中,上述定理的条件很难满足,因此,往往会对结构参数θ施加适当的识别约束,Rothenberg(1971)也提出了有约束的局部识别定理。

假设4.1.6:参数向量θ满足k个约束式Φi(θ)=0(i=1,…,k),并且Φi关于θ的偏导函数是连续的。

显然,在假设4.1.6下,参数空间Θ约束为子空间

Θ′=Θ∩{θ:Φi(θ)=0,i=1,…,k}

称Θ′为有约束的参数空间,显然,Θ′不必是Rm上的开集。

如果θ是未知的m维参数向量,h(xt,θ)是关于θ二次可微的已知函数,xt是可观测的非随机变量;对于样本y1,…,yn,log f=-为对数密度函数,并且L(θ)=[rij(θ)]=为信息矩阵,其中hi(xt,θ)是h(xt,θ)关于参数θi的偏导数。于是,如果m×n矩阵H(θ0)=[hi(xt,θ0)]的秩为m,则参数θ0是局部可识别的。

并且,Rothenberg(1971)指出,在实际经济问题研究中,上述定理的条件很难满足,因此,往往会对结构参数θ施加适当的识别约束,Rothenberg(1971)也提出了有约束的局部识别定理。

假设4.1.6:参数向量θ满足k个约束式Φi(θ)=0(i=1,…,k),并且Φi关于θ的偏导函数是连续的。

显然,在假设4.1.6下,参数空间Θ约束为子空间

Θ′=Θ∩{θ:Φi(θ)=0,i=1,…,k}

称Θ′为有约束的参数空间,显然,Θ′不必是Rm上的开集。

命题4.1.2(有约束的局部识别定理):令矩阵Ψ(θ)=以及矩阵V(θ)=,并且假设θ0∈Θ′是Ψ(θ)和V(θ)的正则点,则θ0是局部可识别的当且仅当矩阵V(θ0)是非奇异的。

众所周知,对于绝大多数结构模型,人们更关注的是模型的全局识别。然而,要建立全局识别定理是更困难的,局部识别仅仅是全局识别的必要条件,还需研究全局识别的充分条件

为此,Rothenberg(1971)对密度函数f施加了更为严格的假定。

假设密度函数f(x,θ)的对数似然函数g(x,θ)具有形式

命题4.1.2(有约束的局部识别定理):令矩阵Ψ(θ)=以及矩阵V(θ)=,并且假设θ0∈Θ′是Ψ(θ)和V(θ)的正则点,则θ0是局部可识别的当且仅当矩阵V(θ0)是非奇异的。

众所周知,对于绝大多数结构模型,人们更关注的是模型的全局识别。然而,要建立全局识别定理是更困难的,局部识别仅仅是全局识别的必要条件,还需研究全局识别的充分条件。

为此,Rothenberg(1971)对密度函数f施加了更为严格的假定。

假设密度函数f(x,θ)的对数似然函数g(x,θ)具有形式(www.xing528.com)

其中K关于θ∈Θ是连续可微的。

命题4.1.3(全局识别定理):假设f(x,θ)是指数族的密度函数,并且其对数似然函数具有式(4.2)的形式,若信息矩阵L(θ)在参数空间Θ的任意凸子集上都是非奇异的,则参数空间Θ中的每个参数θ都是全局可识别的。

可见,Rothenberg(1971)提出的识别定理没有限定结构模型的形式以及识别约束的具体形式,并且不是针对单个方程逐一判断其可识别性,因此它是一种一般性的识别定理。然而,由于信息矩阵L(θ)很难得出,更难以计算其秩数,使得Rothenberg的定理并没有在实证研究中得到广泛应用。

(2)Brown变量非线性系统的识别定理

经济学家们发现仅仅用线性关系近似经济变量之间的关系太过苛刻,非线性关系往往更加贴近实际。因此,非线性联立方程组模型成为20世纪80年代被广泛应用的结构模型。Wald(1950)和Fisher(1966)等经典文献曾讨论了非线性系统和非线性约束的识别问题,包括Rothenberg(1971)的识别定理也研究了非线性结构模型的识别性。在这些研究文献的基础上,Brown(1983)提出了变量非线性系统的识别定理。

Brown(1983)所研究的结构模型形式为

其中K关于θ∈Θ是连续可微的。

命题4.1.3(全局识别定理):假设f(x,θ)是指数族的密度函数,并且其对数似然函数具有式(4.2)的形式,若信息矩阵L(θ)在参数空间Θ的任意凸子集上都是非奇异的,则参数空间Θ中的每个参数θ都是全局可识别的。

可见,Rothenberg(1971)提出的识别定理没有限定结构模型的形式以及识别约束的具体形式,并且不是针对单个方程逐一判断其可识别性,因此它是一种一般性的识别定理。然而,由于信息矩阵L(θ)很难得出,更难以计算其秩数,使得Rothenberg的定理并没有在实证研究中得到广泛应用。

(2)Brown变量非线性系统的识别定理

经济学家们发现仅仅用线性关系近似经济变量之间的关系太过苛刻,非线性关系往往更加贴近实际。因此,非线性联立方程组模型成为20世纪80年代被广泛应用的结构模型。Wald(1950)和Fisher(1966)等经典文献曾讨论了非线性系统和非线性约束的识别问题,包括Rothenberg(1971)的识别定理也研究了非线性结构模型的识别性。在这些研究文献的基础上,Brown(1983)提出了变量非线性系统的识别定理。

Brown(1983)所研究的结构模型形式为

其中,y为G维内生变量向量,x为K维先决变量向量,u是G维的随机冲击向量,并且,q:RG×RK→RN是已知的函数向量,A为G×N阶未知系数矩阵。

对于设定的结构模型(4.3),Brown(1983)指出,q可以是线性函数,或者是非线性函数,即允许变量之间存在非线性关系。为了识别变量非线性系统,Brown(1983)施加了以下的基本假定。

假设4.1.7:函数q(y,x)是连续可微的,结构方程具有一个确定的简化型

其中,y为G维内生变量向量,x为K维先决变量向量,u是G维的随机冲击向量,并且,q:RG×RK→RN是已知的函数向量,A为G×N阶未知系数矩阵。

对于设定的结构模型(4.3),Brown(1983)指出,q可以是线性函数,或者是非线性函数,即允许变量之间存在非线性关系。为了识别变量非线性系统,Brown(1983)施加了以下的基本假定。

假设4.1.7:函数q(y,x)是连续可微的,结构方程具有一个确定的简化型

其中Q为G维函数向量,并且Q也是连续可微的。

事实上,对于一般的非线性函数q(y,x),向量Q未必具有解析表示。但是为了使Q连续可微,由隐函数定理可知,q(y,x)必须满足下面的假设。

其中Q为G维函数向量,并且Q也是连续可微的。

事实上,对于一般的非线性函数q(y,x),向量Q未必具有解析表示。但是为了使Q连续可微,由隐函数定理可知,q(y,x)必须满足下面的假设。

假设4.1.8:对任意的y和x,

另外,对于模型(4.3)的约束可划分为对系数矩阵A的线性约束和对误差项条件分布的随机约束。Brown(1983)讨论了对模型的如下约束条件。

假设4.1.9:系数矩阵A满足已知的线性约束

假设4.1.8:对任意的y和x,

另外,对于模型(4.3)的约束可划分为对系数矩阵A的线性约束和对误差项条件分布的随机约束。Brown(1983)讨论了对模型的如下约束条件。

假设4.1.9:系数矩阵A满足已知的线性约束

其中αi是矩阵A的第i行,Φi表示Ri×G阶的系数约束矩阵。

假设4.1.10:先决变量向量x与G维随机冲击向量u相互独立,即,u⊥x,并且E(u)=0。

Brown(1983)指出,在满足上述假定时,模型(4.3)的结构(A,f(u|x))蕴含了内生变量向量y的条件分布f(y|x),其中f(u|x)是误差向量u的条件分布。于是,如果模型(4.3)的两个结构(A0,f0(u|x))和(A1,f1(u|x))决定了内生变量向量y的相同条件分布,则称它们是观测等价的。并且,结构(A,f(u|x))的一个方程是可识别的当且仅当对于与其观测等价的结构,方程的系数在相差一个规模因子的意义下是唯一的。而且,因对模型施加了随机约束假设4.1.10,结构A0,f0(u|x())与结构A1,f1(u|x())观测等价当且仅当u服从条件分布f1(u|x)时,由y=Q(u,x;A1)所产生内生变量向量y的条件分布与条件分布f0(y|x)相同。另外,Brown(1983)证明了如下引理。

引理4.1.1:(A0,f0(u|x))~(A1,f1(u|x))当且仅当若y服从条件分布f0(y|x),则

其中αi是矩阵A的第i行,Φi表示Ri×G阶的系数约束矩阵。

假设4.1.10:先决变量向量x与G维随机冲击向量u相互独立,即,u⊥x,并且E(u)=0。

Brown(1983)指出,在满足上述假定时,模型(4.3)的结构(A,f(u|x))蕴含了内生变量向量y的条件分布f(y|x),其中f(u|x)是误差向量u的条件分布。于是,如果模型(4.3)的两个结构(A0,f0(u|x))和(A1,f1(u|x))决定了内生变量向量y的相同条件分布,则称它们是观测等价的。并且,结构(A,f(u|x))的一个方程是可识别的当且仅当对于与其观测等价的结构,方程的系数在相差一个规模因子的意义下是唯一的。而且,因对模型施加了随机约束假设4.1.10,结构A0,f0(u|x())与结构A1,f1(u|x())观测等价当且仅当u服从条件分布f1(u|x)时,由y=Q(u,x;A1)所产生内生变量向量y的条件分布与条件分布f0(y|x)相同。另外,Brown(1983)证明了如下引理。

引理4.1.1:(A0,f0(u|x))~(A1,f1(u|x))当且仅当若y服从条件分布f0(y|x),则

服从条件分布f1(u|x)。

服从条件分布f1(u|x)。

引理4.1.2:当u服从条件分布f0(u|x)时,独立于x的充分必要条件是

引理4.1.2:当u服从条件分布f0(u|x)时,独立于x的充分必要条件是

其中′是由(u,x)=所生成空间基底向量组成的N行矩阵。

其中′是由(u,x)=所生成空间基底向量组成的N行矩阵。

引理4.1.3:当u服从条件分布f0(u|x)时,对于任意给定的x,(Q(u,x;A0),x)均值为0的充分必要条件是对于一些x,E(u|x)==0,其中=E[q(Q(u,x;A0),x)x]。

引理4.1.3:当u服从条件分布f0(u|x)时,对于任意给定的x,(Q(u,x;A0),x)均值为0的充分必要条件是对于一些x,E(u|x)==0,其中=E[q(Q(u,x;A0),x)x]。

于是,对于任意选择的满足随机约束假设4.1.10的充分必要条件是

于是,对于任意选择的满足随机约束假设4.1.10的充分必要条件是

因此,结合系数矩阵的线性约束,Brown(1983)提出并证明了识别变量非线性系统的秩条件定理。

因此,结合系数矩阵的线性约束,Brown(1983)提出并证明了识别变量非线性系统的秩条件定理。

命题4.1.4(Brown非线性系统识别定理):在假定4.1.7—4.1.10下,结构模型式(4.3)的第i个方程可识别,即结构(A0,f)0的第i个方程可识别的充分必要条件是=N-1。

命题4.1.4(Brown非线性系统识别定理):在假定4.1.7—4.1.10下,结构模型式(4.3)的第i个方程可识别,即结构(A0,f)0的第i个方程可识别的充分必要条件是=N-1。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈