样本空间的定义 定义:一切基本事件的集合
样本空间的表示方法 记做Ω
事件的表示方式 表示方式:字母A,B,C…
随机事件与样本空间的关系 随机事件可视为样本空间的子集
事件A发生的含义 事件A发生 事件A所包含的某一基本事件出现
不可能事件的表示 ∅
事件A与B互斥的含义 事件A和B互不相容 A与B互斥 A ∩ B = ∅ 事件A与B不可能同时发生 事件A与B互斥意思是可能存在既不属于A也不属于B的情况。
事件A与B互不相容的含义 事件A和B互不相容A与B互斥A ∩ B = ∅事件A与B不可能同时发生 并没有说A+B=Ω
完备事件组的含义(重要) 完备事件组 事件A1,A2,A3…An是一个完备事件组 n个事件A1,A2,A3…中仅发生且必发生其中之一
事件的运算性质::吸收律
事件的运算性质::分配律 并对并可以,交对交可以,交对并可以,怎么样都可以 很重要的一点是,进行分配律时,原先在内部的优先级更高的运算变成了在外部优先级更低的运算。原先在外部的运算则正好相反。
事件的运算性质::对偶律 要反着记,一般反着来比正着来更难。 注意,不仅可以两个之间使用,还可以在多个之间使用。
概率的基本性质::有限可加性
概率的基本性质::减法公式
概率的基本性质::逆事件的概率
概率的基本公式::加法公式
概率的基本公式::乘法公式
概率的基本公式::全概率公式 与贝叶斯公式不同的是全概率公式中的完备事件组合成的是整个概率空间Ω。
概率的基本公式::贝叶斯公式 使用的方法:已知P(B|A)求P(A|B),第一步是条件概率公式,第二步分子分母分别用乘法公式和全概率公式转化,其核心的思想就是换得已知的P(B|A)。进一步推广可以得到P(Am|B)的情况
贝叶斯公式与全概率公式的关键是什么 找到导致事件B发生的完备事件组。
概率的计算的四种方法 概率的计算方法 直接计算 通过两种经典的概型,可以直接计算随机事件的概率. 用频率估计概率 大量重复事件出现的频率会趋近于概率 概率的推算 用概率的各种性质和公式来推导 利用概率分布计算概率
两种基本概型 概率论 (1)古典概型 (2)几何概型
两个事件相互独立的定义是什么 P(AB) = P(A)P(B)
三个事件相互独立的定义是什么
三个事件中两两相互独立的定义是什么
n个事件相互独立的定义是什么
相互独立的随机事件序列的定义是什么
若A,B两个事件相互独立,那可以推出什么(很多算式,而不是文字) 之前那道例题并不是说官解用人话把它说了出来,而是它使用了基本的性质。 它的意思是说不管有没有A或B,在什么前提下,我都是等于自己的,这样就说明了两个事件是独立的了。 还可以推出A与B不相关 <=> Cov(X,Y)=0 <=> ρXY=0 <=> E(XY)=E(X)E(Y)
独立性的性质::Ω与空集与其他事件的独立性关系是怎样的 因为按照定义式P(A)P(B)=P(AB)成立 1乘以任何数结果都为那个数,0乘以任何数都等于0,符合定义。
独立性的性质:: 第二条对应到多个随机变量间相互独立则是g(x1),g(x2)…g(xn)多个函数可以相互独立。
伯努利试验的定义 伯努利试验 定义:只有两种对立结果的试验
n重伯努利试验概型的定义 n重伯努利概型 将一个伯努利试验独立重复进行n次,这样的概型为n重伯努利概型
伯努利公式具体是什么 n重伯努利概型 → 二项公式 伯努利公式 → 二项概率公式
分布函数F(x)是左连续还是右连续的? 右连续 取整函数也是右连续的。
根据分布函数可以求随机变量有关事件的概率.例如:设F(x)是随机变量X的分布函数,则对任意两个实数a < b,有 ? ? 以此为标准型,是直接减,若改变其中的符合则那边会变成F(a-0)
用极限表示分布函数的值代表的含义 F(a)=? F(a-0)=? F(a+0)=? 右连续的
如果随机变量X是连续型随机变量,则F(b)-F(a)=?(写出一串连等式) 因为它是连续性的随机变量了,所以左极限=右极限=该点函数值,所以这几个值都是相等的。 而离散型随机变量才会有这么多乱七八糟的东西,真想感叹一下,连续性随机变量真好啊。
用表格形式表示离散型随机变量的概率分布是怎样的? 随机变量X表示其自身的时候就是一个大写的X,但是说到X的各个可能的取值的时候就是用的x1,x2…xn。
若概率密度函数f(x)在点x处连续,对于其分布函数与概率密度函数的关系是什么?
概率密度函数f(x)为某一随机变量X的概率密度的充要条件是什么 概率论 换句话来说就是如果找到了能够符合这两条的函数f(x)那么就一定能找到一个随机变量X,这个随机变量的概率密度函数正好是它。 另外侧面也说明了概率密度函数的定义并不是那么严格的,它也不需要连续。 其实关于f(x)定义式也是说得通的,只是这个说法更加具体而已。如果要满足之前那个定义式,那这两个条件一定会是满足的。
对于给定概率密度f(x)对应的分布函数F(x)不止一个{{c1::}} 错 对 给定X的概率密度f(x)就能确定F(x)
连续型随机变量X的分布函数与概率密度函数都一定连续{{c1::}} 错 对 连续型随机变量X的分布函数F(x)必连续,但密度函数f(x)不一定连续. 根据连续性随机变量的定义,只要能找到一个f(x)使得它的积分为F(x),那这个随机变量X就是连续型的随机变量。故即便这个概率密度函数是分段函数,那也不影响X作为一个连续型随机变量。
连续型随机变量X的分布函数和密度函数都不一定连续{{c1::}} 错 对 连续型随机变量X的分布函数F(x)必连续,但密度函数f(x)不一定连续.
连续的F(x)对应的X就一定是连续型随机变量.{{c1::}} 错 对 可能存在复合性变量,所以它是不一定的。
0-1分布 同义词 两点分布 同义词
两点分布的概率分布为 p为取1时的概率。
用什么分布来描述伯努利试验 0-1分布
0-1分布可以用来描述什么试验 伯努利试验
二项分布的定义 二项分布(Binomial distribution) 这些分布的定义是先给出式子说你要满足什么,如果你满足了这些你就是我这个分布,而不是通过做什么实验这个概念定义的。
X服从参数为的二项分布的表示方法 X ~ B(n,p) 二项分布(Binomial distribution)
几何分布的定义 几何分布描述了在n重伯努利实验中实验k次才得到第一次成功的机率,或者说前k-1次皆失败,第k次成功的概率。
几何分布描述了什么试验结果 描述在连续独立重复试验中首次取得成功所进行的试验次数,
泊松分布的定义 泊松分布(Poisson distribution) 泊松分布适合于描述单位时间内随机事件发生的次数的概率分布。如某一服务设施在一定时间内受到的服务请求的次数,电话交换机接到呼叫的次数、汽车站台的候客人数、机器出现的故障数、自然灾害发生的次数、DNA序列的变异数、放射性原子核的衰变数、激光的光子数分布等等。 e上面是负,λ上面是k。
X服从参数为λ的泊松分布简记方式是什么 简记作X ~ P(λ) 泊松分布(Poisson distribution)
泊松分布中参数λ的意义是什么 随机变量X的数学期望,即λ=E(X)
泊松定理 λ=np,上次做题遇到了的。
泊松定理实际应用中参数n,p的取值大概为多少 当n≥100,p≤0.10时即可用于泊松定理的近似计算
均匀分布的定义 概率论 :: 随机变量的分布 :: 连续型随机变量 Uniform distribution
均匀分布的简记方法 X〜U(a,b) Uniform distribution
均匀分布的分布函数 Uniform distribution
均匀分布在区间[a,b]内的随机变量X在其任意子区间取值的概率取决于在[a,b]内的位置{{c1::}} 错 对
指数分布的定义 指数分布英文名:Exponential distribution 看看看,这个指数分布也只有往下的那一半,所以也不是全域上都是指数函数图像的。
X服从参数为λ的指数分布的简记方法 X~E(λ) Exponential distribution
指数函数的分布函数
正态分布的的概率密度 注意:正态分布是先给出概率密度函数让你记,然后再推出分布函数的。
正态分布的简记方式 Normal distribution σ部分是平方。
,则F(x)如何用标准正态函数表示 是F(x)等于它,而不是X等于它。 是x-μ,而不是μ-x
正态分布密度函数的最大值在何处取到
正态分布密度函数的拐点在哪儿 有拐点
当μ与σ取何值时,X服从标准正态分布 μ=0,σ=1
X服从标准正态分布的简记表示方法 X~N(0,1) Normal distribution
标准正太函数的密度函数用什么符号表示
标准正太函数的分布函数用什么符号表示
标准正太函数的密度函数的表达式
标准正态函数的分布函数的性质 Φ(x)指的不是密度函数而是分布函数,因此并不是说密度函数“凸起来”的那个值为1/2
标准正态函数的概率密度函数的性质
标准正太函数的密度函数的拐点在哪儿
对于连续型型随机变量X,如果给出给定值c,那么P{X=c}=? P{X=c}=0
随机变量的函数的分布是什么 X是随机变量,Y是与X有关的随机变量,已知X的概率密度函数g(x),求出的Y的分布函数F(y)就可以表示随机变量Y的概率分布
0-1分布的简记表示方式 X~B(1,p)
二维随机变量的定义 设x = X(ω),Y = Y(ω)是定义在样本空间Ω上的两个随机变量,则称向量(X,Y)为二维随机变量(或随机向量)
二维随机变量(X,Y)的分布函数 又称 随机变量X和Y的联合分布函数 又称 相当于是合在一起看和分成两个来看。
随机点(X,Y)落在矩形域上的概率为
二维随机变量的边缘分布函数的定义
边缘分布函数与二维随机变量的分布函数的关系是怎样的?
(X,Y)的分布函数与边缘分布函数可以相互唯一确定{{c1::}} 概率论 :: 随机变量的分布 错 对 对于(X,Y)而言,由(X,Y)的分布函数可以确定关于X、关于Y的边缘分布函数.反之,由关于X和关于Y的边缘分布函数一般是不能确定(X,Y)的分布函数的.只有当X,Y相互独立时,由两边缘分布函数能确定(X,Y)的分布函数. 显然二维分布函数所包含的信息量更大。
什么时候可以由二维随机变量的分布函数唯一确定X和Y的边缘分布函数? 只有当X,Y相互独立时,由两边缘分布函数能确定(X,Y)的分布函数. 因为一旦X和Y相互独立就可以从二维随机变量分布函数中分离出只含有x和只含有y的两个函数。特别地二维正态分布也是类似的,一旦X与Y独立即可从二维中分离出一维来。
二维离散型随机变量的联合概率分布(或联合分布律)的性质 其实跟一维的概率分布几乎相同,换汤不换药。
二维离散型随机变量的边缘概率分布的定义
二维连续型随机变量的联合概率密度的性质 一维分布函数到概率密度函数是求导数,而二位联合分布函数到二位概率密度是求两次偏导数。
二维连续型随机变量的联合概率密度的性质::设G为平面上某个区域,则点(X,Y)落在G内的概率为
二维连续型随机变量的边缘概率密度的定义 都在正无穷的“边缘上”求积分了,那当然是边缘密度函数了。 注意这个边缘概率密度是取的+∞,而不是-∞
密度乘法公式 第三章多维随机变量及其分布 哇塞,这个式子刺激!有趣。 密度乘法公式:密度函数的乘法公式,类似于概率运算的乘法公式。
二维离散型随机变量(X,Y),随机变量X与Y相互独立的充分必要条件
若干个随机变量X1,X2…Xm相互独立的性质(随机变量相互独立能够推出哪些结论来)(那种大串大串的话) 1、其中任意个随机变量也相互独立 2、他们的函数之间也相互独立 3、无条件分布:无论在P{ |xxxx}中写什么都是相互独立的
二维均匀分布的定义
二维均匀分布的性质 全书上有道难题做到过。
二维正态分布的简记方法 某年实考这个顺序
二维正态分布有哪几个参数 某年实考这个顺序
二维正态分布中各个参数的概率意义
二维正态分布的性质 若(X,Y)服从二维正态分布,则X和Y都服从二维正态分布
二维正态分布中X与Y相互独立的充要条件是什么 ρ= 0
若X和Y都服从正态分布并且相互独立,则X和Y的联合分布一定是二维正态分布.{{c1::}} 对 错 这个二维正态分布还包含有参数ρ,不管这两个一维变量的关系是怎么样的,二维变量通过这个参数“容忍”了他们之间的关系。
若X和Y都服从正态分布,则X和Y的联合分布一定是二维正态分布.{{c1::}} 错 对 X和Y都服从正态分布 并且 ρ=0 => 联合分布为二维正态分布
若X和Y的联合分布是二维正态分布,则X和Y一定服从正态分布{{c1::}} 对 错 二维正太分布的性质
随机变量X,Y的函数的定义 设X,Y为随机变量,g(x,y)是二元函数,则以随机变量X,Y作为变量的函数U=g(X,Y)也是随机变量,称之为随机变量X,Y的函数.
连续型随机变量的数学期望的定义 这里的X是可以扩展的,如果里面放的是eX之类的g(X)也是可以用的
如果X的概率密度的无穷级数或反常积分不绝对收敛,则称随机变量的数学期望不存在.{{c1::}} 对 错
随机变量的数学期望的性质(单独关于EX的几条公式) (1) 设C是常数,则有E© = C; (2) 设X是随机变量,C是常数,则有E(CX) = CE(X); (3) 设X和Y是任意两个随机变量,则有E(X ± Y) = E(X) ±E(Y); (4) 设随机变量X与Y相互独立,则有E(XY) = E(X)E(Y). 除了任意的随机变量和常数以外,还有一条是关于相互独立性的。
E(XY)= E(X)E(Y)成立的充要条件是什么 X与Y不相关 比独立的要求更低
离散型随机变量X的函数Y= g(X)的数学期望 各个取值乘以取该值的概率
连续型型随机变量X的函数Y= g(X)的数学期望 这个公式在计算的时候真是太常用了。
二维离散型随机变量(X,Y)的函数Z = g(X,Y)的数学期望 每一个具体的值乘上这个值的概率,将它们全部相加。
二维连续型随机变量(X,Y)的函数Z = g(X,Y)的数学期望 离散型的是乘上各自的概率,而连续型的就是分别乘上各自的概率密度。在难题中很常用到这个公式。
方差的定义 它相当于是套了两个期望,它是期望的期望,真牛啊。
方差一定是非负的{{c1::}} 对 错
标准差的定义 方差的定义式部分有一个平方。 这里是标准差的定义不是样本的标准差的定义。要好好区分样本的标准差和概率论中的标准差。数理统计中的样本的方差,没有数学期望,用的是平均值,它也不会用随机变量X,而是一个个具体的样本值Xi。
标准差的记法 σ(X) 这是什么
标准化随机变量 的记法 X 这是什么 概率论 :: 随机变量的数字特征 概率论讨论的是随机变量,而这个数字特征牛逼了,它很强还标准化了。
标准化随机变量是什么 这个标准化随机变量跟一般正态分布和标准正态分布很类似,都是从一个没有数学期望和方差限制的变量让它标准化为一个期望为0,方差为1的变量。既然标准正态分布可以叫这个名字,那么随机变量也可以有自己的“标准化”。 而且从形式上来看,跟正态分布的标准化是一样的,任意的正态分布不是可以由标准正态分布表示成Φ((X-μ)/σ)嘛。
方差的计算公式(已知数学期望求方差,不是定义式) 这叫由内而外。
方差的重要性质 X±Y方差后只有正,这很有趣。 注意第五点,它的意思是这两块是可以互推的,D(X)=0 <=> X恒为常数
0-1分布 常见随机变量的数学期望和方差 就把它当作二项分布的特殊情况,若X~B(1,p)。
二项分布 常见随机变量的数学期望和方差 二项分布是B,而泊松分布是P
泊松分布 常见随机变量的数学期望和方差 泊松分布yyds
几何分布 常见随机变量的数学期望和方差 指数分布:1/p,1/p2 要注意区分
均匀分布 常见随机变量的数学期望和方差
指数分布 常见随机变量的数学期望和方差 记得指数分布,也就是生孩子的那个图有个很形象的部分。 与之类似的是卡方分布,不过卡方分布的期望与方差之间是一个2倍的关系。 几何分布才是EX=1/p,DX=(1-p)/p2
正态分布 常见随机变量的数学期望和方差
协方差的定义 设(X,Y)是二维随机变量,如果E[(X-EX)(Y-EY)]存在,则称它为随机变量X与Y的协方差, 记作 Cov(X,Y),即 Cov(X,Y) = E[(X - EX)(Y - EY)] 协方差表明了二位随机变量中两个变量的相互关系。 这个定义与方差的定义极为类似,所以要搞明白含义。而相关系数ρ是下面要除以标准差的,这要分清楚。 协方差是混合二阶中心矩。
协方差的关于数学期望和方差的计算公式 第二个式子中,若X,Y相互独立则可以推出D(X±Y)+DX+DY,要注意这里的使用条件。 第二个式子中可以看出协方差起了一个调和的作用,如果X与Y关系合适,在协方差的作用下,它们很可能会让最终的方差变小。反之,也会让协方差变大。注意其中的±号变动的地方,是在Cov部分,而不是在两个方差之间。 Cov与数学期望、方差的关系,第一个是有关乘积的,第二个是有关加减的。
协方差关于其自身的性质 1、可交换。2、可提出。3、可裂开
相关系数的定义
相关系数的性质 概率论 |ρXY|说明X和Y线性相关,若为正则是正的线性相关,a>0。反之为负的线性相关,a<0。
随机变量X与Y不相关的定义 如果随机变量X与Y的相关系数ρXY=0(即Cov(X,Y)=0),则称X与Y不相关 Cov(X,Y)=0 <=> ρXY=0 相互独立的定义是两者的乘积的期望与两者期望的乘积相等,而不相关的定义是用相关系数或者协方差来定义的。 要注意看清楚是不相关还是独立。
随机变量 X与Y的独立性与相关性的结论(性质)(可以互推吗,什么时候等价) 独立 => 不相关,但 不相关 ≠> 独立 联合分布为二维正态分布时不相关 <=> 独立 0-1分布只能有两种取值,信息量太少没得跑,不相关 <=> 独立 但是二项分布不能互推,因为二项分布能有很多取值。
关于数学期望、相关性、协方差、方差的四个等价结论 在任何情况下D(X±Y)=DX+DY+2Cov(X,Y) 如果独立的话是P(XY)=P(X)P(Y),而不相关的要求比独立性低了一点,因此只能找到随机变量的数字特征——数学期望来相乘
k阶原点矩的定义 E(Xk) 本质上是一个由一般到特殊的过程,可以看出1阶原点矩就是数学期望,1阶中心矩就是标准差,2阶中心矩就是方差,1+1阶混合中心矩是协方差 所有的这些“矩”都是以数学期望为基础的,就是说把所有乱七八糟的数字特征都用一种均一化的方式表示,这种表示方式就是数学期望。
k阶中心矩的定义 中心矩顾名思义就是离中心的距离,方差和标准差都是表示离中心的偏离程度的,刚好符合中心矩的含义。
混合原点矩的定义
混合中心矩的定义
均方差 同义词 标准差 同义词 不是协方差
Z=X+Y的分布的求法
Z=X-Y,Z=Y-X的分布的求法 相当于就是把不要的值用已知等式换掉,然后再把另一个不要的值在全域上进行积分消掉。 先好好看前面好了,后面什么独立的都是事后之事,瞎扯。
Z=XY分布的求法
Z=max{X,Y},Z=min{X,Y}的分布的求法 Fmin(z)=FX(z)Fy(z) Fmin(z)=1-[1-FX(z)][1-FY(z)] 注意,平时常背的那两个公式的前提时两个随机变量相互独立。如果不相互独立的话就不要用这个公式了,就直接按定义硬推。
分布的可加性 概率论 四种: 二项 B 泊松 P 正态 N 卡方 其中只有二项分布的p相加之后是相同的, 其他的要全部相加
什么玩意儿作为一个引理,可以用它直接证明出切比雪夫大数定律 切比雪夫不等式
最简单的大数定理是那个 伯努利大数定理 伯努利老朋友了
中心极限定理是什么 是概率论中一切关于“随机变量之和在一定条件下的极限分布是正态分布”的定理的总称。定理形式有多种。
依概率收敛的定义 高数极限部分的定义,ε可视为一个足够小的数。 这个依概率收敛感觉就是想说这个玩意儿就等于这家伙,本来想说Yn=a的,但是这里是统计学嘛,要严谨,就说了这么大段话,但其实内容是很少的。 这就是很严谨,粗略来看就是Yn=a,但是它这里用了这种方式来表示极限的收敛。 依概率收敛的是一个数列,而不是一个数。
依概率收敛有什么性质 依概率收敛的都是数列,而不是一个单单的数。 性质是可以套在一个函数里面,既然有两个收敛,那就是套在一个二元函数里面。
切比雪夫不等式是什么 这个不等式相当于把有关方差也就是随机变量取值跟数学期望的偏离值进行量化,这里的ε的含义可不是后面大数定理用来表示“足够小”,这里的ε是用来表示“任意值”。然后这两个不等式都在说明一件事情,就是这个数学期望特别好,再怎么样随机变量X的值也不会偏离EX太多。外部的ε之所以要用平方,想必是方差这个值本身跟平方有关,所以ε也带了个平方,这样才和谐。 注意,后面的大数定理和中心极限定理都带了一个极限,而作为最初引理的切比雪夫不等式是没有带极限的。 第一个不等式可以取等,而第二个不等式不可以取等。第二个不等式形如极限中的定义,而第一个可以取等的不等式不是这样的。 这里的ε不仅可以取常数,还可以把它当成变量
切比雪夫大数定律 切比雪夫大数定理是要求最低,但是最复杂的大数定理,这个公式从形式上来看就很像方差的定义式。它的第一个“项”相当于来个求随机变量的平均值,第二个“项”是给期望来个平均值,随机变量和期望的平均值来个相减,小于ε的概率即为1. 一语道破——若干个随机变量的值的平均==它们的数学期望的平均。这里的ε指“任意小”的值,两式相减得到的这一堆它一定是特别特别小趋近于0的,所以用高数中的极限方法来这样表示。 你想想看这个定理需要由切比雪夫不等式作为引理推出来,可见它是一个多么复杂的定理了。 注意第二个项是数学期望而不是抽样统计中的平均值。因为它描述的是统计值与概率论中期望的关系。
伯努利大数定律 伯努利大数定理是三个大数定理要求最高,最特殊,但形式也相对最简单的一个。 其实这里μn就相当于概率论中的随机事件X的次数x,他的次数实验进行实验足够多次其实验的数理统计结果就会趋近于伯努利实验的概率,μn/n便会趋近于概率p,用极限的表示方法便是它们的差小于一个不管有多小的ε,这种情况一定是会成立的,所以其概率为1.
辛钦大数定律 辛钦大数定理相当于把切比雪夫大数定理中的“第二项”改成了共同的数学期望,其实换汤不换药,切比雪夫的第二项也是算的数学期望的平均值,这个既然数学期望都是相同的了,那当然也就是这个值了。 独立同分布就是为了引出这个相同的μ,有了这个μ算的时候就不用像切比雪夫大数定理这样需要把数学期望的平均值再算一遍了,因为既然数学期望都是相同的,那也没有必要把所有的数学期望都加起来再求个平均值。其实我想啊,就算它们不是同分布的,就只是符合切比雪夫的条件,再来个又共同的数学期望,按照推论也是可以用这个式子的,毕竟一平均之后也就变成μ了。
列维-林德伯格定理 同义词 独立同分布的中心极限定理 同义词 独立同分布的,而不仅仅是同分布
独立同分布的中心极限定理 跟二项分布的中心极限定理相比,各个随机变量X这里是全部相加后减去nμ的,而二项分布中心极限定理是单个的Y跟np相减。 中心极限定理是为了说明这些实验最终会趋近于标准正态分布,因此最后的结果一定是标准正态分布Φ。而大数定理是为了说明这些东西会趋近于某个值,所以最后趋近那个值的可能性是100%,故最终结果等于1.两个中心极限定理都是≤x,而不是ε。
二项分布以正态分布为其极限分布的中心极限定理 两个中心极限定理其实结构都是类似的:上面是变量减去期望,下面是标准差√n 两个中心极限定理有个很大的区别:同分布的中心极限定理是由多个随机变量组成的,而二项分布的中心极限定理只有一个随机变量出现。
棣莫弗-拉普拉斯定理 同义词 二项分布以正态分布为其极限分布的中心极限定理 同义词
在数理统计中总体的定义 所研究对象的某项数量指标X取值的全体 跟概率论中相对应,概率论是全体可能的值,数理统计的全体已经取到了的值。
数理统计中个体的定义 总体中的每个元素称为个体,每个个体是一个实数.
简单随机样本的定义 Xn与xn是一一对应的,但是含义不一样,X指的是随机变量,就像计网中的“被管设备”一样,而x指的是随机变量这次取到的值,就像“被管对象”一样,不过这两者之间是一一对应的,不像计网中是一对多的关系。
简单随机样本 简称 样本 全称
样本容量的定义 数据个数
简单随机样本的概率分布 因为它们之间都是独立重复的,所以是相互独立的也就满足概率论和数理统计的这些结论了。 简单随机样本 => 独立重复抽取的一些样本
数理统计中统计量的定义 统计量与概率论中的数字特征有点类似,但是不同的是:统计的只是从整理中抽的部分样本,这些样本可能没有抽完。而数字特征是描述的整个可能性区间。统计量也有点像随机变量的函数,但是跟上述区别类似地,统计的只是部分,不一定是全部,这就是两者的关键区别。
样本均值
样本方差(两个式子) 注意,这里是有两种形式,其中后面一种两个平方相加的形式中X的平均值的平方是要乘上n的,后面X的平均值部分也要带上平方。而且样本方差除以的是n-1。
样本标准差 注意样本标准差和方差一样,除的时候少一个。它这个算式跟概率论中的不太一样。 记得给这个式子加上根号,根号不要忘了。
如果总体X(不管服从什么分布,只要其均值和方差存在)具有数学期望E(X)和方差 D( X) = σ2,则总有(样本的数字特征和概率论数字特征的关系) 样本的平均值的期望等于总体的期望,但样本平均值的方差却会更小。
样本k阶原点矩 方差标准差除的时候要多减一个1,但是这些“矩”却没有减,是直接除的。
样本k阶中心矩 这个中心矩的内外都变成了“平均”是用的除法,而不再是用的数学期望了。 概率论的时候是对整个未知进行理论上的推断,而数理统计是已经获得了一些数据,而你不能用概率论的理论来获得期望之类的,只能尽可能地用好手中的数据。把手中的数据好好求得平均来用。 有关样本的都是没有期望的。 只有带方差的才是除以n-1
E(X)=? D(X*)=? E(X*)=0 D(X*)=1
标准化随机变量的数学期望和方差分别为多少 E(X*)=0 D(X*)=1
泊松分布中的λ的取值范围是什么 λ>0 λ>0,而k取1,2,3,4…
泊松分布中X=k,中的k的取值范围 k=1,2,3… λ的取值范围是λ>0,但k的取值范围是从1开始的。
卡方分布的图像
卡方分布的典型模式
卡方分布的分位点 卡方分布在写法上是带平方的,这也体现了卡方分布不是简单的标准正态分布相加,而是各个标准正态分布的平方再相加。 是一个随机变量,而是一个具体的值,这里的f(t)指的是卡方分布的密度函数。
t分布的图像
t分布的典型模式 真是魔鬼,你看它这个样子其实就是想把正态分布还原回来,怪不得最后的性质是趋近标准正态分布呢。 正因为t分布分母部分是开了根号,所以需要把t分布的数值进行平方之后才能变成F分布。 上面是标准正态,下面是卡方。需要以相互独立作为前提。除此之外F分布也需要X与Y相互独立
t分布的分位点,及其性质 三个样本分布中就只有t分布是是对称的,因此有这个性质。
t分布的性质 这三个统计分布中,只有t分布是偶函数,长得也像正态分布,所以也就是它通过n趋近无穷时可以趋近标准正态分布。 第二个性质讲的是t分布与F分布的关系。第二个性质里t带了平方的原因是t分布定义的时候分母部分有个根号,而F分布的定义是分子分母直接相除没有根号。
F分布的图像 F分布是三个抽样分布中唯一一个含有两个参数的,它也最“高级”,以别的分布为前提构建的一个分布。
F分布的典型模式 对于t分布和F分布来说卡方分布都是基础。t分布是上面有卡方分布,而F分布是上下都有卡方分布。 t分布也是除以n,但是t分布除以n之后是要开方的,而F分布不用。
F分布的分位点 这三个样本的概率分布的分位点取的都是点右边的积分,而前面的分布函数取的是点左边的积分。这个分位点的形式也很像分布函数。 这里的F指的是一个随机变量,跟X类似,而Fα(n1,n2)是一个具体的值,故称之为分位点。
F分布的性质 F分布的性质就是一交换就变成倒数。 F分布的分位点的性质要变三个地方,α要变成1-α,n1,n2要进行颠倒,最后整个数值还要取倒数。 第一个是F分布的性质,第二个是F分布的分位点的性质。
统计学的核心问题是什么 从样本推断总体
三个大数定理的严格条件从高到低分别是什么,它们的条件又分布是什么? 伯努利大数定理:服从同一个二项分布 辛钦大数定理:独立同分布 切比雪夫大数定理:相互独立,期望、方差都存在,方差有公共上界 相对于两个中心极限定理来说,辛钦大数定理和伯努利大数定理都有定理与之一一对应,而切比雪夫大数定理在所学的中心极限定理中没有定理与之对应。
两个中心极限定理中那个的条件要求由低到高排列,它们所要求的条件分别是什么? 列维-林德伯格定理/独立同分布的中心极限定理:独立同分布 棣莫弗-拉普拉斯定理/同二项分布的中心极限定理:服从同一个二项分布
泊松定理中λ等于什么 λ=np
统计推断的含义 由样本推断总体
点估计 一个具体数值的参数估计
最大似然估计的性质 从样本方差到标准差的函数是开根号,根据最大似然估计的不变性,可以知道总体方差到标准差也是开根号
参数估计::无偏性 你估计得很准,用这个样本的估计量刚好等于整体理想情况中的量。
参数估计::有效性 有效性是最委曲求全的估计了,什么都不行就只能比方差,看看离理想中差多远,越近越有效。
参数估计::一致性/相合性 如果不能保证估计的量刚好等于理想中的量,退而求其次,它的收敛值等于它也好。
置信区间的相关概念 概率论 :: 数理统计 :: 参数估计
单侧置信区间的相关概念
函数有界、无界的定义 函数的4种特性::有界性
函数单调增加、单调减少的定义
奇函数、偶函数的定义 奇奇可以露出来
函数周期性的定义
函数的定义
复合函数的定义
若f(x)是可导的偶函数,则f’(x)的奇偶性 f’(x)是奇函数 从原函数向自己的导数推导,信息量是在下降的,就一定能通过自己的奇偶性推导出自己的导数的奇偶性。而从自己往原函数方向,信息量是在上升,可能需要一些条件才能推导出原函数的奇偶性。
若f(x)是可导的奇函数,则f’(x)的奇偶性 f’(x)是偶函数 往下是改变奇偶性。
若f(x)是可导的周期为T的周期函数,则f’(x)的周期性 f’(x)是以T为周期的周期函数 往“下”损失信息获得的性质是顺水推舟
连续的奇函数的一切原函数都是偶函数{{c1::}} 对 错 本来向原函数方向推导奇偶性是可能要加条件的,但奇函数的要求很高,不像偶函数一样可以上下移动,跳来跳去,因此可以直接得出连续奇函数的原函数必为偶函数。
连续的偶函数的一切原函数都是奇函数{{c1::}} 错 对 连续的偶函数的原函数中仅有一个原函数是奇函数 偶函数是可以上下移动的,不同位置的偶函数的原函数不同,而奇函数的要求是很苛刻的,奇函数f(0)=0,通过上下平移,只有一个偶函数能够做到。
,则f(x)的原函数的周期性 f(x)的一切原函数也以T为周期 求原函数就是求函数图像下面的定积分,而既然成立,那么每积一段距离它的原函数的值就会变回f(0),那么可见它的值是在不断循环的,因此也就是周期函数了。
若f(x)在有限区间(a,b)内可导,且f’(x)有界,则f(x)在此区间内一定有界{{c1::}} 对 错 f’(x)有界就说明f(x)的值不会上涨或下降得太离谱,因此有界。
幂函数是怎样的 y=xμ μ=0时,y≡1,此时不为幂函数
余割函数 长什么样 y=csc x 什么函数 cosecant余割
将sec x与csc x分别化为cos x 和sin x的形式
y=sec x的图像
y= csc x的图像
y=sec x和y=csc x的定义域和值域 定义域:减去那些空处的全部范围 值域:不能取到(-1,1),别的都能取到,注意能取到±1
y=sec x与y=csc x的奇偶性 奇偶性:y = sec x为偶函数,y = csc x为奇函数(在其定义域内). 这两个函数都是通过sin和cos变出来的,而奇偶性的定义又是改变内部x的正负号,因此sin和cos既然能让整体不变号或变号,那也能让sec和csc达到同样的目的。
y=sec x与y=csc x的周期性 周期性:y=sec x和y=csc x均以2π为最小正周期(在其定义域内).
y=arcsin x的图像 注意区分arcsin x和csc x 在定义域内长得有点像y=x3
y=arccos x的图像
y=arcsin x与y=arccos x的定义域、值域 闭区间,可以取到端点值的。
y=arcsin x与y=arccos x的单调性 y=arcsin x单调增加,y=arccos x单调减少
y=arcsin x与y=arccos x的奇偶性 y=arcsin x为奇函数(在其定义域内) y=arccos x为非奇非偶函数
arcsin x与arccos x相加的性质(一战莫名其妙的题) 看了他俩的函数图像就明白了
y=arctan x的图像
y=arccot x的图像
y=arctan x和y=arccot x的定义域和值域 与sec x和csc x对比下:这里的值域是开区间,取不到端点值的。
y=arctan x和y=arccot x的单调性 单调性:y=arctan x单调增加,y=arccot x单调减少 .
y=arctan x和y=arccot x的奇偶性 奇偶性:y=arctan x为奇函数(在其定义域内). y=arccot x为非奇非偶函数。
arctan x和arccot x相加的性质
y=arctan x和y=arccot x的趋于无穷的极限值
初等函数的定义 由基本初等函数经有限次的四则运算,以及有限次的复合步骤所构成的并且可以由一个式子所表示的函数称为初等函数
符号函数 表示方法 y=sgn x 这是什么函数 高数预备知识
y=sgn x=? 0特立独行专门取一个值
取整函数的图像
取整函数是右连续还是左连续的 右连续 和分布函数是一样的。
r=a(1-cos θ) (a>0)的图像 心形线
心形线的表达式及图像 r=a(a-cosθ) (a>0) 心形线和星形线不要搞错了。
图像名称及函数表达式 心形线r=a(a-cosθ) (a>0)
三叶玫瑰线的表达式和图像 r=a sin3θ (a>0) 可以分析得出如果把sin换为cos则其中一个“花瓣”的对称轴刚好与x轴重合。
r=a sin3θ (a>0)的名称和图像 三叶玫瑰线
名称和函数表达式 r=a sin3θ (a>0)三叶玫瑰线
阿基米德螺线的表达式和图像 r=aθ(a>0,θ≥0)
图像名称和表达式 r=aθ(a>0,θ≥0)阿基米德螺线
r=aθ(a>0,θ≥0)图像的名称和图像 阿基米德螺线
伯努利双纽线的表达式和图像 带平方的原因:本来这个图像按理来说应该是有负半部分的,但是因为r有个平方,所以取不了负值,因此绿色的部分便没有了。 θ乘2的原因:让函数图像变得更“密”本来只能一圈放两个的,现在能放4个了,虽然有两个因为平方的缘故没了。
r2=2a2cos 2θ的图像及其名称 伯努利双纽线
图像名称及其表达式 伯努利双纽线r2=2a2cos 2θ
摆线的参数方程 参数方程所在的点不是在圆形而是在弧上。
摆线的拱顶的坐标 (πr,2r) 横坐标:周长的一半,纵坐标:直径。
摆线第一拱的对称轴 x=πr
摆线的周期性 以2πr为周期
星形线的图像
星形线的参数表达式 r也是个参数,而非变量
星形线的直角坐标方程 张宇微分好像有道题就是这个
图像及其名称 星形线 r是大圆半径
图像及其名称 星形线
图像名称及其直角坐标表达式、参数方程表达式 星形线
等差数列的通项公式 an=a1+(n-l)d.
等比数列的通项公式 an=a1rn-1
等比数列的前n项和 这还要分情况讨论,不要忘了说不定就要出问题。
常见数列前n项和::=?(用含n的因式乘积表示) 学了高数能反过来帮助概率论
常见数列前n项和::=?(用n表示)
总体同分布,样本最大值、最小值的分布
三角函数二倍角公式 cot部分cot2α-1两项是要交换位置的,公式cot(α±β)也是同理。
三角函数半角公式 正统:tan肥猪在下面 之所以sin和cos的半角公式里都含cos是因为cos的二倍角公式里可以只有一个别的量,而sin二倍角公式里一定会有两个不同的未知量。 cos和cos自身是好兄弟,所以里面放的是正号。cos自己神通广大,所以tan和cot用单一三角函数表示里面放的是cos
指数运算法则
对数运算法则
求根公式 韦达定理 一元二次方程
因式分解::(a±b)3=? (a±b)3=a3±3a2b+3ab2±b3 第二项b为奇数的项取正负,否则取正。 (a±b)3是典型的二项公式,应按照二项公式的方式打开括号。
多项式化为因式乘积,a3±b3=? 先模仿,再造反。
二项式定理 k是从0开始取的,而不是1
对不等式在离散和连续情况下推广到很多个数 内斗损伤功力,直接出来混才靠谱。 第一个式子可以直接理解成这样,不过前面那个式子里的ai可以任意取加减。
数列极限的定义 这里的N是一个常数,而n是一个自变量。
收敛数列的性质 有界性:数列相当于是离散的函数,与连续的函数不同的是收敛数列一定有界,而连续的函数不一定有界。连续函数对应的性质是有限有界和有限保号性。
数列极限的夹逼准则
数列{xn}单调增加或减少且有上界或下界,是否能说明数列{xn}的极限存在。{{c1::}} 能 不能
一维邻域的定义 函数极限 任何开区间:这个开区间可能取得很大哦。
函数极限::一维邻域::δ邻域的定义 邻域是一个包含某个点的任意开区间,而δ邻域就是加了个限制,让这个区间以某点为中心,以δ为半径。
去心δ邻域的定义 函数极限 :: 一维邻域
函数极限::一维邻域::左、右δ邻域的定义 左右δ邻域的范围都是不含“此点”的。
函数极限::二维邻域::δ邻域的定义
函数极限::二维邻域::去心δ邻域的定义
δ邻域的几何意义 函数极限 :: 二维邻域
函数极限的定义 函数定义这里就把δ邻域给接上了,所以说前面的一些准备知识不是没有用的,也就怪不得之前记不住定义了。 注意推导出来的严格定义中有δ>0,ε>0的部分,这里很奇妙。
函数极限的三个性质 与数列极限(离散函数)相比,连续函数和它的三个性质基本类似。不同的是连续函数要加上“局部”两个字,因为连续函数只能说明在某个点之后才能稳定产生如此的性质。
极限运算规则 数列运算的规则:可加减、可乘除 连续函数运算的规则:可加减、可乘除、可提出、可次幂(本质是一样的) 这个性质是lim的运算,而不是把limf(x)的值直接带进去这种显然的东西。
极限::夹逼准则
洛必达法则 所以根据洛必达法则可以倒推除分子分母趋于这个值的时候是趋于0或正无穷的。
海涅定理 同义词 归结原则 同义词
海涅定理 数列就是离散函数,既然连续函数都趋于某个值了,那么这个连续函数的任意分立的点的组合也是趋于这个值的。 x0相当于既是f(x)的自变量取值,又是数列xn的函数值。 不是说一切递增数列都是可以的,这个数列的极限的是x0,其实要求挺高的。相当于是一个复合函数,只不过这个复合函数里面套的函数是一个离散的函数。
无穷小定义
无穷小比阶(同阶、高阶无穷小…) 高阶就是厉害的意思,高阶无穷小就是特别小,小得很厉害,自己在分母那儿都让整体为0了,那可是真厉害。 k阶无穷小是说我特别小,小得要让你自乘k次才能达到我那么小。 注意k阶无穷小得到的是常数c,而不仅仅是特殊值1. 注意我们是只学了无穷小的各种性质,但是没有学无穷大的性质。
无穷小运算规则(三个东西跟无穷小运算后还是得到无穷小) 注意第二点是有界函数跟无穷小相乘才是无穷小,万一这个函数是无界函数那就说不准了。
无穷小的运算(公式) 最后一条,非零常数相乘不影响阶数。 乘法时可以是和xm相乘也可以和o(xm)相乘,其得到的结果都是一样的。
常用的等价无穷小 环环相扣各种等价,正好是前面基础不等式的那几个。
连续点的定义 该点函数值 = 该点极限的值
间断点有哪些分类 可去间断点 跳跃间断点 无穷间断点 震荡间断点
可去间断点的定义
跳跃间断点的定义 它只说了左极限不等于右极限,但没有说f(x)的值,所以f(x)可以不存在,也可以跑到上面或者下面去,当然和左右极限贴着也是可以的。
第一类间断点有哪些 可去间断点和跳跃间断点统称为第一类间断点.
无穷间断点的定义 可以左右都往上,也可以都往下,还可以上下各一个。 与另外几类间断点相同,无穷间断点也没有提f(x)处函数值的影响。
震荡间断点的定义 他只是说左右两个邻域内极限不存在,并没有说f(x)出取值如何。
第二类间断点有哪些 无穷间断点 振荡间断点 其他
区间估计是什么 估计所在区间范围
假设检验问题的概念
假设检验::原假设和备择假设
假设检验::拒绝域和临界点
假设检验的两类错误 假设检验 第一类错误:拒绝正确的(拒绝了好人) 第二类错误:接受错误的(接受了坏人)
假设检验::显著性水平 1-α就是落在置信区间里的概率。
假设检验::显著性检验
假设检验的基本思想和原理
一致性 同义词 相合性 同义词 数理统计 :: 参数估计 :: 估计准确度的衡量
三种估计量的:“准确程度”排序 无偏性>一致性/相合性>有效性
绝对值和差的关系 基础常用不等式 基本思想是 ①如何让a、b和差变得最大②如何让a、b和差变得最小 -> ①|a|+|b|可以让其和差最大,而且没有必要加绝对值。②||a|-|b||可以让其和差最小,而且有必要加绝对值 -> 它们都是与绝对值里的a、b和差做比较,尽量保持运算符合的相同。 -> ①发现与之相比较的值不仅可以为+,也可以取-,所以就取±。②与之相比的值不能取另一个符号,因为无法保证a、b的正负,因此就取原先的符号。
四种平均数的比较 基础常用不等式
已知a,b大小关系,推得其幂的关系 基础常用不等式
基础常用不等式
几个跟导数斜率有关的不等式 基础常用不等式 注意取值范围
常见的一个对数、分数关系 基础常用不等式 用拉格朗日中值定理证明得出
三角函数和差公式(coco sisi)::sin和cos
三角函数和差公式(coco sisi)::tan和cot cot部分不仅是上下颠倒而且两项的顺序也变换了。 因为记得是tan部分,cot是从中推出来的,因为第二个公式不要忘了把tan换成cot不然会出大问题。
三角函数基本关系(六个三角函数间的四则运算)::五个相除式子(三个倒数,两个除法)
三角函数基本关系(六个三角函数间的四则运算)::三个平方相加的式子
泰勒数据结构(一战笔记) mark: ln(x+1) ln(x+1)的起始不是1而是x. ln(x+1)没有阶乘
排列组合公式
单个正态总体的样本分布(五个分布、一条性质) 使用总体的数字特征看起来还很舒服,但一旦换成样本的数字特征那就变成(n-1)了。 下面的样本方差分布,因为都带平方嘛,所以最后都是卡方分布。 (1)是原先讨论的是均值,后面换上了方差。 (2)是原先讨论的是方差,后面换上了均值。 第一个样本方差只是一堆的求和,而后面一个才是式子中含样本方差S2的式子。 第一个样本方差带的是μ,是理想中的总体的值,而第二个带的是X的样本均值,这才是跟S2有关系的量,也是跟样本有关系的量。
两个正态总体样本的分布(五个记法、三个分布、两个特别地) 概率论 :: 样本分布 其实核心就只有F分布那个公式,(1)可以直接推,后面的不用记。
an±bn的因式分解 正奇(震惊)!00后居然没有一个活过22岁 其实最后两个公式虽然上面写出来长度好像一样,但是因为奇偶的数量不同,其实长度是有差别的,在实际上只需要按照某个变量降幂的次序写下去就可以了。 统一的an-bn是“先模仿,后造反”,不愧是统一的,看起来就很舒服和谐。前面是跟原先一样的形式,后面全是加。 最后两个可以从右往左倒推,其实它的思想就是⑧是第一个因式做减法,第二个因式做加法,而我就正好倒过来,第二个因式做减法,第一个因式做加法。做减法的那个长式子中有两种情况:奇数和偶数。两种情况分别凑出一种an与bn的关系。 最后两个式子从右往左倒推加减性的时候,可以通过判断最后一个bn-1的指数是奇还是偶,因为最后一个项一定是最后被保留下来的项,它的正负性与前面的bn的正负性是相同的。而最后两个式子因为是用的第二种思想,所以它第一个因子一定是a+b 关于最后两个前面的奇偶性,要用奇偶的个数去数到最后一个b的正负,流程是:n为奇偶→右边的b数到的数是正还是负→由此决定左边b的正负。
如果X服从二项分布B(n,p),则能推出什么与之相关的也服从二项分布 Y = n - X ~ B ( n , q ) , 其中 q = 1 - p
第二类间断点=无穷间断点+震荡间断点{{c1::}} 错 对 除了这两类间断点以外还包括别的种类。
cot x的函数图像
导数的定义 高数
单侧导数的定义 即Δ趋近于0-是左侧导数,趋近于0+为右侧导数。
微分的定义 微分学 存在常数A,使得 则AΔx为f(x)在x0的微分
反函数的导数
参数方程所确定的函数的导数
变限积分求导公式=?
极值点的定义 因此极限不存在,那种“尖尖”的情况下也可以是极值点。
判别极值的充分条件 第一充分条件是最接近极值的定义的,没有说f(x)在x=x0处的情况,只是说了该点左右两边的情况。 第三充分条件:在某个偶数阶非0的情况下,若有一个比此偶数阶小的阶为0,则可以取得极值。具体而言,此偶数阶若为正,则f(x)在此处收获极小值,反之收获极大值。
凹凸性的定义 区间内任意两点: 确定凹凸
拐点的定义
单调性如何判别
极值点的必要条件 f’(x0)=0 <= f(x)在x=x0处可导,且f(x)在此处取得极值 注,必须说明f(x)在x=x0处可导,否则,这样的情况也是有可能的。因为此点符合极值点的定义,即左右两边的邻域都比此点小,但不能推出f’(x0)=0 极值和最值是高中数学最爱求的两种,而高中数学没有重视拐点,所以极值点比拐点第一阶,不要弄混了。
拐点的必要条件 拐点 => f’‘(x0)=0 与极值点的必要条件相比,拐点的条件中少了需要可导这个条件。因为拐点是“竖着”拐还是“横着”拐都是拐点。 极值点 且 可导 => f’(x0)=0,而拐点是二阶导数为0.
判别拐点的充分条件 在极值点的判别中也是三个充分条件,常见的极值点是一阶导数为0,而拐点是二阶导数为0.因此可以说拐点是极值点的“升级版”。 两者相同点都是: 第一充分条件:关心左右两边邻域的情况,极值点关心f’(x)的正负变化情况,拐点关心f’'(x)的正负变化情况。 第二充分条件:此阶导数为0,而更高一阶的导数要保证它不为0. 第三充分条件:某阶(大于某个值)导数存在,在此阶一下存在一个值为0的阶导数,然后这个阶数需要满足奇偶的条件,则可以判定此点为目标点。
斜渐近线的判别 高数 高数 :: 极限 为什么要先除以x进行判断,再用减法获得截距,原因分析如下: 渐近线是关于在无穷远处趋近的直线,而在无穷远处,在y轴的截距部分已经可以忽略不计了,就等同于这个函数图像是从原点出发到达无限远处的,因此第一步首先是求斜率。 而获得斜率之后再用函数值减去kx,若得到的值的极限存在的话,那就说明函数图像与与过原点的那条“假”渐近线平行,得到截距b就改用新的真实的渐近线。
一战笔记 :: 导数数据结构 :: “正函数”部分 “正函数“部分的三角函数们与自身三角函数关系亲密,求导之后还是三角函数。而反函数就是一群“反贼”,因为它们是反的,所以对三角函数心存不满,求导之后原形毕露,就纷纷变成了分式。 在“正函数”中,它们求导之后都纷纷找了跟自己关系好的函数,有特殊联系的函数。如tan x和sec x有平方和的关系,cot x和csc x也是如此,因此它们求导之后都找到了“伴”。
一战笔记 :: 导数数据结构 :: “反函数”部分
泰勒展开式::? 与1/(1-x)形成对比,1/(1-x)全是加法,把各个次方的x全部相加。
泰勒展开式::? 很反常的事情,带负号的1/(1-x)居然是一堆项相加,而带正号的1/(1+x)居然是加加减减。 注意与ex相比,ex下面是要除n!,而1/(1-x)没有
泰勒展开式的推导公式
极限计算::1∞型未定式的公式(底数指数都有未知数该怎么计算) lim uv=exp{lim(u-1)v}
极限计算::∞0和00型未定式的公式(底数指数都有未知数该怎么计算) 高数 lim uv=exp{lim v ln u} 对于这种指数的极限来说,无论只要是作为底数,无论如何都会被别人踩在脚下,无论是被减1还是被ln.
两个熟知极限 另一个:sinx/x=1
n阶行列式的定义
行列式的性质(7条) (“互换”性质) (“倍乘”性质) (“倍加”性质) 性质1:基础不变的性质 两条结果为0的性质:某行某列全0,两行两列等比例 某行某列可拆分,两行列互换值取反,倍乘,倍加
余子式的定义
代数余子式的定义 代数余子式Algebraic complement 余子式complementary Minor 余子式是最原初的,代数余子式在前面乘了一堆系数。 -1的系数是i+j不是乘的关系。这是因为相邻的代数余子式所乘的符号要变号,i+j能满足这种关系。
行列式按行/按列展开公式
对一阶行列式运算的规定
除了行列式按行按列展开公式对2、3阶行列式另外的计算方法 常见的斜对角线相乘,要注意的是四阶级以上的行列式不能这么做。
主对角线行列式是什么,及其及其计算方法
副对角线是什么,及其计算方法 n在这里是阶数。 除了正负号和主对角线行列式不同以外,其绝对值和主对角线相比是一样的。
行列式的拉普拉斯展开式(分块形式的行列式)及其计算的结果 类似于基本的2、3阶行列式的计算,不过副对角线的情况有所不同,常规的副对角线是n*(n-1)/2, 而且没有三阶的情况,因为三阶太高了,卷子上可能都写不下。
行列式的计算::12+1型行列式有哪些 12: 主对角线行列式3种 副对角线行列式3种 拉普拉斯行列式6种 1:范德蒙得行列式1种 12+1型行列式是行列式计算中最基础的行列式 分块矩阵中只有有一个块为0,那一定可以视作拉普拉斯行列式。
范德蒙得行列式 范德蒙德行列式是从1开始的,作差的时候只有一个方向,就是大的减小的,不会出现小的减大的出现负数的情况。
行列式的计算::数学归纳法 k的意思是“某个值” 第一数学归纳法:②假设n在某个值成立,③n在下个值成立。 那么就可以说明某个值成立 => 下个值成立 第二数学归纳法:②假设在某个值前面的所有值都成立,③那证明这个值也成立 某个值前面的值都成立 => 这个值也成立
可导的定义 极限存在 可导→xxx极限存在→极限存在有自己的定义
原函数与不定积分的定义
原函数/不定积分存在定理 如果中间有第一类间断点的话随着范围区间的缩小F(x)就会变来变去的,因此不存在。 震荡间断点是可能有原函数的。 连续函数必有原函数,含间断点的暂且认为它没有原函数。
定积分的定义(描述其概念)
定积分的精确定义(计算中常用的式子)
定积分存在的充分条件(三个)
定积分存在的必要条件 积分学 f(x)在区间内有界 <= 定积分存在
变限积分的性质(可积,可导,连续的关系) 不断升级,可导比连续高一级,连续比可积高一级。
莱布尼茨公式(两个数求n阶导) 与之类似的是二项式定理 莱布尼茨公式:关于导数进行操作,对变量求阶导 二项式定理:关于次方进行操作,对变量进行指数运算
类型的,在什么条件下,有什么结论 张宇结论 因为既然能展开为那求导有很多神神秘秘的东西。
数学期望、方差、协方差 是“几阶什么矩” 数学期望EX是X的一阶原点矩 方差DX是X的二阶中心矩 协方差Cov(X,Y) 是X与Y的混合二阶中心矩.
卡方分布的数学期望和方差 概率论 :: 统计分布 这个期望和方差的关系有点像指数分布,不过指数从期望到方差是平方的关系,而卡方分布是两倍的关系。指数分布是1/λ这样的倒数关系,而卡方分布是直接的n和2n的模样。
卡方分布的可加性是怎样的 概率论 :: 统计分布 将n1和n2直接相加
两矩阵相等说明什么 1、两矩阵为同型矩阵,行数和列数相等 2、两矩阵对应元素相等
矩阵的数乘与行列式的数乘的区别 矩阵的数乘是那个数乘上该矩阵的所有元素, 行列式的数乘是那个数乘上该行列式的某行或某列。
矩阵数乘的四条性质(交换律,结合律,分配律,数和矩阵相乘的结合律)
矩阵乘矩阵的乘法运算是怎样的 左边的行依次去乘以右边的列
矩阵间的乘法满足的三条性质
向量内积的概念 想办法相乘,最后成为一个数
什么时候向量α,β为正交向量
标准正交向量组的概念 自乘为1,和别人相乘为0.
施密特标准正交化 同义词 正交规范化 同义词
施密特标准正交化的过程
矩阵的幂的概念
|AB|=|A||B|{{c1::}} 矩阵运算 对 错
零矩阵的概念 矩阵中所有元素均为0的矩阵
单位矩阵的概念 主对角线均为1,其余元素均为0的n阶方阵
E 表示什么 单位矩阵 怎么表示 矩阵
单位矩阵一定是方阵{{c1::}} 对 错
对称矩阵的概念 满足AT=A的矩阵
反对称矩阵的概念 满足AT=-A的矩阵
正交矩阵的概念文章来源:https://uudwc.com/A/Mxr4n
逆矩阵的定义
矩阵可逆的充要条件是什么 A可逆 <=> |A|≠0 <=> A满秩
矩阵公式逻辑 把矩阵运算分为了哪几类 伴随* 逆-1 转置T
三大运算的“递归”(进行两次对这种运算) 矩阵公式逻辑 三大运算进行“递归”之后结果仍然是矩阵,而不是数字。
三大运算::裂项(AB)某运算 矩阵公式逻辑
三大运算::叠加(三大运算两两叠加) 矩阵公式逻辑 三大运算交叉都可以交换运算顺序。
|A某运算| 矩阵公式逻辑
(k·A)某运算 矩阵公式逻辑
三大运算中哪种运算具有可交换性 A某运算A=AA某运算 矩阵公式逻辑
伴随矩阵的定义 这个是进行了对角的变换
AA*等于什么 |A|E
矩阵的初等变换有哪几种
等价矩阵的定义 矩阵行数、列数相等,秩相等 矩阵等价 不等于 矩阵相等
等价标准型的概念 线代
矩阵的秩的概念
积分公式
积分公式
积分公式
积分公式
积分公式
积分公式
积分公式
积分公式
积分数据结构(tan cot sec csc的积分)
积分数据结构::及其扩展 注意两个变换后的a都是带平方的。
积分数据结构 复制粘贴公式
积分数据结构 清真公式
积分数据结构 离经叛道公式
积分公式
积分公式
积分公式
积分公式
积分公式
积分公式
三种常规三角函数代换 积分
分部积分法
表格推广公式,上多倒,下e积
区间简化公式(依据区间对称性化为三角函数)
性质:求区间长度 定积分的性质
积分的线性性质 定积分的性质
积分的可加/拆性 定积分的性质
积分的保号性 定积分的性质
估值定理 定积分的性质
中值定理 定积分的性质
逆矩阵与伴随矩阵的重要关系
矩阵运算
矩阵运算
副对角线分块矩阵的逆 9讲题目出现,例3.10
主对角线分块矩阵的逆
区间变换公式的两种思想,上半部分的两个公式
区间变换的两种思想,具体于原点对称区间
定积分公式架构,区间变换公式的两种思想,下面的四个公式
{{c1::}} 相等 不等
等于什么
左行右列定理
初等矩阵有哪几种
Eij是什么意思 E的第i行或列和第j行或列相交换
Ei(k)是什么意思 E的第i行或列乘上k倍。
Eij(k)是什么意思 第j行乘上k倍加到第i行
三个初等矩阵的行列式的值为多少
三个初等矩阵的转置等于什么
三个初等矩阵的逆等于什么
三个初等矩阵的伴随矩阵等于什么
关于矩阵的秩的13条定理
一元函数可微判别
二元函数可微判别
偏导数定义
二重积分定义
微分方程架构
极坐标下的面积公式
曲线弧长(直角坐标,参数方程,极坐标)
旋转曲面侧面积
形心公式(x和y)
旋转体体积(绕y轴)
简述齐次线性方程组转换为矩阵方程的过程
的解,是否能说明 为该齐次线性方程组的解{{c1::}} 能 不能
矩阵方程的解向量的性质(两条) ②
基础解系充要条件(两条)
齐次线性方程组有非零解的充要条件是什么 r(A) < n 对应矩阵秩不满,可逆 当对应矩阵满秩时,线性方程组只有零解,此时当且仅当全部x1,x2…为0时,才成立。
齐次线性方程组 有非零解 时的通解.
什么是齐次线性方程组 长这样右边全是0的方程
什么是非齐次线性方程组 长这样,右边不全为0的方程组
什么时候 非齐次线性方程组 有唯一解 满秩时有唯一解,不满秩时有无穷多解。
克拉默法则是关于什么的 非齐次线性方程组的解的问题
非齐次线性方程组的解的结构是怎样的
线性方程组中四种等价说法 等价矩阵:行和列相等,秩相等 向量组等价:列相等,秩相等
非齐次线性方程有解的充要条件是什么
解向量的性质
非齐次线性方程组解的结构是怎样的
n维向量的定义
线性组合的定义
线性表出的定义
线性相关的定义
线性无关的定义
判别线性相关性的7大定理
基的概念 向量空间
坐标的概念 向量空间
维数的概念 向量空间
过渡矩阵的概念 向量空间
坐标变换的概念 向量空间
特征值与特征向量的定义
|A|和tr(A)的值为多少。
和能推出什么
特征值重要表格
关于特征向量的四个重要结论
相似对角化的含义
说明Λ是A的什么 相似标准型
矩阵A可以进行相似对角化的充要条件是什么 两条:
矩阵A可以相似对角化的充分条件有哪些
矩阵A可以进行相似对角化的必要条件是什么
矩阵A可以相似对角化的否定条件是什么 (什么命题可以推出矩阵A无法进行相似对角化)
A相似于B能推出的四个结论(四个性质)
矩阵相似的符号是怎样的 ~
A~B能推出的一些结论
实对称矩阵的性质
正交矩阵的性质
惯性定理 二次型
二次型长什么样子
二次型的矩阵表示方式
从y1,y2,y3…到x1,x2,x3的线性变换的表示法是下述中的哪一个{{c1::}} x=Cy x=yC Cx=y xC=y
可逆线性变换是什么 二次型 若线性变换的系数矩阵C可逆,即|C|≠0,则称为可逆线性变换
正交变换是什么 二次型 若线性变换的系数矩阵C为正交矩阵,则称为正交变换
标准形二次型长什么样
规范形二次型长什么样
惯性定理:p为{{c1::正}}惯性指数,q为{{c2::负}}惯性指数 二次型
正交变换的基本步骤
正定二次型 和 正定矩阵 的概念
二次型正定的充要条件文章来源地址https://uudwc.com/A/Mxr4n