如何确定孤立奇点(isolated singularities)的类型?

复变函数中,孤立奇点的类型分为三种:可去奇点,极点和本性奇点。极点又可以分为简单极点和 \(m\) 阶极点。它们是根据函数的罗朗级数(Laurent Series)来定义的。我们设 \(a\) 为函数 \(f(z)\) 的奇点。

  • 可去奇点(removable sigularity):函数在 \(a\) 处的罗朗级数展开式没有负指数项,则 \(a\) 为函数的可去奇点;
  • 简单极点(simple pole):函数在\(a\) 处的罗朗级数展开式只有一项负指数项 \(c_{-1}(z-a)^{-1}\),则 \(a\) 为函数的简单极点;
  • \(m\) 阶极点(pole of order \(m\)):函数在 \(a\) 处的罗朗级数展开式只有有限项负指数项,且\(a_{-m}\ne 0\) 而且对所有 \(n>m\),\(a_{-n}=0 \), 则 \(a\) 为函数的可去奇点;
  • 本性奇点(essential sigularity):函数在 \(a\) 处的罗朗级数展开式有无限项负指数项,则则 \(a\) 为函数的本性奇点。

事实上,如果每次需要用罗朗级数来确定奇点的类型,还是不很方便的。首先我们有一些非常简便的方式,就是用极限来判定是可去奇点、极点还是本性奇点。

  • 如果 \(\lim_{z\to a}f(z)=L\)为有限,那么 \(a\) 是函数的可去奇点;
  • 如果 \(\lim_{z\to a}f(z)=\infty\),则 \(a\) 是函数的极点;
  • 如果 \(\lim_{z\to a}f(z)\)既不是有限,也不是无穷大;也就是极限不存在,则\(a\) 是函数的本性奇点。

另外,对于极点,我们还有以下几种判定方法:

用极限来判定:

  • 如果 \(\lim_{z\to a}(z-a)f(z)=L(\ne \infty)\),那么 \(a\) 是函数的简单极点;
  • 如果 \(\lim_{z\to a}(z-a)^mf(z)=L(\ne \infty)\),那么 \(a\) 是函数的 \(m\) 阶极点;

用函数的表达式来判定:

  • 如果 \(f(z)=\frac{g(z)}{z-a}\) 而 \(g(z)\) 在 \(a\) 处解析,则 \(a\) 是函数的简单极点;
  • 如果 \(f(z)=\frac{g(z)}{(z-a)^m}\),而 \(g(z)\) 在 \(a\) 处解析,则 \(a\) 是函数的 \(m\) 阶极点;

用零点的类型来判定:

  • 如果\(f(z)=\frac{1}{g(z)\),而 \(a\) 是\(g(z)\) 的单根,则则 \(a\) 是函数 \(f(z)\)的简单极点;
  • 如果\(f(z)=\frac{1}{g(z)\),而 \(a\) 是\(g(z)\) 的 \(m\) 重根,则则 \(a\) 是函数 \(f(z)\)的 \(m\) 阶极点;

我们用几个例子来说明如何利用上面所说的一些方法来判定奇点的类型。

例1:\(f(z)=\frac{z}{e^z-1}\),\(0\) 为函数的可去奇点,因为

\[\lim_{z\to 0}\frac{z}{e^z-1}=1.\]

(回顾一下 \(\lim_{x\to0}\frac{e^x-1}{x}=1\) 或者 l’Hospital 法则)。

 

例2: \(f(z)=\frac{1}{e^z-1}\),\(0\) 为函数的简单极点,因为

\[\lim_{z\to 0}zf(z)=\lim_{z\to 0}\frac{z}{e^z-1}=1\]

 

例3:函数 \(f(z)=\frac{5z+1}{(z-1)(2z+1)^2}\) 以 \(z=1\) 为简单极点,以\(-\frac{1}{2}\) 为二阶极点。

 

有时候,结合罗朗级数和上面几种判定方式,会更快捷有效。我们来看一个这样的例子。

例4:判定函数 \(f(z)=\frac{1}{z(e^z-1)}\) 的奇点类型。

解:我们知道 \(z=0\) 是函数的奇点。我们将 \(e^z\) 展开后得到

\[e^z=1+z+\frac{z^2}{2!}+\cdots,\qquad |z|<\infty\]

所以

\[z(e^z-1)=z(z+\frac{z^2}{2!}+\cdots)=z^2(1+\frac{z}{2!}+\frac{z^2}{3!}+\cdots).\]

由于 \(\frac{1}{f(z)}=z(e^z-1)=z(z+\frac{z^2}{2!}+\cdots)=z^2(1+\frac{z}{2!}+\frac{z^2}{3!}+\cdots)\),可知 \(0\) 是 \(\frac{1}{f(z)}\) 二重根,所以 \(0\) 是 \(f(z)\) 的二阶极点。

如何计算参数方程的二阶及高阶导数?

在高等数学教材里,推导出了参数方程的二阶导数公式

\[\frac{d^2y}{dx^2}=\frac{\psi”(t)\phi'(t)-\psi’t(t)\phi”(t)}{\phi’^3(t)}.\]

其中曲线的参数方程为 \(x=\phi(t), y=\psi(t)\)。但是,实际上,这个公式既不好记,又不好用。其实,参数方程确定的函数的二阶导数及高阶导数有更好的更有效的求法。我们来说明这种方法。

因为参数方程的一阶导数为

\[\frac{dy}{dx}=\frac{\psi'(t)}{\phi'(t)},\]

所以我们看得出,一阶导数 \(\frac{dy}{dx}\)还是关于 \(t\) 的函数,我们直接关于 \(x\) 再求导是不方便的,但是我们可以利用复合函数的求导法则,将关于 \(x\) 的导数转化成关于 \(t\)  的导数。由复合函数的求导法则

\[\begin{align}\frac{d^2y}{dx^2}&=\frac{d}{dx}(\frac{dy}{dx})=\frac{d}{dt}(\frac{dy}{dx})\frac{dt}{dx}\\
&=\frac{d}{dt}(\frac{dy}{dx})\frac{1}{\frac{dt}{dx}}=\frac{d}{dt}(\frac{dy}{dx})\frac{1}{\phi'(t)}
\end{align}\]

这上面一大堆的东西可能你会看得眼花缭乱。那么我们用一种简单的方式来说吧。因为 \(\frac{dy}{dx}\)是关于 \(t\) 的函数,我们假设 \(F(t)=\frac{dy}{dx}\),那么二阶导数\(\frac{d^2y}{dx^2}=\frac{d}{dx}F(t)\),把 \(t\) 看成中间函数,那么 \(F(t)\) 关于\(x\) 的导数就是 \(\frac{d}{dx}F(t)=F'(t)\frac{dt}{dx}\),而 \(\frac{dt}{dx}=\frac{1}{\frac{dt}{dx}}=\frac{1}{\phi'(t)}\),从而 \(\frac{d}{dx}F(t)=F'(t)\frac{dt}{dx}=F'(t)\cdot \frac{1}{\phi'(t)}\)。

二阶以上的导数可以用相同的方法来求。我们用一个例子来说明这种方法。

例1, 求由参数方程
\[\begin{cases}
x=a\cos t\\
y=b\sin t
\end{cases}\]所确定的函数的二阶导数\(\frac{d^2y}{dx^2}\)。

解:我们先计算一阶导数
\[\frac{dy}{dx}=\frac{\psi'(t)}{\phi'(t)}=\frac{b\cos t}{-a\sin t}=-\frac{b}{a}\cot t.\]
所以,二阶导数为
\[\frac{d^2y}{dx^2}=\frac{d}{dx}(\frac{dy}{dx})=\frac{d}{dt}(\frac{dy}{dx})\frac{1}{\phi'(t)}=-\frac{b}{a}(-\csc^2t)\frac{1}{-a\sin t}=-\frac{b}{a^2}\csc^3t\]

线性代数复习(十二):最小二乘解 Least Square Solution

所谓的最小二乘解,是当方程组 \(A\vec{x}=\vec{b}\)没有解的时候,我们找出最接近它的解。也就是说,找出一个 \(\vec{y}\),使得 \(||A\vec{y}-\vec{b}||\) 的值最小。一个定理告诉我们,这样的解满足
\[A^TA\vec{x}=A^T\vec{b}\]
那么,在计算中,我们先计算 \(A^TA\) 和 \(A^T\vec{b}\),将\(A^TA\) 和 \(A^T\vec{b}\)都看成一个整体,然后运用求解线性方程组的方法来求解。所得到的解就是最小二乘解。

如果 \(A^TA\) 可逆,我们还可以直接得到解
\[\hat{\vec{x}}=(A^TA)^{-1}A^T\vec{b}.\]

线性代数复习(十一):施密特正交化方法 Gram-Schmidt processing

施密特正交化方法,就是将一组线性无关的向量组,变成一组正交的向量组的方法。通过这个方法,可以将一个线性空间的基,变成一组正交基(orthogonal basis),甚至标准正交基(或规范正交基,orthonormal basis )。这一方法的理论基础就是投影定理。它的方法如下:

设 \((\vec{v_1},\vec{v_2},\cdots, \vec{v_p})\) 是一组线性无关的向量组,我们令
\begin{align}
\vec{b}_1&=\vec{v}_1\\
\vec{b}_2&=\vec{v}_2-\frac{\vec{v}_2\cdot \vec{b}_1}{||\vec{b}_1||^2}\vec{b}_1\\
\vec{b}_3&=\vec{v}_3-\frac{\vec{v}_3\cdot \vec{b}_2}{||\vec{b}_2||^2}\vec{b}_2-\frac{\vec{v}_3\cdot \vec{b}_1}{||\vec{b}_1||^2}\vec{b}_1\\
\cdots &\\
\vec{b}_p&=\vec{v}_p-\sum_{i=1}^{p-1}\frac{\vec{v}_p\cdot \vec{b}_i}{||\vec{b}_i||^2}\vec{b}_i
\end{align}

那么, \((\vec{b}_1,\vec{b}_2,\cdots, \vec{b}_p)\) 是一组正交向量组。进一步,令
\[\vec{e}_1=\frac{\vec{b}_1}{||\vec{b}_1||}, \vec{e}_2=\frac{\vec{b}_2}{||\vec{b}_2||},\cdots, \vec{e}_p=\frac{\vec{b}_p}{||\vec{b}_p||}\]
则\((\vec{e}_1,\vec{b}_2,\cdots, \vec{b}_p)\) 是一组f规范正交向量组或标准正交组。

线性代数复习(十):内积、正交性、投影定理 inner product, orthogonality and projection theorem

两个向量的内积(inner product),定义为
\[\vec{x}\cdot\vec{y}=x_1y_1+x_2y_2+\cdots +x_ny_n\]
其中 \(\vec{x}=(x_1,x_2,\cdots, x_n)^T, \vec{y}=(y_1,y_2,\cdots, y_n)^T\)。 利用矩阵的乘法定义,我们可以把内积写成
\[\vec{x}\cdot\vec{y}=\vec{x}^T\vec{y}\]
我们说两个向量是正交的(orthogonal),是指两个向量的内积为 \(0\),也就是说,当 \(\vec{x}\cdot\vec{y}=0\) 时,我们说 \(\vec{x}\) 和 \(\vec{y}\) 是正交的。

投影定理:如果 \(\mathcal{W}\) 是 \(\mathbb{R}^n\) 的子空间,它的一个正交基 (orthogonal basis) 是 \(\vec{u}_1,\vec{u}_2,\cdots, \vec{u}_p\),那么对于任意的 \(\vec{y}\in \mathbb{R}^n\),
\[\vec{y}=\hat{\vec y}+z\]
其中 \(\hat{\vec y}\in \mathcal{W}, z\in\mathcal{W}^{\bot}\)。并且
\[\hat{\vec y}=\frac{\vec{y}\cdot\vec{u}_1}{||\vec{u}_1||^2}\vec{u}_1+\frac{\vec{y}\cdot\vec{u}_2}{||\vec{u}_2||^2}\vec{u}_2+\cdots +\frac{\vec{y}\cdot\vec{u}_p}{||\vec{u}_p||^2}\vec{u}_p.\]

我们这里给出了求投影的例子。

线性代数复习(九):离散动力系统 Dynamical System

离散动力系统,是指由方程 \(\vec{x}_{k+1}=A\vec{x}_k\) 所定义的线性系统。如果我们得到了 \(A\) 的特征值与特征向量,这种系统的一些长期性态也就显示出来了。因为,如果 \(\vec{v}_1,\vec{v}_2,\cdots ,\vec{v}_n\)是 \(A\) 的特征向量,而 \(\vec{x}_0=a_1\vec{v}_1+a_2\vec{v}_2+\cdots a_n\vec{v}_n\), 那么

\[\begin{align}
\vec{x}_{k+1}&=A\vec{x}_{k}=A^2\vec{x}_{k-1}=\cdots=A^{k+1}\vec{x}_0\\
&=A(a_1\vec{v}_1+a_2\vec{v}_2+\cdots a_n\vec{v}_n)\\
&=a_1\lambda_1^{k+1}\vec{v}_1+a_2\lambda_2^{k+1}\vec{v}_2+\cdots a_n\lambda_n^{k+1}\vec{v}_n
\end{align}\]
所以,\(x_k\) 的变化趋势也就明白了。如果某个特征值的绝对值小于 \(1\),那么它所对应的项就趋于 \(0\)。我们这里以二维的情形给出相应的例子。

线性代数复习(八):特征值,特征向量与矩阵对角化 eigenvalue, eigenvector and diagonalization

矩阵的特征值和特征向量的定义是,如果有一个数 \(\lambda\) 和一个向量 \(\vec{x}\),满足 \(A\vec{x}=\lambda \vec{x}\), 我们就说 \(\lambda\) 是矩阵 \(A\) 的一个特征值(eigenvalue),而 \(\vec{x}\) 称为 \(A\) 的对应于 \(\lambda\) 的特征向量(eigenvector)。

特征值的计算,是通过解方程 \(|A-\lambda I|=0\) 得到。\(|A-\lambda I|\) 称做特征多项式(characteristic polynomial),而\(|A-\lambda I|=0\) 称做特征方程(characteristic equation)。我们计算特征多项式的时候,行列式的一些计算技巧可以用得上。

计算特征向量的方法就是解方程组 \((A-\lambda I)\vec{x}=0\),将求得的特征值代入这个式子,然后用求解方程组的方法求解。注意,每个特征值都要计算它的特征向量。

矩阵的对角化问题,实际上还是特征值与特征向量的问题。矩阵可以对角化是指存在一个可逆矩阵 \(P\) 和一个对角矩阵,使得 \(P^{-1}AP=D\)。矩阵 \(A\) 可对角化的条件是它有 \(n\) 个线性无关的特征向量。只要特征向量求出来了,\(P\) 和 \(D\) 就求出来了。\(P=(\vec{v}_1, \vec{v}_2,\cdots,\vec{v}_n)\),其中 \(\vec{v}_1, \vec{v}_2,\cdots,\vec{v}_n)\) 都是特征向量; 而 \(D=\text{diag}(\lambda _1, \lambda _2,\cdots,\lambda _n)\),也就是主对角线上的元素都是特征向量所对应的特征值(顺序跟特征向量的顺序一样,别弄错了!)

线性代数复习(七):行列式 determinant

我们首先讲述了行列式的定义。我们采取的方法是用递归展开的方式定义行列式。这种方式具有计算上的方便性。另外,要注意的是,行列式的结果是一个数,而矩阵是一张数表。

行列式的一些性质能够简化行列式的计算。最重要的性质包括:

  • 行列式可以按行,也可以按列展开
  • 交换行列式的两行或者两列,行列式变号
  • 行列式里,一行或者一列的公因数可以提到行列式外面
  • 将某一行或者某一列乘以一个数加到另一行去,行列式不变

这些性质,有些跟矩阵差不多,有些很不一样。例如,矩阵可以对一行乘以一个数,但是行列式将一行乘以一个数,则必须在行列式外面除以相同的数。另外,矩阵交换两行,矩阵是等价的,但是行列式交换两行,行列式要变号。

行列式的计算,最主要的方法是降阶法。这对于一些具体的行列式的计算很有效。降阶法的方法是:用初等变换将其中一行或者其中一列化成除一个元素外全是 \(0\),然后按该行或列展开,从而降低了行列式的阶。重复这个过程,最后将行列式化成只有二阶的行列式,就可以直接计算了。

线性代数复习(六):子空间,零空间及列空间 subspace, null space and column space

这里的子空间特指的是  \(\mathbb{R}^n\) 中的线性子空间。\(\mathbb{R}^n\) 本身是一个向量空间,它的一个子集 \(\mathcal{U}\) 成为一个子空间,如果  \(\mathcal{U}\)  满足两个条件:

  • 如果 \(\vec{u},\vec{v}\in \mathcal{U}\) ,那么 \(\vec{u}+\vec{v}\in \mathcal{U}\);
  • 如果  \(\vec{u}\in \mathcal{U}\) ,那么 \(\lambda\vec{u}\in \mathcal{U}\) for all \(\lambda\in \mathbb{R}\)

要证明一个向量集是线性子空间,只需要逐一验证这两个条件即可。如果两个条件都满足,则它是线性子空间。如果有一个条件不满足,则它不是线性子空间。

\(\mathbb{R}^n\) 中有两个特殊的线性子空间,这就是矩阵 \(A\) 的零空间或解空间(Null space, \(\text{Null} A\)),它的定义是所有满足 \(A\vec{x}=0\) 的向量,它们组成一个线性子空间;另外一个是矩阵 \(A\) 的列空间,它定义为 \(\text{col}A=\text{span}\{\vec{v}_1,\vec{v}_2,\cdots, \vec{v}_n\}\),其中 \( \vec{v}_i, 1\leq i \leq n\) 是矩阵的列向量。

我们这里给出了求零空间和列空间的快速有效的方法。

线性代数复习(五):逆矩阵 inverse matrix

逆矩阵的定义是:如果两个矩阵 \(AB=I_n\) ,其中 \(I_n\) 是 \(n\) 阶单位矩阵,就是主对角线上的元素都是 \(1\), 其它所有的元素都是 \(0\) 的方阵(square matrix)。那么 \(B=A^{-1}\) 或者 \(A=B^{-1}\)。注意,逆矩阵的定义只对方阵有意义。

求逆矩阵的方法,比较有效的是初等行变换的方法。将矩阵 \(A\) 与单位矩阵 \(I\) 放在一起组成一个新的矩阵 \((A\vdots I)\), 将此矩阵做初等行变换,如果 \(A\) 变成了单位矩阵,那么单位矩阵就变成了 \(A\) 的逆矩阵。也就是说,\((A\ \vdots \ I)\sim (I \ \vdots\  A^{-1})\)。

我们还给出了判断矩阵是否可逆的等价条件。常用的条件有

  • \(A\vec {x}=0\) 只有零解;
  • \(\text{Rank} A=n\);
  • \(\text{det} A\ne 0\) 或者 \(|A|\ne 0\).