以數學方法來研究自然或社會現象的第一步就是以數學式子表達各個相關變量間的關係,也就是建立欲探討現象之數學模式。因在此模式中的式子大多是非線性的,研究起來較為困難,故我們常採用的步驟是將其簡化成線性式子,以求得其解,作為後續探討的初步根據。「線性代數」所扮演的角色就是求線性方程組的解答並研究其相關的性質。
在西方文獻中,「線性代數」最早的結果係1750年Cramer所導出的以行列式的公式來表達線性方程組的解。經過持續的發展,一直到十九世紀末、二十世紀初才漸漸成熟而形成一門獨立的學科。因而「線性代數」的源起以及其研究的中心課題就是求一組線性方程式的解。上述Cramer公式固然可以給我們一個精準的解答,但是在實際計算上耗時費事,故最常用的還是古典的高斯消去法(Gaussian elimination),方法也可以用來解答許多其他的相關問題。
在考慮線性方程組解的存在及唯一性時,很自然地就會產生特徵值(eigenvalue)的概念,因而也就生出很多相關的所謂「譜理論」(spectral theory)。在號表達上,線性方程組可以用矩陣(matrix)和向量(vector)表示,因而以上的討論都可以以這樣的語言來進行。如果從較抽象的觀點來探討,則矩陣又可以表示向量空間(vector space)之間的線性變換(linear transformation),因而和代數學的討論拉上關係。從實際計算的觀點,則所有大型矩陣的運算都要藉助計算機來執行。近二十年來,由於計算機快速發展,許多複雜的問題藉由計算機的高速運算能力而以解決,也因此計算機數學或稱為科學計算成為大家所重視的一個學門,而所謂的「數值線性代數」(numerical linear algebra)乃是這個學們的核心。而「數值線性代數」和「矩陣分析」((matrix analysis)等名稱日趨流行,也反映出線性代數此一學科未來發展的趨勢。
在應用方面,從許多純數學的領域到工程與其他應用科學領域都會用到線性代數。例如:幾何學家研究n維線性空間裡的所有k維子空間及所有的正校矩陣所組成之空間,並瞭解兩者間之關係。其次,許多物理或工程(例如半導体工業)系統是以微分方程式來描述,若要分析一微分方程系統之穩定性,通常是利用該系統之特徵值與特徵向量。再者,若說求線性系統(System of Linear Equations)的問題是所有科學、工程和應用領域所有面臨的問題,那將是一點也不誇張。
舉例來說,以數值方法求解微分方程式通常是利用有限差分法(finite-difference method)或有限元素法 (finite element method)將連續函數離散化,最後產生一組線性系統,而此一線性系統的解將是原微分方程的近似解。此外,在訊號處理或影像處理方面則經常面臨最小平方問題(Least Squares Problem)以及奇異值分解問題(Singular Value Decomposition Problem);而在網際網路蓬勃發展的今日,網路搜尋器((web search engine)的搜尋演算法,也能利用奇異值的分解來計算。不論是上述那一類的問題,在求解的過程中,經常面臨rank, determinant, null space, orthogonal basis等等線性代數中最基本最重要的觀念。
線性代數這門課的主要目標是瞭解矩陣相關概念與矩陣計算、解線性方程組之基本方法、歐氏空間(Euclidean Spaces)與其他更廣泛的向量空間(如函數空間)及子空間之觀念、線性變換及其矩陣表現、矩陣與線性變換之特徵值、特徵向量的相關概念與計算、具特殊性質與應用性之矩陣等。
線性代數在大學各理、工、管理科系皆為必修科目。它的預備知識僅是高中數學。它與本系其他課程如高等微積分、數值分析、微分方程等課程皆有密切之關連。
- Matrices and Linear System
Matrices and their algebra, solving systems of linear equations, inverse of square matrices, homogeneous linear systems, computation of inverse matrix, Gaussian elimination, existence and uniqueness of solutions, reduced row ech-elon form, row rank and column rank, nullity -
Vector Spaces
Euclidean spaces, general vector spaces, linear subspaces, independence, span, basis and dimension, coordinatization of vectors -
Linear Transformation
Invariant subspace, kernel, range, rank-nullity theorem, matrix representation and change of basis, similarity -
Determinant
Areas, volumes, cross product, properties of determinant, computation of determinant, Cramer's rule -
Eigenvalues and Eigenvectors
Characteristic polynomials, algebraic and geometric multiplicities, eigenspaces, diagonalizations and triangularization, invariant subspaces -
Inner Product Space
Inner product, norm, adjoint of a matrix, bilinear forms* -
Orthogonality and Projections
Orthogonal matrices, Gram-Schmidt process, mutually perpendicular vectors and subspaces, orthogonal projection. -
Quadratic Forms
Diagonalization of quadratic forms, positive and negative definite quadratic forms, applications to extrema -
Special Matrices
Tridiagonal, symmetric, projection, unitary, Hermitian, normal, nilpotent matrices and their properties -
Complex Scalars and Vector Spaces
Matrices and vector spaces over complex scalars, complex Euclidean inner product, complex subspaces*, Jordan canonical forms*, minimal polynomial* -
Applications*
Markov chain, Fibonacci sequence, solving system of ODE, method of least squares, etc. -
Additional topics as time permits
Direct sum, direct sum decomposition of vector spaces, direct sum decomposition of linear operators, dual spaces
- Linear Algebra, by J. B. Fraleigh and R. A. Beaurgard
-
Linear Algebra, by S. H. Friedberg, A. J. Insel, and L. E. Spence
-
Linear Algebra, by K. Hoffman and R. Kunze
-
Linear Algebra and its Applications, by G. Strang
-
Differential Equations, Dynamical Systems, and Linear Algebra, by M. Hirsch and S. Smale
|