Kaidah Cramer: Perbedaan antara revisi

Konten dihapus Konten ditambahkan
k Bot: Perubahan kosmetika
123569yuuift (bicara | kontrib)
Tidak ada ringkasan suntingan
Tag: Suntingan perangkat seluler Suntingan peramban seluler Suntingan seluler lanjutan
Baris 2:
 
Kaidah Cramer tidak efisien untuk sistem dengan lebih dari dua atau tiga persamaan.<ref name="Poole2014">{{cite book|author=David Poole|title=Linear Algebra: A Modern Introduction|year=2014|publisher=Cengage Learning|isbn=978-1-285-98283-0|page=276}}</ref> Kaidah Cramer juga tidak stabil secara numerik, termasuk untuk sistem 2×2.<ref name="Higham2002">{{cite book|author=Nicholas J. Higham|title=Accuracy and Stability of Numerical Algorithms: Second Edition|year=2002|publisher=SIAM|isbn=978-0-89871-521-7|page=13}}</ref>
 
== Kasus umum ==
Pertimbangkan sistem persamaan linear {{mvar|n}} untuk {{mvar|n}} yang tidak diketahui, direpresentasikan dalam bentuk perkalian matriks sebagai berikut:
 
:<math> Ax = b</math>
 
Dimana {{math|''n'' × ''n''}} adalah matriks {{mvar | A}} memiliki determinan bukan nol, dan vektor <math> x = (x_1, \ldots, x_n)^\mathsf{T} </math> adalah vektor kolom dari variabel. Kemudian teorema menyatakan bahwa dalam hal ini sistem memiliki solusi unik, yang nilai individualnya untuk hal-hal yang tidak diketahui diberikan oleh:
 
:<math> x_i = \frac{\det(A_i)}{\det(A)} \qquad i = 1, \ldots, n</math>
 
dimana <math> A_i </math> adalah matriks yang dibentuk dengan mengganti kolom ke-{{mvar | i}} dari {{mvar | A}} dengan vektor kolom {{mvar|b}}.
 
Versi yang lebih umum dari kaidah Cramer<ref>{{cite journal |author1=Zhiming Gong |author2=M. Aldeen |author3=L. Elsner |title=A note on a generalized Cramer’s rule |journal=Linear Algebra and its Applications |volume=340 |year=2002 |pages=253–254 |doi=10.1016/S0024-3795(01)00469-4|doi-access=free }}</ref> mempertimbangkan persamaan matriks
 
:<math> AX = B</math>
 
Dimana {{math|''n'' × ''n''}} adalah matriks {{mvar|A}} memiliki determinan bukan nol, dan {{mvar | X}}, {{mvar | B}} adalah matriks {{math | '' n '' × '' m ''}}. Urutan tertentu <math> 1 \leq i_1 < i_2 < \ldots < i_k \leq n </math> and <math> 1 \leq j_1 < j_2 < \ldots < j_k \leq m </math>, karena <math> X_{I,J} </math> menjadi submatriks {{matematika | '' k '' × '' k ''}} dari {{mvar|X}} dengan baris di <math> I := (i_1, \ldots, i_k ) </math> dan kolom masuk <math> J := (j_1, \ldots, j_k ) </math>. Maka <math> A_{B}(I,J) </math> jadilah matriks {{math | '' n '' × '' n ''}} yang dibentuk dengan mengganti <math>i_s</math> kolom {{mvar | A}} oleh <math>j_s</math> kolom {{Mvar | B}}, untuk semua <math> s = 1,\ldots, k </math>. Kemudian
 
:<math> \det X_{I,J} = \frac{\det(A_{B}(I,J))}{\det(A)}. </math>
 
Dalam kasus <math> k = 1 </math>, ini dikurangi menjadi kaidah Cramer normal.
 
Kaidah tersebut berlaku untuk sistem persamaan dengan koefisien dan tidak diketahui di [[medan (matematika) | bidang]], tidak hanya di [[bilangan riil]].
 
== Menemukan matriks invers ==
{{main article|Matriks yang dapat dibalik#Metode inversi matriks}}
Maka {{mvar|A}} jadikan matriks {{math | '' n '' × '' n ''}}. Kemudian
 
:<math>A\,\operatorname{adj}A = (\operatorname{adj}A)\,A=\operatorname{det}(A) I</math>
 
dimana adj(''A'') menunjukkan [[matriks adjugat]] dari {{mvar | A}}, {{math | det('' A '')}} adalah determinannya, dan '' I '' adalah [[matriks identitas]]. Jika det('' A '') dapat dibalik dalam '' R '', maka matriks inversi dari {{mvar | A}} adalah
 
:<math>A^{-1} = \frac{1}{\operatorname{det}(A)} \operatorname{adj}(A).</math>
 
Jika '' R '' adalah [[medan (matematika) | bidang]] (seperti bidang bilangan real), maka ini memberikan rumus untuk kebalikan dari {{mvar | A}}, disediakan {{math | det('' A '') ≠ 0}}. Faktanya, rumus ini akan bekerja setiap kali '' R '' adalah [[gelanggang komutatif]], asalkan det('' A '') adalah [[Satuan (teori gelanggang) | satuan]]. Jika det('' A '') bukan satuan, maka {{mvar | A}} tidak dapat dibalik.
 
== Rumus eksplisit untuk sistem kecil ==
Pertimbangkan sistem linier
 
:<math>\left\{\begin{matrix}a_1x+b_1y&={\color{red}c_1}\\ a_2x + b_2y&= {\color{red}c_2}\end{matrix}\right.</math>
 
yang dalam format matriks adalah
 
:<math>\begin{bmatrix} a_1 & b_1 \\ a_2 & b_2 \end{bmatrix}\begin{bmatrix} x \\ y \end{bmatrix}=\begin{bmatrix} {\color{red}c_1} \\ {\color{red}c_2} \end{bmatrix}.</math>
 
Menganggap {{math|''a''<sub>1</sub>''b''<sub>2</sub> − ''b''<sub>1</sub>''a''<sub>2</sub>}} bukan nol. Kemudian, dengan bantuan [[determinan]], {{mvar | x}} dan {{mvar | y}} dapat ditemukan dengan kaidah Cramer sebagai
 
:<math>\begin{align}
x &= \frac{\begin{vmatrix} {\color{red}{c_1}} & b_1 \\ {\color{red}{c_2}} & b_2 \end{vmatrix}}{\begin{vmatrix} a_1 & b_1 \\ a_2 & b_2 \end{vmatrix}} = { {\color{red}c_1}b_2 - b_1{\color{red}c_2} \over a_1b_2 - b_1a_2}, \quad y = \frac{\begin{vmatrix} a_1 & {\color{red}{c_1}} \\ a_2 & {\color{red}{c_2}} \end{vmatrix}}{\begin{vmatrix} a_1 & b_1 \\ a_2 & b_2 \end{vmatrix}} = { a_1{\color{red}c_2} - {\color{red}c_1}a_2 \over a_1b_2 - b_1a_2}
\end{align}.</math>
 
Aturan untuk matriks {{math | 3 × 3}} serupa. Diberikan
 
:<math>\left\{\begin{matrix}a_1x + b_1y + c_1z&= {\color{red}d_1}\\a_2x + b_2y + c_2z&= {\color{red}d_2}\\a_3x + b_3y + c_3z&= {\color{red}d_3}\end{matrix}\right.</math>
 
yang dalam format matriks adalah
 
<math>\begin{bmatrix} a_1 & b_1 & c_1 \\ a_2 & b_2 & c_2 \\ a_3 & b_3 & c_3 \end{bmatrix}\begin{bmatrix} x \\ y \\ z \end{bmatrix}=\begin{bmatrix} {\color{red}d_1} \\ {\color{red}d_2} \\ {\color{red}d_3} \end{bmatrix}.</math>
 
Kemudian nilai dari {{mvar | x, y}} dan {{mvar | z}} dapat ditemukan sebagai berikut:
 
:<math>x = \frac{\begin{vmatrix} {\color{red}d_1} & b_1 & c_1 \\ {\color{red}d_2} & b_2 & c_2 \\ {\color{red}d_3} & b_3 & c_3 \end{vmatrix} } { \begin{vmatrix} a_1 & b_1 & c_1 \\ a_2 & b_2 & c_2 \\ a_3 & b_3 & c_3 \end{vmatrix}}, \quad y = \frac {\begin{vmatrix} a_1 & {\color{red}d_1} & c_1 \\ a_2 & {\color{red}d_2} & c_2 \\ a_3 & {\color{red}d_3} & c_3 \end{vmatrix}} {\begin{vmatrix} a_1 & b_1 & c_1 \\ a_2 & b_2 & c_2 \\ a_3 & b_3 & c_3 \end{vmatrix}}, \text{ and }z = \frac { \begin{vmatrix} a_1 & b_1 & {\color{red}d_1} \\ a_2 & b_2 & {\color{red}d_2} \\ a_3 & b_3 & {\color{red}d_3} \end{vmatrix}} {\begin{vmatrix} a_1 & b_1 & c_1 \\ a_2 & b_2 & c_2 \\ a_3 & b_3 & c_3 \end{vmatrix} }.</math>
 
== Geometri diferensial ==
 
=== Kalkulus Ricci ===
Kaidah Cramer digunakan dalam [[kalkulus Ricci]] dalam berbagai perhitungan yang melibatkan [[simbol Christoffel]] dari jenis pertama dan kedua.<ref>{{Cite book|title=The Absolute Differential Calculus (Calculus of Tensors)|last=Levi-Civita|first=Tullio|publisher=Dover|year=1926|isbn=9780486634012|location=|pages=111–112|quote=|via=}}</ref>
 
Secara khusus, aturan Cramer dapat digunakan untuk membuktikan bahwa operator divergensi pada manifold Riemannian tidak berubah sehubungan dengan perubahan koordinat. Kami memberikan bukti langsung, menekan peran simbol Christoffel.
Maka <math>(M,g)</math> menjadi [[Manifold Riemannian]] dilengkapi dengan [[Manifold#Grafik|koordinat lokal]] <math> (x^1, x^2, \dots, x^n)</math>. Maka <math>A=A^i \frac{\partial}{\partial x^i}</math> menjadi [[bidang vektor]]. Kami menggunakan [[notasi Einstein | konvensi penjumlahan]] di seluruh bagian.
 
:'''Dalil'''.
:'' Perbedaan '' dari <math>A</math>,
:<math> \operatorname{div} A = \frac{1}{\sqrt{\det g}} \frac{\partial}{\partial x^i} \left( A^i \sqrt{\det g} \right),</math>
:adalah invarian di bawah perubahan koordinat.''
 
{{Collapse top|title=''Bukti''}}
Let <math>(x^1,x^2,\ldots,x^n)\mapsto (\bar x^1,\ldots,\bar x^n)</math> menjadi [[transformasi koordinat]] dengan [[matriks dapat dibalik | non-singular]] [[matriks dan determinan Jacobian | Jacobian]]. Kemudian [[Bidang vektor#Hukum transformasi koordinat | hukum transformasi]] menunjukkan hal itu <math>A=\bar A^{k}\frac{\partial}{\partial\bar x^{k}}</math> dimana <math>\bar A^{k}=\frac{\partial \bar x^{k}}{\partial x^{j}}A^{j}</math>. Similarly, if <math>g=g_{mk}\,dx^{m}\otimes dx^{k}=\bar{g}_{ij}\,d\bar x^{i}\otimes d\bar x^{j}</math>, kemudian <math>\bar{g}_{ij}=\,\frac{\partial x^{m}}{\partial\bar x^{i}}\frac{\partial x^{k}}{\partial \bar x^{j}}g_{mk}</math>.
Penulisan hukum transformasi ini dalam hal hasil matriks <math>\bar g=\left(\frac{\partial x}{\partial\bar{x}}\right)^{\text{T}}g\left(\frac{\partial x}{\partial\bar{x}}\right)</math>, which implies <math>\det\bar g=\left(\det\left(\frac{\partial x}{\partial\bar{x}}\right)\right)^{2}\det g</math>.
 
Sekarang menghitung
:<math>\begin{align}
\operatorname{div} A &=\frac{1}{\sqrt{\det g}}\frac{\partial}{\partial x^{i}}\left( A^{i}\sqrt{\det g}\right)\\
&=\det\left(\frac{\partial x}{\partial\bar{x}}\right)\frac{1}{\sqrt{\det\bar g}}\frac{\partial \bar x^k}{\partial x^{i}}\frac{\partial}{\partial\bar x^{k}}\left(\frac{\partial x^{i}}{\partial \bar x^{\ell}}\bar{A}^{\ell}\det\!\left(\frac{\partial x}{\partial\bar{x}}\right)^{\!\!-1}\!\sqrt{\det\bar g}\right).
\end{align}</math>
Untuk menunjukkan bahwa ini sama
<math>\frac{1}{\sqrt{\det\bar g}}\frac{\partial}{\partial\bar x^{k}}\left(\bar A^{k}\sqrt{\det\bar{g}}\right)</math>,
itu perlu dan cukup untuk menunjukkan
:<math>\frac{\partial\bar x^{k}}{\partial x^{i}}\frac{\partial}{\partial\bar x^{k}}\left(\frac{\partial x^{i}}{\partial \bar x^{\ell}}\det\!\left(\frac{\partial x}{\partial\bar{x}}\right)^{\!\!\!-1}\right)=0\qquad\text{untuk semua } \ell, </math>
yang setara dengan
:<math>\frac{\partial}{\partial \bar x^{\ell}}\det\left(\frac{\partial x}{\partial\bar{x}}\right)
=\det\left(\frac{\partial x}{\partial\bar{x}}\right)\frac{\partial\bar x^{k}}{\partial x^{i}}\frac{\partial^{2}x^{i}}{\partial\bar x^{k}\partial\bar x^{\ell}}.
</math>
Melakukan diferensiasi di sisi kiri, kami mendapatkan:
:<math>\begin{align}
\frac{\partial}{\partial\bar x^{\ell}}\det\left(\frac{\partial x}{\partial\bar{x}}\right)
&=(-1)^{i+j}\frac{\partial^{2}x^{i}}{\partial\bar x^{\ell}\partial\bar x^{j}}\det M(i|j)\\
&=\frac{\partial^{2}x^{i}}{\partial\bar x^{\ell}\partial\bar x^{j}}\det\left(\frac{\partial x}{\partial\bar{x}}\right)\frac{(-1)^{i+j}}{\det\left(\frac{\partial x}{\partial\bar{x}}\right)}\det M(i|j)=(\ast),
\end{align}</math>
dimana <math>M(i|j)</math> menunjukkan matriks yang diperoleh dari <math>\left(\frac{\partial x}{\partial\bar{x}}\right)</math> dengan menghapus baris ke <math> i </math> dan kolom <math> j </math>.
Tapi kaidah Cramer mengatakan itu
:<math>\frac{(-1)^{i+j}}{\det\left(\frac{\partial x}{\partial\bar{x}}\right)}\det M(i|j) </math>
adalah entri ke <math> (j, i) </math> dari matriks <math>\left(\frac{\partial \bar{x}}{\partial x}\right)</math>.
Jadi
:<math>(\ast)=\det\left(\frac{\partial x}{\partial\bar{x}}\right)\frac{\partial^{2}x^{i}}{\partial\bar x^{\ell}\partial\bar x^{j}}\frac{\partial\bar x^{j}}{\partial x^{i}},</math>
completing the proof.
 
{{Collapse bottom}}
 
=== Menghitung turunan secara implisit ===
Perhatikan dua persamaan tersebut <math>F(x, y, u, v) = 0</math> dan <math>G(x, y, u, v) = 0</math>. Ketika '' u '' dan '' v '' adalah variabel independen, kita dapat mendefinisikan <math>x = X(u, v)</math> dan <math>y = Y(u, v).</math>
 
Persamaan untuk <math>\dfrac{\partial x}{\partial u}</math> dapat ditemukan dengan menerapkan aturan Cramer.
 
{{Collapse top|title=''Perhitungan <math>\dfrac{\partial x}{\partial u}</math>''}}
Pertama, hitung turunan pertama dari ''F'', ''G'', ''x'', dan ''y'':
 
:<math>\begin{align}
dF &= \frac{\partial F}{\partial x} dx + \frac{\partial F}{\partial y} dy +\frac{\partial F}{\partial u} du +\frac{\partial F}{\partial v} dv = 0 \\[6pt]
dG &= \frac{\partial G}{\partial x} dx + \frac{\partial G}{\partial y} dy +\frac{\partial G}{\partial u} du +\frac{\partial G}{\partial v} dv = 0 \\[6pt]
dx &= \frac{\partial X}{\partial u} du + \frac{\partial X}{\partial v} dv \\[6pt]
dy &= \frac{\partial Y}{\partial u} du + \frac{\partial Y}{\partial v} dv.
\end{align}</math>
 
Mengganti ''dx'', ''dy'' ke ''dF'' dan ''dG'', kita punya:
 
:<math>\begin{align}
dF &= \left(\frac{\partial F}{\partial x} \frac{\partial x}{\partial u} +\frac{\partial F}{\partial y} \frac{\partial y}{\partial u} + \frac{\partial F}{\partial u} \right) du + \left(\frac{\partial F}{\partial x} \frac{\partial x}{\partial v} +\frac{\partial F}{\partial y} \frac{\partial y}{\partial v} +\frac{\partial F}{\partial v} \right) dv = 0 \\ [6pt]
dG &= \left(\frac{\partial G}{\partial x} \frac{\partial x}{\partial u} +\frac{\partial G}{\partial y} \frac{\partial y}{\partial u} +\frac{\partial G}{\partial u} \right) du + \left(\frac{\partial G}{\partial x} \frac{\partial x}{\partial v} +\frac{\partial G}{\partial y} \frac{\partial y}{\partial v} +\frac{\partial G}{\partial v} \right) dv = 0.
\end{align}</math>
 
Karena '' u '', '' v '' keduanya independen, koefisien '' du '', '' dv '' harus nol. Jadi kita bisa menuliskan persamaan untuk koefisien:
 
:<math>\begin{align}
\frac{\partial F}{\partial x} \frac{\partial x}{\partial u} +\frac{\partial F}{\partial y} \frac{\partial y}{\partial u} & = -\frac{\partial F}{\partial u} \\[6pt]
\frac{\partial G}{\partial x} \frac{\partial x}{\partial u} +\frac{\partial G}{\partial y} \frac{\partial y}{\partial u} & = -\frac{\partial G}{\partial u} \\[6pt]
\frac{\partial F}{\partial x} \frac{\partial x}{\partial v} +\frac{\partial F}{\partial y} \frac{\partial y}{\partial v} & = -\frac{\partial F}{\partial v} \\[6pt]
\frac{\partial G}{\partial x} \frac{\partial x}{\partial v} +\frac{\partial G}{\partial y} \frac{\partial y}{\partial v} & = -\frac{\partial G}{\partial v}.
\end{align}</math>
 
Sekarang, berdasarkan kaidah Cramer, kita melihatnya:
 
:<math>\frac{\partial x}{\partial u} = \frac{\begin{vmatrix} -\frac{\partial F}{\partial u} & \frac{\partial F}{\partial y} \\ -\frac{\partial G}{\partial u} & \frac{\partial G}{\partial y}\end{vmatrix}}{\begin{vmatrix}\frac{\partial F}{\partial x} & \frac{\partial F}{\partial y} \\ \frac{\partial G}{\partial x} & \frac{\partial G}{\partial y}\end{vmatrix}}.</math>
 
Ini sekarang menjadi rumus dalam dua [[matriks dan determinan Jacobian | Jacobian]]:
 
:<math>\frac{\partial x}{\partial u} = -\frac{\left(\frac{\partial (F, G)}{\partial (u, y)}\right)}{\left(\frac{\partial (F, G)}{\partial(x, y)}\right)}.</math>
 
Rumus serupa dapat diturunkan untuk <math>\frac{\partial x}{\partial v}, \frac{\partial y}{\partial u}, \frac{\partial y}{\partial v}.</math>
{{Collapse bottom}}
 
== Pemrograman bilangan bulat ==
Kaidah Cramer dapat digunakan untuk membuktikan bahwa masalah [[integer programming]] yang matriks pembatasnya [[benar-benar unimodular]] dan yang sisi kanannya adalah bilangan bulat, memiliki bilangan bulat. Ini membuat program integer jauh lebih mudah untuk dipecahkan.
 
== Persamaan diferensial biasa ==
Kaidah Cramer digunakan untuk menurunkan solusi umum ke persamaan diferensial linear yang tidak homogen dengan metode [[variasi parameter]].
 
== Interpretasi geometris ==
[[Berkas:Cramer.jpg|thumb|400px|Interpretasi geometris dari aturan Cramer. Luas jajaran genjang berbayang kedua dan ketiga adalah sama dan yang kedua adalah <math>x_1</math> kali pertama. Dari persamaan ini, aturan Cramer mengikuti.]]
Kaidah Cramer memiliki interpretasi geometris yang dapat dianggap juga sebagai bukti atau sekadar memberikan wawasan tentang sifat geometrisnya. Argumen geometris ini bekerja secara umum dan tidak hanya dalam kasus dua persamaan dengan dua ketidakpastian yang disajikan di sini.
 
Mengingat sistem persamaan
 
:<math>\begin{matrix}a_{11}x_1+a_{12}x_2&=b_1\\a_{21}x_1+a_{22}x_2&=b_2\end{matrix}</math>
 
itu dapat dianggap sebagai persamaan antar vektor
 
:<math>x_1\binom{a_{11}}{a_{21}}+x_2\binom{a_{12}}{a_{22}}=\binom{b_1}{b_2}. </math>
 
Luas jajaran genjang ditentukan oleh <math>\binom{a_{11}}{a_{21}}</math> dan <math>\binom{a_{12}}{a_{22}}</math> diberikan oleh determinan sistem persamaan:
 
:<math>\begin{vmatrix}a_{11}&a_{12}\\a_{21}&a_{22}\end{vmatrix}.</math>
 
Secara umum, jika ada lebih banyak variabel dan persamaan, determinan dari {{mvar | n}} vektor panjang {{mvar | n}} akan memberikan '' volume '' dari ''[[parallelepiped]]'' ditentukan oleh vektor-vektor tersebut dalam dimensi ke-{{mvar | n}} [[ruang Euklides]].
 
Oleh karena itu, luas jajaran genjang ditentukan oleh <math>x_1\binom{a_{11}}{a_{21}}</math> and <math>\binom{a_{12}}{a_{22}}</math> harus <math> x_1 </math> kali luas dari yang pertama karena salah satu sisinya telah dikalikan dengan faktor ini. Sekarang, jajaran genjang terakhir ini, dengan [[prinsip Cavalieri]], memiliki luas yang sama dengan jajaran genjang yang ditentukan oleh <math>\binom{b_1}{b_2}=x_1\binom{a_{11}}{a_{21}}+x_2\binom{a_{12}}{a_{22}}</math> and <math>\binom{a_{12}}{a_{22}}.</math>
 
Menyamakan luas dari yang terakhir ini dan jajaran genjang kedua menghasilkan persamaan
 
:<math>\begin{vmatrix}b_1&a_{12}\\b_2&a_{22}\end{vmatrix} = \begin{vmatrix}a_{11}x_1&a_{12}\\a_{21}x_1&a_{22}\end{vmatrix} =x_1 \begin{vmatrix}a_{11}&a_{12}\\a_{21}&a_{22}\end{vmatrix} </math>
 
dari mana kaidah Cramer mengikuti.
 
== Bukti lainnya ==
 
=== Bukti oleh aljabar linier abstrak ===
 
Ini adalah pernyataan kembali dari bukti di atas dalam bahasa abstrak.
 
Pertimbangkan petanya <math>\vec{x}=(x_1,\ldots, x_n) \mapsto \frac{1}{\det A} (\det (A_1),\ldots, \det(A_n)),</math> dimana <math>A_i</math> adalah matriks <math> A </math> dengan <math>\vec{x}</math> diganti di kolom <math> i </math> th, seperti dalam aturan Cramer. Karena linearitas determinan di setiap kolom, peta ini bersifat linear. Perhatikan bahwa itu mengirimkan
Kolom <math> i </math> th <math> A </math> ke <math> i </math> th basis vektor <math>\vec{e}_i=(0,\ldots, 1, \ldots, 0) </math> (dengan 1 di tempat <math> i </math> th), karena determinan matriks dengan kolom berulang adalah 0. Jadi kita memiliki peta linier yang sesuai dengan inversi <math> A </math> di ruang kolom; karenanya setuju dengan <math>A^{-1}</math> pada rentang ruang kolom. Karena <math> A </math> dapat dibalik, vektor kolom menjangkau semua <math>\mathbb{R}^n</math>, jadi peta kita benar-benar kebalikan dari <math> A </math>. Kaidah Cramer mengikuti.
 
=== Bukti singkat ===
A short proof of Cramer's rule <ref>{{cite journal | last = Robinson | first = Stephen M. | title = A Short Proof of Cramer's Rule | journal = Mathematics Magazine| volume = 43 | pages = 94–95 | year = 1970}}</ref> can be given by noticing that <math>x_1</math> is the determinant of the matrix
 
:<math>X_1=\begin{bmatrix}
x_1 & 0 & 0 & \dots & 0\\
x_2 & 1 & 0 & \dots & 0\\
x_3 & 0 & 1 & \dots & 0\\
\vdots & \vdots & \vdots & \ddots &\vdots \\
x_n & 0 & 0 & \dots & 1
\end{bmatrix}</math>
 
On the other hand, assuming that our original matrix {{mvar|A}} is invertible, this matrix <math>X_1</math> has columns <math>A^{-1}b, A^{-1}v_2, \ldots, A^{-1}v_n </math>, where <math>v_n</math> is the ''n''-th column of the matrix {{mvar|A}}. Recall that the matrix <math>A_1</math> has columns <math>b, v_2, \ldots, v_n </math>, and therefore <math>X_1=A^{-1}A_1</math>. Hence, by using that the determinant of the product of two matrices is the product of the determinants, we have
 
:<math> x_1= \det (X_1) = \det (A^{-1}) \det (A_1)= \frac{\det (A_1)}{\det (A)}.</math>
 
The proof for other <math>x_j</math> is similar.
 
=== Pembuktian menggunakan [[Aljabar Clifford]] ===
Consider the system of three scalar equations in three unknown scalars <math>x_1, x_2, x_3</math>
 
:<math>\begin{align}
a_{11} x_{1} +a_{12} x_{2} +a_{13} x_{3} & = c_{1}\\
a_{21} x_{1} +a_{22} x_{2} +a_{23} x_{3} & = c_{2}\\
a_{31} x_{1} +a_{32} x_{2} +a_{33} x_{3} & = c_{3}
\end{align}</math>
 
and assign an orthonormal vector basis <math>\mathbf{e}_{1} ,\mathbf{e}_{2} ,\mathbf{e}_{3}</math> for <math>\mathcal{G}_{3}</math> as
 
:<math>\begin{align}
a_{11} \mathbf{e}_{1} x_{1} +a_{12} \mathbf{e}_{1} x_{2} +a_{13} \mathbf{e}_{1} x_{3} & = c_{1} \mathbf{e}_{1}\\
a_{21} \mathbf{e}_{2} x_{1} +a_{22} \mathbf{e}_{2} x_{2} +a_{23} \mathbf{e}_{2} x_{3} & = c_{2} \mathbf{e}_{2}\\
a_{31} \mathbf{e}_{3} x_{1} +a_{32} \mathbf{e}_{3} x_{2} +a_{33} \mathbf{e}_{3} x_{3} & = c_{3} \mathbf{e}_{3}
\end{align}</math>
 
Let the vectors
 
:<math>\begin{align}
\mathbf{a}_{1} & = a_{11} \mathbf{e}_{1} +a_{21} \mathbf{e}_{2} +a_{31} \mathbf{e}_{3}\\
\mathbf{a}_{2} & = a_{12} \mathbf{e}_{1} +a_{22} \mathbf{e}_{2} +a_{32} \mathbf{e}_{3}\\
\mathbf{a}_{3} & = a_{13} \mathbf{e}_{1} +a_{23} \mathbf{e}_{2} +a_{33} \mathbf{e}_{3}
\end{align}</math>
 
Adding the system of equations, it is seen that
 
:<math>\begin{align}
\mathbf{c} & = c_{1} \mathbf{e}_{1} +c_{2} \mathbf{e}_{2} +c_{3} \mathbf{e}_{3}\\
& = x_{1} \mathbf{a}_{1} +x_{2} \mathbf{a}_{2} +x_{3} \mathbf{a}_{3}
\end{align}</math>
 
Using the [[exterior product]], each unknown scalar <math>x_{k}</math> can be solved as
 
:<math>\begin{align}
\mathbf{c} \wedge \mathbf{a}_{2} \wedge \mathbf{a}_{3} &= x_{1} \mathbf{a}_{1} \wedge \mathbf{a}_{2} \wedge \mathbf{a}_{3}\\
\mathbf{c} \wedge \mathbf{a}_{1} \wedge \mathbf{a}_{3} &= x_{2} \mathbf{a}_{2} \wedge \mathbf{a}_{1} \wedge \mathbf{a}_{3}\\
\mathbf{c} \wedge \mathbf{a}_{1} \wedge \mathbf{a}_{2} &= x_{3} \mathbf{a}_{3} \wedge \mathbf{a}_{1} \wedge \mathbf{a}_{2}\\
x_{1} &= \frac{\mathbf{c} \wedge \mathbf{a}_{2} \wedge \mathbf{a}_{3}}{\mathbf{a}_{1} \wedge \mathbf{a}_{2} \wedge \mathbf{a}_{3}}\\
x_{2} &= \frac{\mathbf{c} \wedge \mathbf{a}_{1} \wedge \mathbf{a}_{3}}{\mathbf{a}_{2} \wedge \mathbf{a}_{1} \wedge \mathbf{a}_{3}} = \frac{\mathbf{a}_{1} \wedge \mathbf{c} \wedge \mathbf{a}_{3}}{\mathbf{a}_{1} \wedge \mathbf{a}_{2} \wedge \mathbf{a}_{3}}\\
x_{3} &= \frac{\mathbf{c} \wedge \mathbf{a}_{1} \wedge \mathbf{a}_{2}}{\mathbf{a}_{3} \wedge \mathbf{a}_{1} \wedge \mathbf{a}_{2}} = \frac{\mathbf{a}_{1} \wedge \mathbf{a}_{2} \wedge \mathbf{c}}{\mathbf{a}_{1} \wedge \mathbf{a}_{2} \wedge \mathbf{a}_{3}}
\end{align}</math>
 
For {{mvar|n}} equations in {{mvar|n}} unknowns, the solution for the {{mvar|k}}-th unknown <math>x_{k}</math> generalizes to
 
:<math>\begin{align}
x_k &= \frac{\mathbf{a}_{1} \wedge \cdots \wedge (\mathbf{c})_k \wedge \cdots \wedge \mathbf{a}_{n}}{\mathbf{a}_{1} \wedge \cdots \wedge \mathbf{a}_{k} \wedge \cdots \wedge \mathbf{a}_{n}}\\
&= (\mathbf{a}_{1} \wedge \cdots \wedge (\mathbf{c})_k \wedge \cdots \wedge \mathbf{a}_{n}) (\mathbf{a}_{1} \wedge \cdots \wedge \mathbf{a}_{k} \wedge \cdots \wedge \mathbf{a}_{n} )^{-1}\\
&= \frac{(\mathbf{a}_{1} \wedge \cdots \wedge (\mathbf{c})_k \wedge \cdots \wedge \mathbf{a}_{n}) (\mathbf{a}_{1} \wedge \cdots \wedge \mathbf{a}_{k} \wedge \cdots \wedge \mathbf{a}_{n})}{(\mathbf{a}_{1} \wedge \cdots \wedge \mathbf{a}_{k} \wedge \cdots \wedge \mathbf{a}_{n}) (\mathbf{a}_{1} \wedge \cdots \wedge \mathbf{a}_{k} \wedge \cdots \wedge \mathbf{a}_{n})}\\
&= \frac{( \mathbf{a}_{1} \wedge \cdots \wedge (\mathbf{c})_k \wedge \cdots \wedge \mathbf{a}_{n} ) \cdot ( \mathbf{a}_{1} \wedge \cdots \wedge \mathbf{a}_{k} \wedge \cdots \wedge \mathbf{a}_{n} )}{(-1)^{\frac{n(n-1)}{2}} ( \mathbf{a}_{n} \wedge \cdots \wedge \mathbf{a}_{k} \wedge \cdots \wedge \mathbf{a}_{1} ) \cdot (\mathbf{a}_{1} \wedge \cdots \wedge \mathbf{a}_{k} \wedge \cdots \wedge \mathbf{a}_{n} )}\\
&= \frac{( \mathbf{a}_{n} \wedge \cdots \wedge (\mathbf{c})_k \wedge \cdots \wedge \mathbf{a}_{1} ) \cdot (\mathbf{a}_{1} \wedge \cdots \wedge \mathbf{a}_{k} \wedge \cdots \wedge \mathbf{a}_{n} )}{( \mathbf{a}_{n} \wedge \cdots \wedge \mathbf{a}_{k} \wedge \cdots \wedge \mathbf{a}_{1} ) \cdot ( \mathbf{a}_{1} \wedge \cdots \wedge \mathbf{a}_{k} \wedge \cdots \wedge \mathbf{a}_{n} )}
\end{align}</math>
 
If {{math|'''a'''<sub>''k''</sub>}} are linearly independent, then the <math>x_{k}</math> can be expressed in determinant form identical to Cramer’s Rule as
 
:<math>\begin{align}
x_k &= \frac{( \mathbf{a}_{n} \wedge \cdots \wedge ( \mathbf{c} )_{k} \wedge \cdots \wedge \mathbf{a}_{1} ) \cdot ( \mathbf{a}_1 \wedge \cdots \wedge \mathbf{a}_{k} \wedge \cdots \wedge \mathbf{a}_{n} )}{(\mathbf{a}_{n} \wedge \cdots \wedge \mathbf{a}_{k} \wedge \cdots \wedge \mathbf{a}_1 ) \cdot ( \mathbf{a}_1 \wedge \cdots \wedge \mathbf{a}_{k} \wedge \cdots \wedge \mathbf{a}_{n})}\\ [8pt]
&= \begin{vmatrix}
\mathbf{a}_{1} \cdot \mathbf{a}_1 & \cdots & \mathbf{a}_{1} \cdot (
\mathbf{c} )_{k} & \cdots & \mathbf{a}_1 \cdot \mathbf{a}_{n}\\
\vdots & \ddots & \vdots & \ddots & \vdots\\
\mathbf{a}_{k} \cdot \mathbf{a}_{1} & \cdots & \mathbf{a}_{k} \cdot (
\mathbf{c} )_{k} & \cdots & \mathbf{a}_{k} \cdot \mathbf{a}_{n}\\
\vdots & \ddots & \vdots & \ddots & \vdots\\
\mathbf{a}_{n} \cdot \mathbf{a}_{1} & \cdots & \mathbf{a}_{n} \cdot (
\mathbf{c} )_{k} & \cdots & \mathbf{a}_{n} \cdot \mathbf{a}_{n}
\end{vmatrix} \begin{vmatrix}
\mathbf{a}_{1} \cdot \mathbf{a}_{1} & \cdots & \mathbf{a}_{1} \cdot
\mathbf{a}_{k} & \cdots & \mathbf{a}_{1} \cdot \mathbf{a}_{n}\\
\vdots & \ddots & \vdots & \ddots & \vdots\\
\mathbf{a}_{k} \cdot \mathbf{a}_{1} & \cdots & \mathbf{a}_{k} \cdot
\mathbf{a}_{k} & \cdots & \mathbf{a}_{k} \cdot \mathbf{a}_{n}\\
\vdots & \ddots & \vdots & \ddots & \vdots\\
\mathbf{a}_{n} \cdot \mathbf{a}_{1} & \cdots & \mathbf{a}_{n} \cdot
\mathbf{a}_{k} & \cdots & \mathbf{a}_{n} \cdot \mathbf{a}_{n}
\end{vmatrix}^{-1} \\ [8pt]
&= \begin{vmatrix} \mathbf{a}_{1}\\ \vdots\\ \mathbf{a}_{k}\\ \vdots\\ \mathbf{a}_{n} \end{vmatrix} \begin{vmatrix} \mathbf{a}_{1} & \cdots & ( \mathbf{c} )_{k} & \cdots & \mathbf{a}_{n} \end{vmatrix} \begin{vmatrix} \mathbf{a}_{1}\\ \vdots\\ \mathbf{a}_{k}\\ \vdots\\
\mathbf{a}_{n} \end{vmatrix}^{-1} \begin{vmatrix} \mathbf{a}_{1} & \cdots & \mathbf{a}_{k} & \cdots & \mathbf{a}_{n} \end{vmatrix}^{-1}\\ [8pt]
&= \begin{vmatrix} \mathbf{a}_1 & \cdots & (\mathbf{c})_{k} & \cdots & \mathbf{a}_{n} \end{vmatrix} \begin{vmatrix} \mathbf{a}_{1} & \cdots & \mathbf{a}_{k} & \cdots & \mathbf{a}_{n} \end{vmatrix}^{-1} \\ [8pt]
&= \begin{vmatrix}
a_{11} & \ldots & c_{1} & \cdots & a_{1n}\\
\vdots & \ddots & \vdots & \ddots & \vdots\\
a_{k1} & \cdots & c_{k} & \cdots & a_{k n}\\
\vdots & \ddots & \vdots & \ddots & \vdots\\
a_{n1} & \cdots & c_{n} & \cdots & a_{n n}
\end{vmatrix} \begin{vmatrix}
a_{11} & \ldots & a_{1k} & \cdots & a_{1n}\\
\vdots
\end{vmatrix}^{-1}
\end{align}</math>
 
where {{math|('''c''')<sub>''k''</sub>}} denotes the substitution of vector {{math|'''a'''<sub>''k''</sub>}} with vector {{math|'''c'''}} in the {{mvar|k}}-th numerator position.
 
== Contoh ==