More Info
KPOP Image Download
  • Top University
  • Top Anime
  • Home Design
  • Top Legend



  1. ENSIKLOPEDIA
  2. Algoritma Gauss-Newton - Wikipedia bahasa Indonesia, ensiklopedia bebas
Algoritma Gauss-Newton - Wikipedia bahasa Indonesia, ensiklopedia bebas

Algoritma Gauss-Newton

  • العربية
  • Български
  • Català
  • Deutsch
  • English
  • Español
  • Français
  • עברית
  • Italiano
  • 日本語
  • Norsk nynorsk
  • Polski
  • Português
  • Русский
  • Svenska
Sunting pranala
  • Halaman
  • Pembicaraan
  • Baca
  • Sunting
  • Sunting sumber
  • Lihat riwayat
Perkakas
Tindakan
  • Baca
  • Sunting
  • Sunting sumber
  • Lihat riwayat
Umum
  • Pranala balik
  • Perubahan terkait
  • Pranala permanen
  • Informasi halaman
  • Kutip halaman ini
  • Lihat URL pendek
  • Unduh kode QR
Cetak/ekspor
  • Buat buku
  • Unduh versi PDF
  • Versi cetak
Dalam proyek lain
  • Butir di Wikidata
Tampilan
Dari Wikipedia bahasa Indonesia, ensiklopedia bebas
artikel ini perlu dirapikan agar memenuhi standar Wikipedia. Tidak ada alasan yang diberikan. Silakan kembangkan artikel ini semampu Anda. Merapikan artikel dapat dilakukan dengan wikifikasi atau membagi artikel ke paragraf-paragraf. Jika sudah dirapikan, silakan hapus templat ini. (Pelajari cara dan kapan saatnya untuk menghapus pesan templat ini)

Algoritma Gauss-Newton adalah penyelesaian yang digunakan untuk memecahkan masalah-masalah kuadrat terkecil. Algoritma ini merupakan sebuah perubahan dari metode Newton untuk mengoptimalkan sebuah fungsi. Tidak seperti metode Newton, algoritma Gauss-Newton hanya bisa digunakan untuk mengoptimumkan jumlah dari nilai fungsi kuadrat. Metode ini adalah hasil penemuannya matematikawan yang bernama Carl Friedrich Gauss.

Permasalahan

[sunting | sunting sumber]

Diberikan m fungsi f1, ..., fm of n parameters p1, ..., pn with m≥n, kita ingin meminimumkan jumlah

S ( p ) = ∑ i = 1 m ( f i ( p ) ) 2 . {\displaystyle S(p)=\sum _{i=1}^{m}(f_{i}(p))^{2}.} {\displaystyle S(p)=\sum _{i=1}^{m}(f_{i}(p))^{2}.}

Disini, p adalah vektor kolom (p1, ..., pn)T.

Algoritme

[sunting | sunting sumber]

Algoritme Gauss-Newton merupakan prosedur iterasi. Ini berarti bahwa pengguna harus menetapkan sebuah penduga pertama untuk parameter vektor p, yang mana akan kita sebut p0.

Berikutnya penduga pk untuk parameter vektor yang kemudian dihasilkan oleh perulangan hubungan

p k + 1 = p k − ( J f ( p k ) ⊤ J f ( p k ) ) − 1 J f ( p k ) ⊤ f ( p k ) , {\displaystyle p^{k+1}=p^{k}-{\Big (}J_{f}(p^{k})^{\top }J_{f}(p^{k}){\Big )}^{-1}J_{f}(p^{k})^{\top }f(p^{k}),} {\displaystyle p^{k+1}=p^{k}-{\Big (}J_{f}(p^{k})^{\top }J_{f}(p^{k}){\Big )}^{-1}J_{f}(p^{k})^{\top }f(p^{k}),}

di mana f=(f1, ..., fm)T dan Jf(p) menunjukkan Jacobian dari f saat p.

Matriks invers tidak pernah dihasilakan secara eksplisit dalam praktiknya. Sebagai pengganti, kita gunakan

p k + 1 = p k + δ k , {\displaystyle p^{k+1}=p^{k}+\delta ^{k},\,} {\displaystyle p^{k+1}=p^{k}+\delta ^{k},\,}

Dan kita hitung perbaikan δk dengan menyelesaikan sistem linear

J f ( p k ) ⊤ J f ( p k ) δ k = − J f ( p k ) ⊤ f ( p k ) , {\displaystyle J_{f}(p^{k})^{\top }J_{f}(p^{k})\,\delta ^{k}=-J_{f}(p^{k})^{\top }f(p^{k}),} {\displaystyle J_{f}(p^{k})^{\top }J_{f}(p^{k})\,\delta ^{k}=-J_{f}(p^{k})^{\top }f(p^{k}),}.

Penelusuran garis

[sunting | sunting sumber]

Sebuah implementasi yang baik dari algoritme Gauss-Newton juga menggunakan algoritme penelusuran garis: sebagai pengganti dari formula sebelumnya untuk pk+1, kita gunakan

p k + 1 = p k + α k δ k , {\displaystyle p^{k+1}=p^{k}+\alpha ^{k}\,\delta ^{k},} {\displaystyle p^{k+1}=p^{k}+\alpha ^{k}\,\delta ^{k},}

Dimana kita berusaha memilih sebuah nilai optimal untuk bilangan αk.

Derivasi dari metode Newton

[sunting | sunting sumber]

Hubungan perulangan metode Newton untuk meminimumkan sebuah fungsi S adalah

p k + 1 = p k − [ H S ( p k ) ] − 1 ∇ S ( p k ) , {\displaystyle p^{k+1}=p^{k}-[H_{S}(p^{k})]^{-1}\nabla S(p^{k}),\,} {\displaystyle p^{k+1}=p^{k}-[H_{S}(p^{k})]^{-1}\nabla S(p^{k}),\,}

di mana ∇ S {\displaystyle \nabla S} {\displaystyle \nabla S} dan H S {\displaystyle H_{S}} {\displaystyle H_{S}} berarti gradien dan Hessian dari S . Sekarang kita misalkan S memiliki bentuk

S ( p ) = ∑ i = 1 m ( f i ( p ) ) 2 = f ( p ) ⊤ f ( p ) {\displaystyle S(p)=\sum _{i=1}^{m}(f_{i}(p))^{2}=f(p)^{\top }f(p)} {\displaystyle S(p)=\sum _{i=1}^{m}(f_{i}(p))^{2}=f(p)^{\top }f(p)}

di mana f {\displaystyle f} {\displaystyle f} adalah sebuah nilai fungsi vector yang merupakan komponen f i {\displaystyle f_{i}} {\displaystyle f_{i}}.

Dalam kasus ini, gradien diberikan oleh

∇ S ( p ) = 2 J f ( p ) ⊤ f ( p ) {\displaystyle \nabla S(p)=2J_{f}(p)^{\top }f(p)} {\displaystyle \nabla S(p)=2J_{f}(p)^{\top }f(p)}

di mana J f {\displaystyle J_{f}} {\displaystyle J_{f}} adalah Jacobian dari f {\displaystyle f} {\displaystyle f}, dan Hessian diberikan oleh

H S ( p ) = 2 J f ( p ) ⊤ J f ( p ) + 2 ∑ i = 1 m f i ( p ) H f i ( p ) {\displaystyle H_{S}(p)=2J_{f}(p)^{\top }J_{f}(p)+2\sum _{i=1}^{m}f_{i}(p)\,H_{f_{i}}(p)} {\displaystyle H_{S}(p)=2J_{f}(p)^{\top }J_{f}(p)+2\sum _{i=1}^{m}f_{i}(p)\,H_{f_{i}}(p)}

di mana H f i {\displaystyle H_{f_{i}}} {\displaystyle H_{f_{i}}} adalah Hessian dari f i {\displaystyle f_{i}} {\displaystyle f_{i}}.

Catatan bahwa syarat kedua dalam ekspresi ini untuk v H S {\displaystyle H_{S}} {\displaystyle H_{S}} menuju nol sama S ( p ) {\displaystyle S(p)} {\displaystyle S(p)} menuju nol. Jadi jika nilai minimum dari S(p) tertutup untuk nol, dan nilai percobaan dari p adalah tertutup untuk minimum, kemudian kita bisa mengira Hessian dengan:

H S ( p ) = 2 J f ( p ) ⊤ J f ( p ) {\displaystyle H_{S}(p)=2J_{f}(p)^{\top }J_{f}(p)} {\displaystyle H_{S}(p)=2J_{f}(p)^{\top }J_{f}(p)}

Dengan memasukkan ekspresi ini untuk gradeien dan Hessian kedalam hubungan perulangan sebelumnya kita memiliki

p k + 1 = p k − ( J f ( p k ) ⊤ J f ( p k ) ) − 1 J f ( p k ) ⊤ f ( p k ) . {\displaystyle p^{k+1}=p^{k}-\left(J_{f}(p^{k})^{\top }J_{f}(p^{k})\right)^{-1}J_{f}(p^{k})^{\top }f(p^{k}).} {\displaystyle p^{k+1}=p^{k}-\left(J_{f}(p^{k})^{\top }J_{f}(p^{k})\right)^{-1}J_{f}(p^{k})^{\top }f(p^{k}).}

Algoritme lainnya

[sunting | sunting sumber]

Metode lain untuk menyelesaikan masalah kuadrat terkecil hanya menggunakan derivatif pertama adalah penurunan gradien. Bagaimanapun, metode ini tidak memasukkan nilai maupun perhitungan derivatif kedua dengan perkiraan yang sama. Karenanya, metode ini tidak efisien untuk fungsi-fungsi tertentu, seperti fungsi Rosenbrock.

Pada kasus dimana minimum lebih besar dari nol, pengabaian syarat atau ketentuan pada Hessian bisa jadi signifikan. Pada kasus ini, salah satunya bisa menggunakan algoritme Levenberg-Marquardt, yang merupakan kombinasi dari Gauss-Newton dan penurunan gradien.

Referensi

[sunting | sunting sumber]
  • Nocedal, Jorge (1999). Numerical optimization. New York: Springer. ISBN 0387987932. Pemeliharaan CS1: Lokasi penerbit (link)
  • Deuflhard, P. (2003). Numerical analysis in modern scientific computing: an introduction (Edisi 2nd ed). New York: Springer. ISBN 0387954104. ; Pemeliharaan CS1: Lokasi penerbit (link)
Diperoleh dari "https://id.wikipedia.org/w/index.php?title=Algoritma_Gauss-Newton&oldid=26962880"
Kategori:
  • Pemeliharaan CS1: Lokasi penerbit
  • Galat CS1: teks tambahan: edisi
  • Optimization algorithms
Kategori tersembunyi:
  • Pages using the JsonConfig extension
  • Semua artikel yang perlu dirapikan
  • Artikel yang belum dirapikan Februari 2025
  • Galat CS1: parameter tidak didukung

Best Rank
More Recommended Articles