Gradient boosting
Gradient boosting (lit: peningkatan gradien) adalah teknik pemelajaran mesin berbasis boosting dalam ruang fungsional dengan residu semu sebagai targetnya, bukan residu biasa yang biasa digunakan dalam boosting tradisional. Teknik ini mengembalikan sebuah model prediksi dalam bentuk kumpulan (ensemble) model berprediksi lemah, yaitu model memberikan sangat sedikit asumsi tentang data, yang biasanya berupa pohon keputusan (decision tree) sederhana.[1][2] Jika pohon keputusan ini merupakan pemelajar yang lemah, algoritma yang dihasilkan disebut sebagai pohon dengan gradien yang ditingkatkan (gradient-boosted trees) yang biasanya performana melebihi Random forest.[1] Gradient-boosted trees dibuat secara bertahap seperti pada metode boosting lainnya, tetapi model ini menggeneralisasi metode lain dengan memungkinkan optimasi fungsi kerugian yang terdiferensialkan secara bebas. SejarahIde gradient boosting bermula dari pengamatan Leo Breiman yang menemukan bahwa boosting dapat diinterpretasikan sebagai sebuah algoritma optimasi pada fungsi biaya yang sesuai.[3] Secara eksplisit, algoritma ini kemudian dikembangkan oleh Jerome H. Friedman,[4][2] (pada tahun 1999 dan kemudian pada tahun 2001) bersamaan dengan perspektif peningkatan gradien fungsional yang lebih umum dari Llew Mason, Jonathan Baxter, Peter Bartlett dan Marcus Frean.[5] Dua makalah yang disebutkan di akhir memperkenalkan pandangan terkait algoritma boosting sebagai algoritma penurunan gradien fungsional berulang (functional gradient descent). Artinya, algoritma yang mengoptimalkan fungsi biaya pada ruang fungsi dengan memilih fungsi secara berulang (berhipotesis lemah) yang mengarah ke gradien negatif. Pandangan ini menyebabkan pengembangan algoritma boosting di banyak bidang pemelajaran mesin dan statistika di luar regresi dan klasifikasi. Pengenalan informal(Bagian ini mengikuti eksposisi peningkatan gradien oleh Cheng Li.[6]) Seperti metode boosting lainnya, gradient boosting menggabungkan beberapa "pemelajaran" lemah menjadi satu pemelajar yang kuat secara iteratif. Cara paling mudah untuk menjelaskannya adalah dengan pengaturan regresi kuadrat terkecil, yang tujuannya adalah untuk "mengajarkan" suatu model untuk memprediksi nilai bentuk dengan meminimalkan rata-rata kuadrat galat dengan indeks pada beberapa himpunan ukuran pelatihan dari nilai sebenarnya dari variabel keluaran :
Sekarang, pertimbangkan algoritma gradient boosting dengan tahap. Di setiap tahap ( ) gradient boosting, misalkan beberapa model yang tidak sempurna (dengan kecil, model ini mungkin mengembalikan , saja dengan RHS adalah rerata dari ). Untuk meningkatkan , algoritma ini harus menambahkan beberapa estimator baru, . Sedemikian sehingga atau, dapat ditulis ulang sebagai,
Oleh karena itu, gradient boosting akan menyesuaikan (fit) ke residu . Seperti pada varian boosting lainnya, masing-masing berupaya untuk memperbaiki galat sebelumnya. Generalisasi ide ini digunakan pada fungsi kerugian, selain kesalahan kuadrat, dan pada masalah klasifikasi dan pemeringkatan yang mengikuti pengamatan bahwa residu untuk model tertentu sebanding dengan gradien negatif dari fungsi kerugian mean squared error (MSE) (sehubungan dengan ):
Oleh karena itu, gradient boosting dapat juga digunakan pada algoritma penurunan gradien dengan "memasukkan" kerugian yang berbeda dan gradiennya. Referensi
Lihat juga
Referensi
|