We’ve updated our privacy policy so that we are compliant with changing global privacy regulations and to provide you with insight into the limited ways in which we use your data. Show
You can read the details below. By accepting, you agree to the updated privacy policy. Thank you! View updated privacy policy We've encountered a problem, please try again. Decision Tree (Pohon keputusan) adalah alat pendukung keputusan yang menggunakan model keputusan seperti pohon dan kemungkinan konsekuensinya, termasuk hasil acara kebetulan, biaya sumber daya, dan utilitas. Ini adalah salah satu cara untuk menampilkan algoritma yang hanya berisi pernyataan kontrol bersyarat.
Algoritma untuk Induksi Decision TreeAlgoritma dasar (algoritma greedy):
Kondisi untuk menghentikan partisi:
Ulasan Singkat EntropyEntropy (Teori Informasi)
Ukuran Attribute Selection: Information Gain (ID3)Attribute Selection: Information Gain
Tahapan Algoritma Decision Tree (ID3)
Contoh Algoritma Decision Tree (ID3)Siapkan Data TrainingData TrainingPilih Atribut Sebagai AkarUntuk memilih atribut akar, didasarkan pada nilai Gain tertinggi dari atribut-atribut yang ada. Untuk mendapatkan nilai Gain, harus ditentukan terlebih dahulu nilai Entropy Entropy dan GainRumus Entropy: S = Himpunan Kasus. n = Jumlah Partisi S. pi = Proporsi dari Si terhadap S. Rumus Gain: S = Himpunan Kasus. A = Atribut. n = Jumlah Partisi Atribut A. | Si | = Jumlah Kasus pada partisi ke-i. | S | = Jumlah Kasus dalam S Perhitungan Entropy dan Gain AkarEntropy Total Entropy
Outlook Entropy Temperature Entropy
Humidity Entropy Windy Dari perhitungan di atas menghasilkan tabel seperti di bawah ini. Perhitungan Entropy dan Gain AkarLangkah berikunya yakni mencari nilai Gain. Penghitungan Gain AkarGain (Total,
Outlook) Gain (Total, Temperature) Gain (Total,
Humidity) Gain (Total, Windy) Dari perhitungan di atas, maka didapatkan nilai masing-masing gain. Kemudian nilai tersebut dimasukkan ke dalam tabel. Perhitungan Gain AkarGain Tertinggi Sebagai AkarDari hasil pada Node 1, dapat diketahui bahwa atribut dengan Gain tertinggi adalah HUMIDITY yaitu sebesar 0.37051. Dengan demikian HUMIDITY dapat menjadi node akar. Ada 2 nilai atribut dari HUMIDITY yaitu HIGH dan NORMAL. Dari kedua nilai atribut tersebut, nilai atribut NORMAL sudah mengklasifikasikan kasus menjadi 1 yaitu keputusan-nya Yes, sehingga tidak perlu dilakukan perhitungan lebih lanjut. Tetapi untuk nilai atribut HIGH masih perlu dilakukan perhitungan lagi. Node 1Buat cabang untuk tiap-tiap nilaiUntuk memudahkan, dataset di filter dengan mengambil data yang memiliki kelembaban HUMADITY=HIGH untuk membuat table Node 1.1
Perhitungan Entropi Dan Gain CabangPerhitungan Entropi Dan Gain CabangGain Tertinggi Sebagai Node 1.1Dari hasil pada Tabel Node 1.1, dapat diketahui bahwa atribut dengan Gain tertinggi adalah OUTLOOK yaitu sebesar 0.69951. Dengan demikian OUTLOOK dapat menjadi node kedua Artibut CLOUDY = YES dan SUNNY= NO sudah mengklasifikasikan kasus menjadi 1 keputusan, sehingga tidak perlu dilakukan perhitungan lebih lanjut. Tetapi untuk nilai atribut RAINY masih perlu dilakukan perhitungan lagi Node 1.1 Ulangi proses untuk setiap cabang sampai semua kasus pada cabang memiliki kelas yg sama
Gain Tertinggi Sebagai Node 1.1.2Dari tabel, Gain Tertinggi adalah WINDY dan menjadi node cabang dari atribut RAINY. Karena semua kasus sudah masuk dalam kelas Jadi, pohon keputusan pada Gambar merupakan pohon keputusan terakhir yang terbentuk Node 1.1.2Contoh Induksi Decision TreeTraining data set: Buys_computer Training data set: Buys_computerGain Ratio untuk seleksi atribut (C4.5)Indeks Gini(CART)Perhitungan Indeks GiniMembandingkan Ukuran Seleksi AtributTiga ukuran, secara umum, memberikan hasil yang baik tetapi
Tindakan Pemilihan Atribut Lainnya
Overfitting dan Tree Pruning
Mengapa induksi pohon keputusan populer?
|