Kapan menggunakan fungsi aktivasi sigmoid biner dan linear

Metrik

  • visibility 2135 kali dilihat
  • get_app 2437 downloads

Metode backpropagation merupakan metode yang sangat baik dalam menangani masalah pengenalan pola-pola kompleks. Di dalam jaringan backpropagation, setiap unit yang berada di lapisan input terhubung dengan setiap unit yang ada di lapisan tersembunyi. Hal serupa berlaku pula pada lapisan tersembunyi. Setiap unit yang ada pada lapisan tersembunyi terhubung dengan setiap unit yang ada di lapisan output. Fungsi aktivasi yang digunakan di dalam metode backpropagation adalah fungsi sigmoid biner (binary sigmoid function), sigmoid bipolar (bipolar sigmoid function). Karakteristik yang harus dimiliki fungsi aktivasi tersebut adalah kontinyu dan tidak menurun secara monoton. Dari hasil penelitian maka didapatkan bahwa penggunaan fungsi aktivasi sigmoid biner memiliki tingkat rata-rata akurasi yang lebih baik dari sigmoid bipolar. Akan kecepatan perhitungannya lebih lambat dibandingkan dengan sigmoid bipolar. Fungsi aktivasi sigmoid bipolar dipilih berdasarkan asumsi heuristik bahwa nilai rentang [0, 1] yang dihasilkan oleh fungsi sigmoid biner (unipolar) kurang bagus dibandingkan dengan rentang [-1, 1] yang dihasilkan fungsi yang sigmoid bipolar. Hasil ini disebabkan karena nilai ekstrim 0 yang dihasilkan fungsi sigmoid biner kurang memberikan pengaruh pada penghitungan nilai pada neuron, dibandingkan dengan nilai ekstrim -1 yang dihasilkan oleh fungsi sigmoid bipolar.

Kapan menggunakan fungsi aktivasi sigmoid biner dan linear

Daftar Isi:

  • Tujuan penelitian ini adalah untuk mengetahui perbandingan keakurasian Jaringan Syaraf Tiruan backpropagation menggunakan dua fungsi aktivasi yang berbeda. Peramalan hanya dilakukan dalam jangka pendek, arsitektur yang digunakan dalam penelitian ini adalah backpropagation dengan fungsi aktivasi sigmoid biner dan sigmoid bipolar. Berdasarkan hasil penelitian didapatkan bahwa peramalan yang menggunakan fungsi aktivasi sigmoid biner memiliki keakurasian yang lebih baik dibandingkan dengan fungsi aktivasi sigmoid bipolar. Fungsi aktivasi sigmoid bipolar hanya cocok digunakan dalam peramalan yang menggunakan data yang tidak fluktuatif. Hasil peramalan yang didapat memiliki keakurasian yang berbeda-beda sesuai dengan karakteristik data peramalan yang digunakan.

1.3 Bobot,Kalkulasi Input dan Fungsi Aktivasi

Dalam ANN, sinyal dari satu neuron ke neuron lain diberikan bobot (weight) yang pada awal proses, bobot-bobot ini akan ditentukan secara acak. Bobot adalah salah satu parameter yang sangat penting dalam proses penyelesaian masalah karena kesesuaian bobot yang digunakan menunjukan tingkat keberhasilan pembelajaran terhadap suatu pola yang akan dikenali. Dalam rangka penyesuaian bobot inilah maka dilakukan kalkulasi data-data pada input dengan bobot yang membawanya sehingga menghasilkan output yang sesuai dengan permasalahan yang akan diselesaikan. Dalam implementasi, arsitektur ANN yang digunakan pada umumnya akan terdiri dari beberapa layer yang merupakan representasi dari input, hidden dan output. Jika arsitektur ANN digambarkan sebagai(Gambar 1)[1];

Kapan menggunakan fungsi aktivasi sigmoid biner dan linear

sehingga kalkulasi kombinasi linear antara input dengan bobot dijumlahkan dengan bias dirumuskan dengan persamaan:

Kapan menggunakan fungsi aktivasi sigmoid biner dan linear

untuk j = 1, 2, …, l, dimana l adalah total jumlah neuron pada layer h. Hasil dari kombinasi linear ini akan menjadi input pada fungsi aktivasi yang dipilih. Fungsi aktivasi berperan untuk memberikan output pada setiap neuron, terdapat beberapa fungsi aktivasi yang dapat digunakan sesuai dengan masalah yang akan diselesaikan. Dengan tujuan untuk mempermudah pemahaman, maka jika dinotasikan,

Kapan menggunakan fungsi aktivasi sigmoid biner dan linear

maka fungsi-fungsi aktivasi dinyatakan sebagai:

  1. Fungsi Linear
    Kapan menggunakan fungsi aktivasi sigmoid biner dan linear
    Fungsi linear menghasilkan output yang sama dengan hasil kombinasi linear dan digambarkan pada Gambar 2 berikut

    Kapan menggunakan fungsi aktivasi sigmoid biner dan linear

  2. Fungsi Step, Fungsi step terbagi atas 2, yaitu fungsi step biner atau dikenal juga sebagai fungsi hard limit dimana nilai output adalah;

    Kapan menggunakan fungsi aktivasi sigmoid biner dan linear

  3. Fungsi Sigmoid Fungsi sigmoid digunakan untuk memperoleh output yang bersifat nonlinear, dirumuskan sebagai,

    Kapan menggunakan fungsi aktivasi sigmoid biner dan linear


    Output yang dihasilakn oleh fungsi sigmoid akan membentuk grafik yang ditunjukan oleh Gambar 4
  4. Fungsi Hyperbolic Tangent Sigmoid Hyperbolic Tangent Sigmoid memiliki persamaan

    Kapan menggunakan fungsi aktivasi sigmoid biner dan linear
    Kapan menggunakan fungsi aktivasi sigmoid biner dan linear
    Kapan menggunakan fungsi aktivasi sigmoid biner dan linear

  5. Fungsi Rectified Linear Unit (ReLU)
    Fungsi ReLU diperkenalkan oleh G.Hinton dan V.Nair pada tahun 2010 [2]. Fungsi ini digunakan pada kontex convolutional neural networks yang akan dibahas pada Bab 5. Fungsi ReLU dinyatakan dengan persamaan

    Kapan menggunakan fungsi aktivasi sigmoid biner dan linear

  6. Fungsi Gaussian Fungsi Gaussian memiliki persamaan

    Kapan menggunakan fungsi aktivasi sigmoid biner dan linear


    Kapan menggunakan fungsi aktivasi sigmoid biner dan linear

    yaitu hasil output pada neuron ke-j pada layer ke-h. Penggunaan fungsi aktivasi sangat bergantung pada permasalahan yang akan diselesaikan. Untuk kasuskasus linear penggunaan fungsi aktivasi step atau linear akan sangat efekti. Namun, untuk kasus-kasus nonlinear penggunaan fungsi sigmoid, tanh, ReLU ataupun Gaussian akan memberikan hasil yang baik. Nilai output yang menjadi target juga menjadi pertimbangan dalam pemilihan fungsi aktivasi. Sigmoid akan efektif digunakan jika target output memiliki interval nilai [0, 1], tanh untuk interval [−1, 1], Gaussian untuk interval (0, 1] dan ReLU untuk interval [0, ∞).

Published at : 17 July 2018

Kapan menggunakan fungsi aktivasi sigmoid biner dan linear