expr:class='"loading" + data:blog.mobileClass'>

Selasa, 29 Oktober 2019

#3 Jaringan Saraf Tiruan (Neural Network) ada sejarahnya loh! | ILMU BARU

Hai readers..

   Perkembangan teknologi saat ini berkembang sangat pesat. Pada era ini, kecerdasan buatan menjadi perbincangan hangat baik di kalangan peneliti, pecinta riset, start-up, bahkan dunia industri. Salah satu kecerdasan buatan yang sedang hipe banget yaitu Neural Network. 

Penasaran kan? Yuk simak sejarahnya!

Waren McCulloch
Pada era sekarang ini, sering sekali kita mendengar hal-hal tentang kecerdasan buatan atau yang akrab dikenal dengan AI. Sebenarnya sistem semacam ini sudah pernah ada sejak lama, yaitu
sejak munculnya konsep model komputasi dari neuron otak pada tahun 1943 oleh Warren McCulloch dan Walter Pitts.


Walter Pitts
McCulloch berteori bahwa aktivitas neuron otak dapat dijelaskan secara matematis menggunakan kalkulus[1]. Teorema-teorema yang mereka buat, menjelaskan aktivitas-aktivitas neuron dan memodelkannya dalam bentuk matematis. Setelah Warren McCulloch, ada seorang psikolog asal Kanada yaitu Donald Olding Hebb (1949) yang membuat hipotesa pembelajaran yang dilakukan oleh otak berdasarkan sifat kontinuitas otak dalam berfikir.

Donals Olding Hebb
Teori yang dibuat oleh Hebb ini, selanjutnya dikenal sebagai “Hebbian Learning”. Hebb menyatakan dalam postulatnya bahwa:

“When an axon of cell A is near enough to excite a cell B and repeatedly or persistently takes part in firing it, some growth process or metabolic change takes place in one or both cells such that A’s efficiency, as one of the cells firing B, is increased.”[2]

Maksud dari pernyataan Hebb adalah ketika sebuah sel A cukup dekat untuk mengeksitasi sel B dan secara berulang dan terus-menerus memberikan informasi pada sel B, proses pertumbuhan terjadi, sehingga sel A menjadi lebih efisien sebagaimana sel yang memberi informasi pada B ditingkatkan atau diperbanyak. Pada pemikiran Hebb, sudah terbentuk konsep jaringan saraf tiruan (Neural Network) dengan ditunjukkan hubungan antar sel atau neuron (sel A terhubung sel B).
Model Jaringan Saraf Tiruan

Pada tahun 1950, seorang anggota riset laboratorium IBM bernama Nathaniel Rochester gagal dalam mensimulasikan jaringan saraf tiruan pada komputer. Namun pada tahun 1959, Bernard Widrow dan Marcian Hoff dari Universitas Stanford mengembangkan model jaringan saraf tiruan yang disebut dengan “ADALINE” (ADAptive LINear Elements) dan “MADALINE” (Multiple ADALINE). ADALINE dikembangkan untuk mengenali pola biner, sehingga pada saat ADALINE membaca streaming bit yang dikirimkan oleh telepon seluler ia mampu memprediksi bit selanjutnya (meredam noise sinyal). 
MADALINE diterapkan sebagai filter adaptif untuk menghilangkan gema pada telepon seluler. Tahun 1962, mereka mengembangkan sebuah prosedur learning dari model mereka yaitu memeriksa nilai keluaran sebelum melakukan penyesuaian bobot (weight adjust) berdasarkan aturan:

Pada tahun 1972, Kohonen dan Anderson mengembangkan jaringan saraf yang independen satu dengan yang lain. Mereka menggunakan matriks dalam mendeskripsikan ide mereka tanpa menyadari bahwa mereka telah membuat array dari rangkaian ADALINE analog. Neuronnya mengaktifkan sekumpulan output, tidak hanya satu output. Multilayered network pertama dikembangkan pada tahun 1975, sebuah unsupervised network (jaringan saraf tiruan yang dapat melakukan pengelompokan tanpa menetapkan label pada kelompok data).
Back propagation

Tahun 1986, RumelhartHinton dan Williams menerbitkan paper dengan judul “Learning Representations by Back-Propagating Errors”. metode ini merupakan metode umum/general dalam optimasi bobot dan bias, metode ini dapat diterapkan pada bermacam-macam model jaringan saraf tiruan. Backpropagation merupakan salah satu metode yang dapat memberikan hasil belajar (learning) secara baik, khususnya pada layer tersembunyi (hidden layer) yang ada di multilayered perceptron.
 ________________________________


Referensi:

1 komentar :

Silakan berkomentar dengan bijak.