Hai readers..
Perkembangan teknologi saat ini berkembang sangat pesat. Pada era ini, kecerdasan buatan menjadi perbincangan hangat baik di kalangan peneliti, pecinta riset, start-up, bahkan dunia industri. Salah satu kecerdasan buatan yang sedang hipe banget yaitu Neural Network.
Penasaran kan? Yuk simak sejarahnya!
Waren McCulloch |
Pada
era sekarang ini, sering sekali kita mendengar hal-hal tentang kecerdasan
buatan atau yang akrab dikenal dengan AI. Sebenarnya sistem semacam ini
sudah pernah ada sejak lama, yaitu
sejak munculnya konsep model komputasi dari
neuron otak pada tahun 1943 oleh Warren McCulloch dan Walter Pitts.
Walter Pitts |
Donals Olding Hebb |
Teori
yang dibuat oleh Hebb ini, selanjutnya dikenal sebagai “Hebbian Learning”.
Hebb menyatakan dalam postulatnya bahwa:
“When an axon of cell A is near enough to excite a cell B
and repeatedly or persistently takes part in firing it, some growth process or
metabolic change takes place in one or both cells such that A’s efficiency, as
one of the cells firing B, is increased.”[2]
Maksud dari
pernyataan Hebb adalah ketika sebuah sel A cukup dekat untuk mengeksitasi sel B
dan secara berulang dan terus-menerus memberikan informasi pada sel B, proses
pertumbuhan terjadi, sehingga sel A menjadi lebih efisien sebagaimana sel yang
memberi informasi pada B ditingkatkan atau diperbanyak. Pada pemikiran
Hebb, sudah terbentuk konsep jaringan saraf tiruan (Neural Network)
dengan ditunjukkan hubungan antar sel atau neuron (sel A terhubung sel B).
Model Jaringan Saraf Tiruan |
Pada
tahun 1950, seorang anggota riset laboratorium IBM bernama Nathaniel
Rochester gagal dalam mensimulasikan jaringan saraf tiruan pada komputer.
Namun pada tahun 1959, Bernard Widrow dan Marcian Hoff dari
Universitas Stanford mengembangkan model jaringan saraf tiruan yang disebut
dengan “ADALINE” (ADAptive LINear Elements) dan “MADALINE” (Multiple
ADALINE). ADALINE dikembangkan untuk mengenali pola biner, sehingga pada
saat ADALINE membaca streaming bit yang dikirimkan oleh telepon seluler
ia mampu memprediksi bit selanjutnya (meredam noise sinyal).
MADALINE
diterapkan sebagai filter adaptif untuk menghilangkan gema pada telepon
seluler. Tahun 1962, mereka mengembangkan sebuah prosedur learning dari
model mereka yaitu memeriksa nilai keluaran sebelum melakukan penyesuaian bobot
(weight adjust) berdasarkan aturan:
Pada tahun 1972, Kohonen dan Anderson mengembangkan jaringan saraf yang independen satu dengan yang lain. Mereka menggunakan matriks dalam mendeskripsikan ide mereka tanpa menyadari bahwa mereka telah membuat array dari rangkaian ADALINE analog. Neuronnya mengaktifkan sekumpulan output, tidak hanya satu output. Multilayered network pertama dikembangkan pada tahun 1975, sebuah unsupervised network (jaringan saraf tiruan yang dapat melakukan pengelompokan tanpa menetapkan label pada kelompok data).
Back propagation |
Tahun 1986, Rumelhart, Hinton dan Williams menerbitkan paper dengan judul “Learning Representations by Back-Propagating Errors”. metode ini merupakan metode umum/general dalam optimasi bobot dan bias, metode ini dapat diterapkan pada bermacam-macam model jaringan saraf tiruan. Backpropagation merupakan salah satu metode yang dapat memberikan hasil belajar (learning) secara baik, khususnya pada layer tersembunyi (hidden layer) yang ada di multilayered perceptron.
________________________________
Referensi:
[1]https://cs.stanford.edu/people/eroberts/courses/soco/projects/neural-networks/History/history1.html
lanjutkan :)
BalasHapus