Sejarah kecerdasan buatan

Sejarah kecerdasan buatan dimulai pada zaman kuno dalam mitos, cerita, dan desas-desus tentang makhluk buatan yang diberkahi dengan kecerdasan atau kesadaran oleh pengrajin. Benih-benih kecerdasan buatan modern ditanam oleh para filsuf klasik yang berusaha menggambarkan proses berpikir manusia sebagai manipulasi simbol secara mekanis. Karya ini memuncak dalam penemuan komputer digital yang dapat diprogram pada tahun 1940-an, sebuah mesin yang didasarkan pada esensi abstrak penalaran matematika. Perangkat ini dan ide-ide di baliknya menginspirasi segelintir ilmuwan untuk mulai serius membahas kemungkinan membangun otak elektronik.[1]

Istilah kecerdasan buatan pertama kali dikemukakan pada tahun 1956 di Konferensi Darthmouth. Sejak saat itu, kecerdasan buatan terus dikembangkan sebab berbagai penelitian mengenai teori-teori dan prinsip-prinsipnya juga terus berkembang. Meskipun istilah kecerdasan buatan baru muncul tahun 1956, tetapi teori-teori yang mengarah ke kecerdasan buatan sudah muncul sejak tahun 1941.

Era Komputer Elektronik (1941) sunting

Pada tahun 1941 telah ditemukan alat penyimpanan dan pemrosesan informasi. Penemuan tersebut dinamakan komputer elektronik yang dikembangkan di USA dan Jerman. Komputer pertama ini memerlukan ruangan yang luas dan ruang AC yang terpisah. Saat itu komputer melibatkan konfigurasi ribuan kabel untuk menjalankan suatu program. Hal ini sangat merepotkan para programmer.

Pada tahun 1949, berhasil dibuat komputer yang mampu menyimpan program sehingga membuat pekerjaan untuk memasukkan program menjadi lebih mudah. Penemuan ini menjadi dasar pengembangan program yang mengarah ke kecerdasan buatan.

Masa-masa Persiapan AI (1943 - 1956 ) sunting

Pada tahun 1943, Warren McCulloch dan Walter Pitt mengemukakan tiga hal : pengetahuan fisiologi dasar dan fungsi sel syaraf dalam otak, analisis formal tentang logika proposisi, dan teori komputasi Turing. Mereka berhasil membuat suatu model sel syaraf tiruan dimana setiap sel syaraf digambarkan sebagai ‘on’ dan ‘off’. Mereka menunjukkan bahwa setiap fungsi dapat dihitung dengan suatu jaringan sel syaraf dan bahwa semua hubungan logis dapat diimplementasikan dengan struktur jaringan yang sederhana.

Pada tahun 1950, Nobert Wiener membuat penelitian mengenai prinsip-prinsip teori feedback. Contoh yang terkenal adalah thermostat. Penemuan ini juga merupakan awal dari perkembangan AI.

Pada tahun 1956, John McCarthy meyakinkan Minsky, Claude Shannon dan Nathaniel Rochester untuk membantunya melakukan penelitian dalam bidan Otomata, Jaringan Syaraf dan pembelajaran intelijensia. Mereka mengerjakan proyek ini selama 2 bulan di Dartsmouth. Hasilnya adalah program yang mampu berpikir non-numerik dan menyelesaikan masalah pemikiran, yang dinamakan Principia Mathematica. Hal ini menjadikan McCarthy disebut sebagai bapak kecerdasan buatan.

Awal Perkembangan AI ( 1952 - 1969 ) sunting

Pada tahun-tahun pertama perkembangannya, kecerdasan buatan mengalami banyak kesuksesan. Diawali dengan kesuksesan Newell dan Simon dengan ssebuah program yang disebut General Problem Solver. Program ini dirancang untuk memulai penyelesaian masalah secara manusiawi.

Pada tahun 1958, McCarthy di MIT AI Lab Memo No.1 mendefinisikan bahasa pemrograman tingkat tinggi yaiyu LISP, yang sekarang mendominasi pembuatan program-pogram kecerdasan buatan. Kemudian, McCarthy membuat program yang dinamakan Programs with Common Sense. Di dalam program tersebut, dibuat rancangan untuk menggunakan pengetahuan dalam mencari solusi.

Pada tahun 1959, Nathaniel Rochester dari IBM dan mahasiswa-mahasiswanya mengeluarkan program kecerdasan buatan yaitu Geometry Theorm Prover. Program ini dapat mengeluarkan suatu teorema menggunakan aksioma-aksioma yang ada.

Pada tahun 1963, program yang dibuat James Slagle mampu menyelesaikan masalah integral tertutup untuk mata kuliah Kalkulus.

Pada tahun 1986, program analogi buatan Tom Evan menyelesaikan masalah analogi geometris yang ada pada tes IQ.

Perkembangan Kecerdasan Buatan Melambat ( 1966 - 1974 ) sunting

Perkembangan kecerdasan buatan melambat disebabkan adanya 3 kesulitan utama, yaitu :

  • Program-program kecerdasan buatan yang bermunculan hanya mengandung sedikit atau bahkan tidak mengandung sama sekali pengetahuan (knowledge) pada subjeknya. Programm-program kecerdasan buatan berhasil hanya karena manipulasi sederhana. Sebagai contoh adalah Weizenbaum’s ELIZA program (1965) yang dapat melakukan percakapan serius pada berbagai topik, sebenarnya hanyalah peminjaman manipulasi kalimat-kalimat yang diketikkan manusia.
  • Banyak masalah yang harus diselesaikan oleh kecerdasan buatan.
  • Ada beberapa batasan pada struktur dasar yang digunakan untuk menghasilkan perilaku intelijensia.

Sistem berbasis Pengetahuan ( 1969 - 1979 ) sunting

Pengetahuan adalah kekuatan pendukung kecerdasan buatan. Hal ini dibuktikan dengan program yang dibuat oleh Ed Feingenbaum, Bruce Buchanan dan Joshua Lederberg yang membuat program untuk memecahkan masalah struktur molekul dari informasi yang didapatkan dari spectrometer massa. Program ini dinamakan Dendral Programs yang berfokus pada segi pengetahuan kimia. Dari segi diagnose medis juga sudah ada yang menemukannya, yaitu Sau Amarel dalam proyek Computer in Biomedicine. Proyek ini diawali keinginan untuk mendapatkan diagnose penyakit berdasarkan pengetahuan yang ada pada mekanisme penyebab proses penyakit.

Kecerdasan Buatan menjadi Sebuah Industri ( 1980 - 1988 ) sunting

Industrialisasi kecerdasan buatan diawali dengan ditemukannya sistem pakar yang dinamakan R1 yang mampu mengkonfigurasi system-sistem computer baru. Program tersebut mulai dioperasikan di Digital Equipment Corporation (DEC), McDermott, pada tahun 1982.

Pada tahun 1986, R1 telah berhasil menghemat US$ 40 juta per tahun.

Pada tahun 1988, kelompok kecerdasan buatan di DEC menjalankan 40 sistem pakar. Hampir semua perusahaan besar di USA mempunyai divisi AI. Sehingga perusahaan yang sejak tahun 1982 hanya menghasilkan beberapa juta US dolar per tahun meningkat menjadi 2 miliar US dolar per tahun pada tahun 1988.

Kembalinya Jaringan Syaraf Tiruan ( 1986 - Sekarang ) sunting

Meskipun bidang ilmu komputer menolak jaringan syaraf tiruan setelah diterbitkannya buku “Perceptrons” karangan Minsky dan Papert, para ilmuwan masih mempelajari bidang ilmu tersebut dari sudut pandang yang lain, yaitu fisika. Para ahli fisika seperti Hopfield (1982) menggunakan teknik-teknik mekanika statistika untuk menganalisia sifat-sifat penyimpanan dan optimasi pada jaringan syaraf. Para ahli psikologi, David Rumelhart dan Geoff Hinton, melanjutkan penelitian mengenai model jaringan syaraf tiruan pada memori.

Pada tahun 1985-an setidaknya empat kelompok riset menemukan kembali algoritma belajar propagasi balik (Back-Propagation Learning). Algoritma ini berhasil diimplementasikan ke dalam bidang ilmu komputer dan psikologi.

Bacaan lanjutan sunting

Referensi sunting