Kamis, 29 September 2016

PEMAHAMAN ARTIFICAL NEURAL NETWORK

Standard
Cabang ilmu kecerdasan buatan cukup luas, dan erat kaitannya dengan disiplin ilmu yang lainnya. Hal ini bisa dilihat dari berbagai aplikasi yang merupakan hasil kombinasi dari berbagai ilmu. Seperti halnya yang ada pada peralatan medis yang berbentuk aplikasi. Sudah berkembang bahwa aplikasi yang dibuat merupakan hasil perpaduan dari ilmu kecerdasan buatan dan juga ilmu kedokteran atau lebih khusus lagi yaitu ilmu biologi.
Neural Network merupakan kategori ilmu Soft Computing. Neural Network sebenarnya mengadopsi dari kemampuan otak manusia yang mampu memberikan stimulasi/rangsangan, melakukan proses, dan memberikan output. Output diperoleh dari variasi stimulasi dan proses yang terjadi di dalam otak manusia. Kemampuan manusia dalam memproses informasi merupakan hasil kompleksitas proses di dalam otak. Misalnya, yang terjadi pada anak-anak, mereka mampu belajar untuk melakukan pengenalan meskipun mereka tidak mengetahui algoritma apa yang digunakan. Kekuatan komputasi yang luar biasa dari otak manusia ini merupakan sebuah keunggulan di dalam kajian ilmu pengetahuan.
Fungsi dari Neural Network diantaranya adalah:
  1. Pengklasifikasian pola
  2. Memetakan pola yang didapat dari input ke dalam pola baru pada output
  3. Penyimpan pola yang akan dipanggil kembali
  4. Memetakan pola-pola yang sejenis
  5. Pengoptimasi permasalahan
  6. Prediksi
Sejarah Neural Network
Perkembangan ilmu Neural Network sudah ada sejak tahun 1943 ketika Warren McCulloch dan Walter Pitts memperkenalkan perhitungan model neural network yang pertama kalinya. Mereka melakukan kombinasi beberapa processing unit sederhana bersama-sama yang mampu memberikan peningkatan secara keseluruhan pada kekuatan komputasi.


Gambar 2.1 McCulloch & Pitts, penemu pertama Neural Network

Hal ini dilanjutkan pada penelitian yang dikerjakan oleh Rosenblatt pada tahun 1950, dimana dia berhasil menemukan sebuah two-layer network, yang disebut sebagai perceptron. Perceptron memungkinkan untuk pekerjaan klasifikasi pembelajaran tertentu dengan penambahan bobot pada setiap koneksi antar-network.


Gambar 2.2 Perceptron

Keberhasilan perceptron dalam pengklasifikasian pola tertentu ini tidak sepenuhnya sempurna, masih ditemukan juga beberapa keterbatasan didalamnya. Perceptron tidak mampu untuk menyelesaikan permasalahan XOR (exclusive-OR). Penilaian terhadap keterbatasan neural network ini membuat penelitian di bidang ini sempat mati selama kurang lebih 15 tahun. Namun demikian, perceptron berhasil menjadi sebuah dasar untuk penelitian-penelitian selanjutnya di bidang neural network. Pengkajian terhadap neural network mulai berkembang lagi selanjutnya di awal tahun 1980-an. Para peneliti banyak menemukan bidang interest baru pada domain ilmu neural network. Penelitian terakhir diantaranya adalah mesin Boltzmann, jaringan Hopfield, model pembelajaran kompetitif, multilayer network,  dan teori model resonansi adaptif.
Untuk saat ini, Neural Network sudah dapat diterapkan pada beberapa task, diantaranya classification, recognition, approximation, prediction, clusterization, memory simulation dan banyak task-task berbeda yang lainnya, dimana jumlahnya semakin bertambah seiring berjalannya waktu.
Konsep Neural Network
1.  Proses Kerja Jaringan Syaraf Pada Otak Manusia
Ide dasar Neural Network dimulai dari otak manusia, dimana otak memuat  sekitar 1011 neuron. Neuron ini berfungsi memproses setiap informasi yang masuk. Satu neuron memiliki 1 akson, dan minimal 1 dendrit. Setiap sel syaraf terhubung dengan syaraf lain, jumlahnya mencapai sekitar 104 sinapsis. Masing-masing sel itu saling berinteraksi satu sama lain yang menghasilkan kemampuan tertentu pada kerja otak manusia.


Gambar 2.3 Struktur Neuron pada otak manusia

Dari gambar di atas, bisa dilihat ada beberapa bagian dari otak manusia, yaitu:
  1. Dendrit (Dendrites) berfungsi untuk mengirimkan impuls yang diterima ke badan sel syaraf.
  2. Akson (Axon) berfungsi untuk mengirimkan impuls dari badan sel ke jaringan lain
  3. Sinapsis berfungsi sebagai unit fungsional di antara dua sel syaraf.
Proses yang terjadi pada otak manusia adalah:
Sebuah neuron menerima impuls dari neuron lain melalui dendrit dan mengirimkan sinyal yang dihasilkan oleh badan sel melalui akson. Akson dari sel syaraf ini bercabang-cabang dan berhubungan dengan dendrit dari sel syaraf lain dengan cara mengirimkan impuls melalui sinapsis. Sinapsis adalah unit fungsional antara 2 buah sel syaraf, misal A dan B, dimana yang satu adalah serabut akson dari neuron A dan satunya lagi adalah dendrit dari neuron B. Kekuatan sinapsis bisa menurun/meningkat tergantung seberapa besar tingkat propagasi (penyiaran) sinyal yang diterimanya. Impuls-impuls sinyal (informasi) akan diterima oleh neuron lain jika memenuhi batasan tertentu, yang sering disebut dengan nilai ambang (threshold).
2.  Struktur Neural Network
Dari struktur neuron pada otak manusia, dan proses kerja yang dijelaskan di atas, maka konsep dasar pembangunan neural network buatan (Artificial Neural Network) terbentuk. Ide mendasar dari Artificial Neural Network (ANN) adalah mengadopsi mekanisme berpikir sebuah sistem atau aplikasi yang menyerupai otak manusia, baik untuk pemrosesan berbagai sinyal elemen yang diterima, toleransi terhadap kesalahan/error, dan juga parallel processing.


Gambar 2.4 Struktur ANN

Karakteristik dari ANN dilihat dari pola hubungan antar neuron, metode penentuan bobot dari tiap koneksi, dan fungsi aktivasinya. Gambar di atas menjelaskan struktur ANN secara mendasar, yang dalam kenyataannya tidak hanya sederhana seperti itu.
  1. Input, berfungsi seperti dendrite
  2. Output, berfungsi seperti akson
  3. Fungsi aktivasi, berfungsi seperti sinapsis
Neural network dibangun dari banyak node/unit yang dihubungkan oleh link secara langsung. Link dari unit yang satu ke unit yang lainnya digunakan untuk melakukan propagasi aktivasi dari unit pertama ke unit selanjutnya. Setiap link memiliki bobot numerik. Bobot ini menentukan kekuatan serta penanda dari sebuah konektivitas.
Proses pada ANN dimulai dari input yang diterima oleh neuron beserta dengan nilai bobot dari tiap-tiap input yang ada. Setelah masuk ke dalam neuron, nilai input yang ada akan dijumlahkan oleh suatu fungsi perambatan (summing function), yang bisa dilihat seperti pada di gambar dengan lambang sigma (∑). Hasil penjumlahan akan diproses oleh fungsi aktivasi setiap neuron, disini akan dibandingkan hasil penjumlahan dengan threshold (nilai ambang) tertentu. Jika nilai melebihi threshold, maka aktivasi neuron akan dibatalkan, sebaliknya, jika masih dibawah nilaithreshold, neuron akan diaktifkan. Setelah aktif, neuron akan mengirimkan nilai output melalui bobot-bobot outputnya ke semua neuron yang berhubungan dengannya. Proses ini akan terus berulang pada input-input selanjutnya.
ANN terdiri dari banyak neuron di dalamnya. Neuron-neuron ini akan dikelompokkan ke dalam beberapa layer. Neuron yang terdapat pada tiap layer dihubungkan dengan neuron pada layer lainnya. Hal ini tentunya tidak berlaku pada layer input dan output, tapi hanya layer yang berada di antaranya. Informasi yang diterima di layer input dilanjutkan ke layer-layer dalam ANN secara satu persatu hingga mencapai layer terakhir/layer output. Layer yang terletak di antara input dan output disebut sebagai hidden layer. Namun, tidak semua ANN memiliki hidden layer, ada juga yang hanya terdapat layer input dan output saja.

Contoh, misalkan kita memberikan data training pada sistem untuk proses pembagian;
Data Input_1   = 8
Data Input_2   = 2
Output             = 4

Maka, kita telah mengajarkan pada sistem apabila inputan terdiri dari angka 8 dan 2, maka outputnya adalah 4. Akan tetapi, jika hanya diberikan satu contoh, sistem tidak akan belajar dengan baik. Sebaiknya diberikan data training sebanyak mungkin, agar sistem dapat belajar dengan baik dan handal.
Struktur asitektur dari Neural Network pada umumnya terdiri dari 3 layer, yang menjadi ciri khas dari sistem NN ini, yaitu Input Layer, Hidden Layer, dan Output Layer. Tiap Layer terdiri dari unit-unit node yang jumlahnya dapat kita tentukan sendiri, bias dibayangkan bahwa tiap node pada sistem Neural Network ibaratnya seperti neuron pada otak manusia.
·         Input Layer :
Input Layer, merupakan data-data yang kita masukkan sebagai data training pada sistem ANN. Banyaknya jumlah node pada input layer tergantung pada jumlah data input yang telah kita masukkan ke dalam sistem.

·         Hidden Layer:
Jumlah node pada hidden layer sangat bervariasi, akan tetapi pada umumnya jumlah node pada hidden layer adalah 5 yang dianggap sudah mencukupi untuk memecahkan berbagai macam kasus. Ada juga teori yang dapat menentukan banyak-nya node pada hidden layer denga tepat.

·         Output Layer:
Banyak-nya node pada output layer tergantung dari sistem ANN itu sendiri. Data output juga termasuk dari data training yang sebelumnya telah diberikan.

Konsep dari sistem ANN yang penting adalah nilai Error minimum yang diharapkan. Pada saat ANN di-inisialisasi akan dibangkitkan nilai random untuk koneksi antar node dari suatu layer dengan layer sesudahnya, jadi antar node-node di hidden layer saling terkoneksi satu sama lain dengan node-node di hidden layer, dan antar node-node di hidden layer akan saling terkoneksi satu sama lain dengan node-node pada output layer. Nilai koneksi antar node tersebut sering disebut 'bobot'. Nilai bobot inilah yang akan menentukan kecerdasan suatu sistem. Pada saat proses training, nilai bobot tersebut akan terus berubah sehingga didapatkan kesesuaian antara input dengan output dengan Error minimum. Dengan kata lain, pada proses training kita akan menentukan nilai minimum error yang bisa di tolerir oleh sistem, sistem tidak akan memberikan kepastian jawaban untuk suatu kasus yang tidak pernah dilatihkan kepadanya, pasti ada nilai Error dari jawaban sistem dengan jawaban yang seharusnya, nilai Error tersebut yang harus di-definisikan oleh kita sebelum melatih sistem sehingga sistem bisa menjawab dengan tingkat kebenaran semaksimal mungkin (misalnya : tingkat kebenaran sistem 99,9999% dengan nilai Error 0.0001). 

Daftar Pustaka :

1 . http://socs.binus.ac.id/2012/07/26/konsep-neural-network/

Logika Fuzzy ( Fuzzy Logic )

Standard
Logika fuzzy adalah komponen pembentuk soft computing. Dasar logika fuzzy adalah teori himpunan fuzzy. Himpunan fuzzy adalah kelas objek dengan rangkaian nilai keanggotaan. Himpunan tersebut ditandai dengan fungsi keanggotaan yang diberikan kepada setiap objek dengan nilai berkisar antara nol dan satu. Notasi yang digunakan antara laininclusionunionintersectionkomplemen, relasi, berbagai sifat dari notasi dalam konteks himpunan fuzzy juga diterapkan. Secara khusus, teorema pemisah untuk himpunan fuzzy adalah memberikan pemisah tanpa harus benar- benar memisahkan himpunan fuzzy tersebut (Zadeh, 1965:8).

Himpunan Fuzzy

Himpunan fuzzy pertama kali dikembangkan pada tahun 1965 oleh Zadeh, teori himpunan fuzzy telah banyak dikembangkan dan diaplikasikan dalam berbagai masalah nyata. Ada beberapa hal yang perlu diketahui dalam memahami himpunan fuzzy (Susilo, 2003), yaitu:
  1. Variabel fuzzy merupakan variabel yang hendak dibahas dalam suatu sistem fuzzy. Contoh: permintaan, persediaan, produksi.
  2. Himpunan fuzzy merupakan suatu grup yang mewakili suatu kondisi atau keadaan tertentu dalam suatu variabelfuzzy. Himpunan fuzzy memiliki dua atribut, yaitu (Kusumadewi, 2013): a). Linguistik, yaitu penamaan suatu grup yang mewakili suatu keadaan atau kondisi tertentu dengan menggunakan bahasa alami. Contoh: muda, parobaya, tua. b). Numeris, yaitu suatu nilai angka yang menunjukkan ukuran dari suatu variabel. Contoh: 3, 4, 17.
  3. Semesta pembicaraan adalah keseluruhan nilai yang diperbolehkan untuk dioperasikan dalam suatu variabel fuzzy. Contoh: semesta pembicaraan untuk variabel temperatur: X= [0,100]
  4. Domain himpunan fuzzy adalah keseluruhan nilai yang diizinkan dalam semesta pembicaraan dan boleh dioperasikan dalam suatu himpunan fuzzy. Contoh domain himpunan fuzzy untuk semesta X=[0, 120].

Operasi Himpunan Fuzzy

Operasi himpunan fuzzy digunakan untuk mengkombinasi dan memodifikasi himpunan fuzzy. Nilai keanggotaan sebagai hasil dari operasi dua himpunan sering dikenal dengan nama fire strength atau α-cut. Ada tiga operator dasar yang diciptakan oleh Zadeh, yaitu: AND, OR, dan NOT.

a. Operator AND

Operator AND (intersection) berhubungan dengan operasi irisan pada himpunan. Intersection dari 2 himpunan adalah minimum dari tiap pasangan elemen pada kedua himpunan. Contoh: (A∩B)(x) = min[A(x), B(x)].

b. Operator OR

Operasi OR (union) berhubungan dengan operasi gabungan pada himpunan. Union dari 2 himpunan adalah maksimum dari tiap pasang elemen pada kedua himpunan. Contoh: (AUB)(x) = max[A(x), B(x)].

c. Operator NOT

Operasi NOT  berhubungan dengan operasi komplemen pada himpunan. Komplemen himpunan fuzzy A diberi tanda Ac (NOT A) dan didefinisikan sebagai : Ac (x) = 1 – A(x). Derajat keanggotaannya adalah µAc (x) = 1 - µA(x).

Fungsi Keanggotaan

Fungsi keanggotaan adalah suatu kurva yang menunjukkan pemetaan titik-titik input data ke dalam nilai keanggotaannya yang memiliki interval antara 0 sampai 1. Salah satu cara yang digunakan untuk menggambarkan nilai keanggotaan adalah dengan melalui pendekatan fungsi. Ada beberapa fungsi yang digunakan yaitu.

a. Representasi Linier 

Pada representasi linear, pemetaan input ke derajat keanggotaannya digambarkan sebagai suatu garis lurus. Ada dua representasi linier, yaitu:
  1. Representasi linear naik, yaitu kenaikan himpunan dimulai dari nilai domain yang memiliki nilai keanggotaan nol [0] bergerak ke kanan menuju ke nilai domain yang memiliki derajat keanggotaan yang lebih tinggi. Representasi linier naik dapat dilihat pada Gambar 1. 
  2. Representasi linier naik
  3. Representasi linear turun, yaitu garis lurus yang dimulai dari nilai domain dengan derajat keanggotaan tertinggi pada sisi kiri, kemudian bergerak turun ke nilai domain yang memiliki derajat keanggotaan lebih rendah. Representasi linier turun dapat dilihat pada Gambar 2.
  4. Representasi linier turun

b. Representasi Kurva Segitiga

Representasi kurva segitiga adalah gabungan antara representasi linear naik dan representasi linear turun. Representasi kurva segitiga dapat dilihat pada Gambar 3 .

Preposisi Fuzzy

Sebuah kalimat logika A → B, simbol A disebut preposisi dan A(x) adalah sebuah preposisi mengenai x. Bentuk sederhana dari preposisifuzzy adalah p: V is G dimana p adalah sebuah preposisi, V adalah domain dan G adalah fuzzy set. Misal V diganti mengganti himpunan usia N100={1,2,3,4,5,…100} dan G adalah bentuk linguistik seperti “muda” yang dimodelkan dengan himpunan fuzzy didefinisikan untuk himpunan usia, sehingga dapat dibuat kalimat "Adi is muda". Sebagai sebuah preposisi, kalimat tersebut dibaca "usia (Adi) is muda".

Fungsi Implikasi

Bentuk umum  dari aturan yang digunakan untuk fungsi implikasi adalah if x is A then y is B, dengan x dan y sebagai skalar, sedangkan A dan B adalah himpunan fuzzy. Proposisi yang terletak setelah if disebut antiseden, dan proposisi yang terletak setelah then disebut konsekuen. Secara umum ada dua fungsi implikasi yang digunakan dalam operrasi fuzzy, yaitu:
  1. Min (minimum). Fungsi ini memotong output himpunan fuzzy. 
  2. Dot (product). Fungsi ini menskala output himpunan fuzzy. 

Sistem Inferensi Fuzzy

Sistem inferensi fuzzy yaitu sistem komputasi yang bekerja atas dasar prinsip penalaran fuzzy. Sistem inferensi fuzzy digunakan untuk memetakan nilai input menjadi nilai output menggunakan logika fuzzy. Sistem inferensi fuzzy dewasa ini banyak digunakan untuk berbagai macam keperluan, seperti sistem pendukung keputusan, penentuan produksi barang, pengenalan pola.Sistem inferensi fuzzy terdiri dari empat unit, yaitu :
  1. Fuzzifikasi adalah proses perubahan variabel numerik menjadi variabel linguistik. Fungsi fuzzifikasi digunakan untuk mengubah nilai tegas, misal a∈B, ke suatu himpunan fuzzy C dengan nilai keanggotaan a. Fuzzifikasi diharapkan dapat membantu menyederhanakan komputasi yang harus dilakukan oleh sistem tersebut dalam proses inferensinya.
  2. Penalaran logika fuzzy adalah suatu cara penarikan kesimpulan berdasarkan seperangkat implikasi fuzzy dan suatu fakta yang diketahui. Salah satu aturan penalaran yang paling sering dipergunakan adalah modus ponen, yang didasarkan pada tautologi:(p ^ ( p=>q))=>q. Bentuk penalaran modus ponen adalah sebagai berikut : Premis 1x adalah A, Premis 2.  Bila x adalah A, maka y adalah B.Kesimpulan y adalah B. Proses penarikan kesimpulan diatas terdiri dari sebuah proposisi tunggal sebagai fakta yang diketahui (premis 1), sebuah proposisi majemuk berbentuk implikasi, yang merupakan suatu kaidah atau aturanyang berlaku (premis 2) dan kesimpulan yang ditarik berdasarkan kedua proposisi tersebut.
  3. Basis pengetahuan memuat fungsi-fungsi keanggotaan dari himpunan-himpunan fuzzyyang terkait dengan nilai dari variabel-variabel linguistik yang dipakai dan aturan-aturan berupa implikasi fuzzy.
  4. Defuzzifikasi digunakan menerjemahkan himpunan nilai keluaran kedalam nilai yang tegas. Ada beberapa metode defuzzifikasi dalam pemodelan sistem fuzzy, yaitu :
    • Metode Centroid. Pada metode ini, solusi nilai tegas diperoleh dengan mengambil titik pusat (z*) daerah fuzzy.
    • Metode Bisektor. Pada metode ini, solusi nilai tegas diperoleh dengan cara mengambil nilai pada domain fuzzy yang memiliki nilai keanggotaan setengah dari jumlah total nilai keanggotaan pada daerah fuzzy.
    • Metode Mean of Maximum (MOM). Pada metode ini solusi nilai tegas diperoleh dengan cara mengambil nilai rata-rata domain yang memiliki nilai keanggotaan maksimum.
    • Metode Largest of Maximum (LOM). Pada metode ini, solusi nilai tegas diperoleh dengan cara mengambil nilai terbesar dari domain yang memiliki nilai keanggotaan maksimum.
    • Metode Smallestof Maximum(SOM). Pada metode ini, solusi nilai tegas diperoleh dengan cara mengambil nilai terkecil dari domain yang memiliki nilai kanggotaan maksimum.
Tahapan-tahapan dalam sistem inferensi fuzzy secara runtut dapat dilihat pada Gambar 4.

Tahapan Inferensi Fuzzy

Contoh :
APLIKASI.
1.      Pada tahun 1990 pertama kali dibuat mesin cuci dengan logika fuzzy di Jepang (Matsushita Electric Industrial Company). Sistem fuzzy digunakan untuk menentukan putaran yang tepat secara otomatis berdasarkan jenis dan banyaknya kotoran serta jumlah yang akan dicuci. Selain mesin cuci Mesin cuci otomatis satu tabung yang muktahir saat ini sering mencantumkan kata fuzzy logic sebagai bagian dari promosinya. Cara kerjanya gampang, tinggal memasukkan baju kotor kedalam tabungnnya, tekan satu atau beberapa tombol dan mesin ini akan melakukan sisanya untuk anda. Mengisi air dengan jumlah yang cukup, mengisi deterjen dan mencuci dengan waktu yang sesuai. Mesin ini bekerja meniru cara ibu rumah tangga mencuci dengan mesin cuci konvensional. Ibu rumah tangga akan mengisi air dan deterjen yang secukupnya sesuai dengan banyaknya baju yang hendak dicuci agar lebih hemat, lalu memutar timer yang sesuai dengan tingkat kekotoran pakaian. Jika pakaian lebih kotor maka timer dibuat lebih lama. Di sini lah contohnya metode logika fuzzy dipakai, dengan menjawab pernyataan jika dan maka (IF THEN). Jika pakaian yang dicuci tidak terlalu kotor maka mencuci mestinya harus lebih cepat. Dengan menimbang tingkat kekotoran kain yang di realisasikan dengan mengukur tingkat kekeruhan air cucian dengan sensor cahaya, mesin dapat memutuskan berapa lama harus mencuci pakaian supaya lebih hemat dan efisien.

2.      Transmisi otomatis pada mobil. Mobil Nissan telah menggunakan asistem fuzzy pada transmisi otomatis dan mampu menghemat bensin 12-17%3.

3.      Kereta bawah tanah Sendai mengontrol pemberhentian otomatis pada area tertentu.

4.      Ilmu kedokteran dan biologi, seperti sistem diagnosis yang didasarkan pada logika fuzzy.

5.      Manajemen dan pengambilan keputusan, seperti manajemen basis data, tata letak pabrik, pembuatan games yang didasarkan pada logika fuzzy.


6.      Ekonomi, pemodelan fuzzy pada sistem pemasaran yang kompleks.

Daftar Pustaka : 
1 . Ebook ( https://www.academia.edu/19166449/Logika_Fuzzy_by_Sri_Kusuma )

Sistem Pakar ( Artical Intelegence )

Standard
Definisi Artical Intelegence )
  • H. A. Simon [1987] :
    “ Kecerdasan buatan (artificial intelligence) merupakan kawasan
    penelitian, aplikasi dan instruksi yang terkait dengan pemrograman
    komputer untuk melakukan sesuatu hal yang -dalam pandangan manusia adlah cerdas”
  • Rich and Knight [1991]:
    “Kecerdasan Buatan (AI) merupakan sebuah studi tentang bagaimana
    membuat komputer melakukan hal-hal yang pada saat ini dapat
    dilakukan lebih baik oleh manusia.”
  • Encyclopedia Britannica:
    “Kecerdasan Buatan (AI) merupakan cabang dari ilmu komputer yang dalam merepresentasi pengetahuan lebih banyak menggunakan bentuk simbol-simbol daripada bilangan, dan memproses informasi berdasarkan metode heuristic atau dengan berdasarkan sejumlah aturan”
  • John McCarthy[1956] :
    “AI adalah Untuk mengetahui dan memodelkan proses – proses berpikir manusia dan mendesain mesin agar dapat menirukan perilaku manusia.”
Tujuan dari kecerdasan buatan menurut Winston dan Prendergast[1984]:
  1. Membuat mesin menjadi lebih pintar (tujuan utama)
  2. Memahami apa itu kecerdasan (tujuan ilmiah)
  3. Membuat mesin lebih bermanfaat (tujuan entrepreneurial)
AI dapat dipandang dalam berbagai perspektif :
  • Dari perspektif Kecerdasan (Intelligence) :
    AI adalah bagaimana membuat mesin yang “cerdas” dan dapat melakukan hal-hal yang sebelumnya dapat dilakukan oleh manusia
  • Dari perspektif bisnis : AI adalah sekelompok alat bantu (tools) yang berdaya guna dan metodologi yang menggunakan tool-tool tersebut guna menyelesaikan masalah-masalah bisnis.
  • Dari perspektif pemrograman (Programming) : AI termasuk didalamnya adalah studi tentang pemrograman simbolik, pemecahan masalah proses pencarian (search).
  • Dari perspektif penelitian (research) :
  1. Riset tentang AI dimulai pada awal tahun 1960-an, percobaan pertama adalah membuat program permainan (game) catur membuktikan teori dan general problem solving (untuk tugas tugas sederhana).
  2. “Artificial intelligence” adalah nama pada akar dari studi area.
Task Domain of Artificial Intelligence
DOMAIN PENELITIAN DALAM KECERDASAN BUATAN
  • Formal tasks (matematika, games)
  • Mundane task (perception, robotics, natural language,common sense,reasoning)
  • Expert tasks (financial analysis, medical diagnostics,engineering,scientific analysis, dll)
TURING TEST – Metode Pengujian Kecerdasan
  • Turing Test merupakan sebuah metode pengujian kecerdasan yang dibuat oleh Alan Turing.
  • Proses uji ini melibatkan seorang penanya (manusia) dan dua obyek yang ditanyai. Yang satu adalah seorang manusia dan satunya adalah sebuah mesin yang akan diuji.
  • Penanya tidak bisa melihat langsung kepada obyek yg ditanyai
  • Penanya diminta untuk membedakan mana jawaban komputer dan mana jawaban manusia berdasarkan jawaban kedua obyek tersebut.
  • Jika penanya tidak dapat membedakan mana jawaban mesin dan mana jawaban manusia maka Turing berpendapat bahwa mesin yang diuji tersebut dapat diasumsikan CERDAS.
Perbandingan Kecerdasan Buatan dengan Kecerdasan Alamiah
  • Keuntungan Kecerdasan Buatan dibanding kecerdasan alamiah:
  1. lebih permanen
  2. memberikan kemudahan dalam duplikasi dan penyebaran
  3. relatif lebih murah dari kecerdasan alamiah
  4. Konsisten dan teliti
  5. Dapat didokumentasi
  6. Dapat mengerjakan beberapa task dengan lebih cepat dan lebih baik dibanding manusia
  • Keuntungan Kecerdasan Alamiah dibanding kecerdasan buatan:
  1. Bersifat lebih kreatif
  2. Dapat melakukan proses pembelajaran secara langsung, sementara AI harus mendapatkan masukan berupa simbol dan representasirepresentasi
  3. Fokus yang luas sebagai referensi untuk pengambilan keputusan sebaliknya AI menggunakan fokus yang sempit
  • Perbedaan Komputasi AI dengan Proses Komputasi Konvensional
Table perbedaan komputasi AI dan proses komputasi konvensional
perbandingan AI dan Pemograman konvensional
Bidang AI
  1. System pakar adalah suatu system yang dibuat berdasarkan orang yang benar -benar ahli dalam bidang dan berpengalaman
  2. Pengolahan Bahasa Alami (natural language processing) adalah suatu bidang yang dimana ai tersebut mengolah perintah bahasa sehari -hari ke dalamAI tersebut agar melakukan sesuatu yang sesuai dengan perintah tersebut
  3. Pengenalan visual adalah suatu bidang AI yang mengubah hasil visual dalam komputer kita ke dalam bentuk suara bidang ini juga berfungsi sebagai alat bantu bagi tunanetra untuk membaca
  4. Pengenalan ucapan adalah suatu bidang AI yang mengubah bentuk suara dalam suatu format file agar dapat dibaca dan sebalik na mengubah suatu text file menjadi suara oleh penguna misal nya sepertitelpon untuk orang bisu dan tuli
  5. Robotika dan sensor adalah bidang AI yang berfungsi sebagai mendeteksi suatu keberadaan benda sehingga AI tersebut dapat bergerak sesuai dengan program yang telah dirancang
  6. Computer Vision adalah bidang AI yang berfungsi untuk mengetahui hasil inputan dan di keluarkan dalam bentuk visual misal nya pengenalan pola sidik jari dan pengenalan tulisan
  7. Intelligent computer-aided instruction adalah bidang AI yang berfungsi sebagai tutor atau membantu dalam pembelajaran di bidang tertentu
  8. Game Playing adalah bidang AI yang dibuat dalam permainan misalnya Deep blue adalah program AI yang dibuat untuk permainan catur
  • Soft Computing merupakan suatu inovasi baru dalam membangun sistem cerdas
  • Metodelogi yang digunakan dalam Soft Computing :
  1. Logika Fuzzy (fuzzy logic)
  2. Jaringan Syaraf Tiruan (neurall network)
  3. Probabilistic Reasoning (mengakomodasi ketidakpastian)
  4. Evolutionary Computing (optimasi) atau Algoritma Genetika
Contoh Artical Intelengence

1.        Aplikasi AI Dalam Bidang Keamanan Dan Pertahanan (militer)


Artificial Intelligence Projects

Salah satu contoh aplikasi AI yang digunakan pada saat ini yaitu dalam bidang militer. Virtual reality dipakai untuk melakukan simulasi latihan perang, simulasi latihan terjun payung. dan sebagainya. Dimana dengan pemakaian teknologi ini bisa lebih menghemat biaya dan waktu dibandingkan dengan cara konvensional.

Istilah Realitas maya tidak pasti asalnya. Pengembang realitas maya, Jaron Lanier mengakui bahwa ia menggunakan istilah itu pertama kali dan ada istilah yang terkait digunakan olehMyron Krueger adalah “kenyataan tiruan“ telah digunakan sejak 1970.

Virtual Reality sering digunakan untuk menggambarkan berbagai aplikasi, umumnya terkait dengan mendalam, sangat visual, 3D lingkungan.Biasanya piranti Virtual Reality ini juga memonitor apa yang dilakukan user. Misalnya kacamata yang mengontrol pergerakkan bola mata pengguna dan meresponnya dengan mengirim masukkan video yang baru.

Virtual Reality kadang digunakan untuk menyebut dunia virtual yang disajikan ke dalam komputer, seperti pada berbagai macam game permainan komputer yang kini marak perkembangannya, meskipun hanya berbasis representasi teks, suara dan grafis.

Sekarang, istilah Virtual Reality mulai tergantikan oleh istilah Virtual Envoronment oleh para ahli komputer. Konsepnya tetap sama, yaitu mensimulasikan lingkungan 3-D yang bisa dijelajahi oleh pengguna seolah-olah benar-benar bisa dirasakan lewat indera.



Teknologi Virtual Reality

Virtual reality adalah sebuah teknologi yang memungkinkan seseorang melakukan simulasi terhadap suatu objek nyata dengan menggunakan komputer yang mampu membangkitkan suasana tiga dimensi (3-D) sehingga membuat pemakai seolah-olah terlibat secara fisik. Virtual Reality atau VR tidak hanya mensimulasikan apa yang ingin disimulasikan seseorang yang diprogramkan di Komputer seperti dunia nyata atau sesuatu yang lain, tetapi juga menciptakan kemampuan intelegensi dalam dunia virtual tersebut, dalam bahasan ini mengenai simulai militer dalam angkatan bersenjata.

Sistem seperti ini juga dapat digunakan untuk farmasi, arsitek, pekerja medis, dan bahkan orang awam untuk melakukan aktivitas-aktivitas yang meniru dunia nyata. Sebagai contoh, pilot dapat menggunakan sistem virtual reality untuk melakukan simulasi penerbangan sebelum melakukan penerbangan yang sesungguhnya. Ini sangat membantu dalam menekan biaya dan sumber daya manusia maupun sumberdaya alam yang dibutuhkan untuk membantu dalam melakukan hal-hal tertentu. Dalam VR juga dapat dimasukkan system pembelajaran, karena tidak nyata maka simulasi dapat dilakukan terus menerus, seperti halnya ketika main game hanya saja system ini jauh lebih cerdas karena dapat membantu kita mengenali object virtual dan berinteraksi langsung dengan system, VR dibuat untuk mengenali sentuhan, gerakan, tekanan,bahasa, dan lain-lain.

VR bisa disebut gabungan dari beberapa aplikasi AI yang ada yaitu Cognitive architectures, Games, Motion and manipulation, Natural language processing, semua yang ada disimulasikan dengan system yang dibuat seperti apa yang dikenali manusia melalui penglihatan, sentuhan, dan pendengaran.

Setelah beberapa tahun pengembangan yang berawal dari imajinasi untuk hidup di dunia maya akhirnya terwujud dengan saat ini sudah banyak digunakan VR dalam industri, personal dan militer, VR adalah sebuah teknologi yang membawa kita untk melihat dan mensimulasikan sesuatu didalam komputer, dalam VR, objek dapat dibuat objek statis maupun dinamis, kita dapat berinteraksi langsung menggunakan peralatan yang ada.

Di gunakannya VR dalam militer adalah untuk membantu angkatan bersenjata berltih prang menggunakan musuh virtual, ini akan sangat membantu dari segi finansial dan tempat yang dibutuhkan, sistem dapat selalu dimaintain dan diperbaiki, sebuah kecerdasan buatan didalamnya dapat diperbaharui seperti software pada umumnya.

Glove, headset, dan walker digunakan untuk melakukan interaksi dalam VR, dalam pengembangannya ada 3 tahapan sederhana, yaitu memodelkan dunia 3 dimensi dalam VR, menciptakan sebuah AI dalam objek 3 dimensi yang dibuat kemudian membuat control antara hardware dan software untuk dapat dilakukan interaksi virtual antara pemakai dan system. Dengan teknologi VRML dan pengembangan SIMNET dalam dunia militer diharapkan dapat membantu SDM yang dilatih untuk lebih baik dan mengembangkannya lebih lanjut.



2.    Aplikasi AI Dalam Bidang Ekonomi Dan Bisnis
SISTEM PREDIKSI KURS MATA UANG MENGGUNAKAN JARINGAN SYARAF TIRUAN

Prediksi kurs mata uang adalah salah satu tahap awal yang sangat penting sebelum dilakukan proses jual beli nilai tukar mata uang yang nantinya menjadi acuan perekonomian dunia. Pada penggunaannya juga dapat sebagai pertimbangan untuk para pialang saham dan bursa efek untuk mengambil langkah bisnis selanjutnya.

Data dari kurs mata uang dapat diperlakukan secara ‘time series’ . Jika kita mempunyai data harian selama periode tertentu, misal : Xt (t=1,2,……), maka kurs mata uang pada perioda berikutnya (t+h) dapat diprediksi (waktu yang digunakan bisa jam, harian, mingguan , bulanan ataupun tahunan) . Demikian seterusnya dilakukan suatu iterasi berulang hingan N hari kerja. Untuk mendapatkan hasil prediksi yang baik maka pada jaringan syaraf buatan hasus di-umpankan suatu masukan yang mewakili dari beberapa aspek atau segi penunjang harga suatu kurs mata uang. Kemudian dilakukan prinsip pembobotan yang diadaptasikan untuk meminimumkan kesalahan prediksi pada satu langkah kedepan. Dengan menggunakan bobot akhir dilakukan suatu tindakan untuk meminimumkan kesalahan total untuk iterasi berikutnya.

Teknologi sistem jaringan syaraf tiruan telah di-implementasikan dalam berbagai aplikasi terutama dalam hal pengenalan pola. Kemampuan inilah yang telah menarik beberapa kalangan dalam menggunakan jaringan syaraf tiruan untuk keperluan kesehatan, keuangan , investasi, marketing dan lain lain. Pada sistem prediksi kurs mata uang ini akan dibahas penggunaan Jaringan syaraf tiruan Quick Propagation. Pada algoritma Quickprop dilakukan pendekatan dengan asumsi bahwa kurva fungsi error terhadap masing-masing bobot penghubung berbentuk parabola yang terbuka ke atas, dan gradien dari kurva error untuk suatu bobot tidak terpengaruh oleh bobot-bobot yang lain. Dengan demikian perhitungan perubahan bobot hanya menggunakan informasi lokal pada masing-masing bobot. Berdasarkan hasil uji coba juga diketahui bahwa aplikasi ini mampu memprediksi nilai mata uang hingga 1 bulan kedepan dengan tingkat keakuratan mencapai lebih dari 75%.

Peramalan nilai tukar mata uang dengan menggunakan Jaringan Saraf Tiruan (JST) telah digunakan secara luas dan memberikan hasil yang bagus. Hal ini disebabkan kemampuan JST untuk menangkap karakter volatilitas yang tinggi dan nonlinier pada pasar uang. Namun, JST merupakan suatu paradigma pembelajaran yang sangat tidak stabil dan terlalu sensitif jika diterapkan pada peramalan nilai tukar mata uang.. Misalnya dengan menggunakan struktur JST yang sama, namun berbeda training set, maka akan didapat perbedaan hasil yang cukup besar. Hal ini dapat menyebabkan kesulitan dalam menentukan hasil ramalan yang akan digunakan. Untuk menyelesaikan permasalahan tersebut, diajukan sebuah pendekatan peramalan baru yang disebut peramalan fuzzy group berbasis jaringan saraf tiruan. Dengan peramalan fuzzy group berbasis jaringan saraf tiruan ini, hasil prediksi yang berbeda-beda dari beberapa model JST dapat dijadikan satu hasil yang cukup akurat. Pada metode yang diajukan ini, terlebih dahulu digunakan beberapa model JST dimana tiap model JST melakukan beberapa prediksi dengan training set yang berbeda-beda. Kemudian dilakukan fuzzification terhadap hasil prediksi dari setiap model JST sehingga menjadi representasi prediksi fuzzy. Selanjutnya representasi prediksi fuzzy ini diagregasi menjadi satu fuzzy group. Terakhir, dilakukan defuzzification terhadap fuzzy group yang diperoleh menjadi satu nilai crisp. Untuk kepentingan ilustrasi dan testing, dilakukan beberapa contoh percobaan prediksi terhadap tiga pasang mata uang. Sebagai perbandingan, digunakan struktur JST feed-forward untuk melakukan peramalan. Hasil uji coba memperlihatkan bahwa peramalan fuzzy group berbasis JST mampu mengatasi masalah stabilitas dan sensitivitas pada JST. Selain itu keakuratan peramalan juga menjadi lebih baik daripada JST feed-forward. Walaupun begitu peramalan fuzzy group berbasis JST juga memiliki kelemahan, yaitu waktu eksekusi yang jauh lebih lama daripada JST feed-forward.





3.        Aplikasi AI Dalam Bidang Pendidikan
Sistem Tutor Cerdas atau Intelligent Tutoring System(ITS) merupakan sebuah teknologi pembelajaran yang dinamis dan dapat menyesuaikan isi atau output program sesuai dengan kebutuhan dari objek sasaran menggunakan keahliannya dalam metode pembelajaran dan materi yang diajarkan. Hal ini dapat dilakukan karena ITS dilengkapi oleh Artificial Intelligence (AI). Bayesian Network menyediakan sebuah pendekatan probabilistik untuk mendapatkan suatu inference atau kesimpulan tentang karakteristk setiap pengguna program ITS. Dalam simulasi program ITS berbasis metode Bayesian Network diketahui bahwa keandalan program tersebut adalah 52,3%.



Saat kita bebicara tentang arti dari Sistem Tutor Cerdas (STC) atau Intelligent Tutoring System (ITS) maka kita juga harus mempertimbangkan riset-riset lain yang sudah ada. Karena Intelligent Tutoring System adalah sebuah istilah yang luas, mencakup program komputer apapun yang berisi tentang

kecerdasan atau Intelligence serta dapat digunakan dalam pembelajaran. Oleh karena itu ada beberapa definisi dari ITS antara lain:

Sistem Tutor Cerdas (STC) atau Intelligent Tutoring System (ITS) adalah sebuah program software yang menyediakan instruksi-instruksi untuk seorang pelajar dengan cara membimbing seperti seorang guru.
·         Secara luas Intelligent Tutoring System diartikan sebagai software di bidang pendidikan yang berisi komponen Artificial Intelligence. Software ini dapat merekam semua pekerjaan siswa sepanjang dia menggunakan program ini, dengan mengumpulkan semua informasi tersebut, program ini dapat membuat atau menghasilkan kesimpulan tentang kelemahan dan kekuatan pengguna, serta dapat menyarankan sebuah pekerjaan tambahan. Kunci dari sebuah program ITS adalah kemampuannya dalam beradaptasi sebaik mungkin dalam aktivitas pedagogik yang baik kepada siswa secara individu. Jadi, ITS mencoba untuk mengidentifikasi beberapa karakteristik dari seorang siswa yang sesuai dengan kriteria tertentu untuk menyajikan sebuah action, bagaimana cara bereaksi terhadap beberapa tindakan siswa.






4.     Aplikasi AI Dalam Bidang Agronomi Dan Pertanian
Pengolahan Citra Dengan Metode Jaringan Syaraf Tiruan Berbasis Mobile Untuk Mengetahui Kualitas Tanaman Padi


Teknologi mobile yang sedang banyak digemari saat ini adalah smartphone. Ini disebabkan oleh kemampuan dan kepintaran perangkat mobile tersebut dalam membantu kehidupan manusia. Dalam dunia pertanian, salah satu masalah yang dihadapi adalah menentukan kualitas tanaman hasil pertanian, khususnya tanaman padi. Terkadang memang sulit untuk melihat dengan kasat mata kualitas tanaman padi tersebut. Sebagai tanaman, padi juga tidak luput dari serangan hama yang membawa penyakit di antaranya bercak daun coklat (bintik perang), bercak daun cercospora, hawar daun (kresek), dan blast. Tahap awal adalah mengambil citra dari padi menggunakan sebuah kamera yang terintegrasi di dalam perangkat smartphone Android. Citra padi tersebut dianalisa dengan aplikasi yang sudah terpasang pada smartphone tersebut. Aplikasi ini berfungsi untuk menyusun algoritma pengolahan citra untuk mendapatkan nilai numerik parameter-parameter intensitas komponen warna merah (R), hijau (G), biru (B), color value, indeks warna merah/indeks R, indeks warna hijau/indeks G, indeks warna biru/indeks B, hue, saturation, dan intensity yang merupakan input data pada jaringan syaraf tiruan. Proses training dilakukan untuk mendapatkan tingkat persentase pendugaan kelompok piksel yang tergolong ke dalam normal, bintik perang, bercak cercospora, hawar daun, atau blast. Set data yang digunakan untuk training berupa pasangan parameter-parameter input dan targetnya. Aplikasi jaringan syaraf tiruan menggunakan algoritma backpropagation, dengan menggunakan bernilai satu dan β (beta) atau learning
rate bernilai 0.3. logistic constant



5.        Aplikasi AI Dalam Bidang Teknik Dan Rekayasa
KECERDASAN BUATAN DALAM ROBOTIKA
Kecerdasan Buatan (Artificial Intelligence) dalam robotik adalah suatu algorithma (yang dipandang) cerdas yang diprogramkan ke dalam kontroler robot. Pengertian cerdas di sini sangat relatif, karena tergantung dari sisi mana sesorang memandang.
Para filsuf diketahui telah mulai ribuan tahun yang lalu mencoba untuk memahami dua pertanyaan mendasar: bagaimanakah pikiran manusia itu bekerja, dan, dapatkah yang bukan-manusia itu berpikir? (Negnevitsky, 2004). Hingga sekarang, tak satupun mampu menjawab dengan tepat dua pertanyaan ini. Pernyataan cerdas yang pada dasarnya digunakan untuk mengukur kemampuan berpikir manusia selalu menjadi perbincangan menarik karena yang melakukan penilaian cerdas atau tidak adalah juga manusia. Sementara itu, manusia tetap bercita-cita untuk menularkan �kecerdasan manusia� kepada mesin.
Dalam literatur, orang pertama yang dianggap sebagai pionir dalam mengembangkan mesin cerdas (intelligence machine) adalah Alan Turing, sorang matematikawan asal Inggris yang memulai karir saintifiknya di awal tahun 1930-an. Di tahun 1937 ia menulis paper tentang konsep mesin universal (universal machine). Kemudian, selama perang dunia ke-2 ia dikenal sebagai pemain kunci dalam penciptaan Enigma, sebuah mesin encoding milik militer Jerman. Setelah perang, Turing membuat �automatic computing engine�. Ia dikenal juga sebagai pencipta pertama program komputer untuk bermain catur, yang kemudian program ini dikembangkan dan dimainkan di komputer milik Manchester University. Karya-karyanya ini, yang kemudian dikenal sebagai Turing Machine, dewasa ini masih dapat ditemukan aplikasi-aplikasinya. Beberapa tulisannya yang berkaitan dengan prediksi perkembangan komputer di masa datang akhirnya juga ada yang terbukti. Misalnya tentang ramalannya bahwa di tahun 2000-an komputer akan mampu melakukan percakapan dengan manusia. Meski tidak ditemukan dalam paper-papernya tentang istilah �resmi�: artificial intelligence, namun para peneliti di bidang ini sepakat untuk menobatkan Turing sebagai orang pertama yang mengembangkan kecerdasan buatan.
Secara saintifik, istilah kecerdasan buatan � untuk selanjutnya disebut sebagai AI (artificial intelligence) � pertama kali diperkenalkan oleh Warren McCulloch, seorang filsuf dan ahli perobatan dari Columbia University, dan Walter Pitts, seorang matematikawan muda pada tahun 1943, (Negnevitsky, 2004). Mereka mengajukan suatu teori tentang jaringan saraf tiruan (artificial neural network, ANN) � untuk selanjutnya disebut sebagai ANN � bahwa setiap neuron dapat dipostulasikan dalam dua keadaan biner, yaitu ON dan OFF. Mereka mencoba menstimulasi model neuron ini secara teori dan eksperimen di laboratorium. Dari percobaan, telah didemonstrasikan bahwa model jaringan saraf yang mereka ajukan mempunyai kemiripan dengan mesin Turing, dan setiap fungsi perhitungan dapat dapat diselesaikan melalui jaringan neuron yang mereka modelkan.
Kendati mereka meraih sukses dalam pembuktian aplikasinya, pada akhirnya melalui eksperimen lanjut diketahui bahwa model ON-OFF pada ANN yang mereka ajukan adalah kurang tepat. Kenyataannya, neuron memiliki karakteristik yang sangat nonlinear yang tidak hanya memiliki keadaan ON-OFF saja dalam aktifitasnya. Walau demikian, McCulloch akhirnya dikenal sebagai orang kedua setelah Turing yang gigih mendalami bidang kecerdasan buatan dan rekayasa mesin cerdas. Perkembangan ANN sempat mengalami masa redup pada tahun 1970-an. Baru kemudian pada pertengahan 1980-an ide ini kembali banyak dikaji oleh para peneliti.
Sementara itu, metoda lain dalam AI yang sama terkenalnya dengan ANN adalah Fuzzy Logic (FL) � untuk selanjutnya ditulis sebagai FL. Kalau ANN didisain berdasarkan kajian cara otak biologis manusia bekerja (dari dalam), maka FL justru merupakan representasi dari cara berfikir manusia yang nampak dari sisi luar. Jika ANN dibuat berdasarkan model biologis teoritis, maka FL dibuat berdasarkan model pragmatis praktis. FL adalah representasi logika berpikir manusia yang tertuang dalam bentuk kata-kata.
Kajian saintifik pertama tentang logika berfikir manusia ini dipublikasikan oleh Lukazewicz, seorang filsuf, sekitar tahun 1930-an. Ia mengajukan beberapa representasi matematik tentang �kekaburan� (fuzziness) logika ketika manusia mengungkapkan atau menyatakan penilaian terhadap tinggi, tua dan panas (tall, old, & hot). Jika logika klasik hanya menyatakan 1 atau 0, ya atau tidak, maka ia mencoba mengembangkan pernyataan ini dengan menambahkan faktor kepercayaan (truth value) di antara 0 dan 1.
Di tahun 1965, Lotfi Zadeh, seorang profesor di University of California, Berkeley US, mempublikasikan papernya yang terkenal, �Fuzzy Sets�. Penelitian-penelitian tentang FL dan fuzzy system dalam AI yang berkembang dewasa ini hampir selalu menyebutkan paper Zadeh itulah sebagai basis pijakannya. Ia mampu menjabarkan FL dengan pernyataan matematik dan visual yang relatif mudah untuk dipahami. Karena basis kajian FL ini kental berkaitan dengan sistem kontrol (Zadeh adalah profesor di bidang teknik elektro) maka pernyataan matematiknya banyak dikembangkan dalam konteks pemrograman komputer.
Metoda AI lain yang juga berkembang adalah algorithma genetik (genetic algorithm, GA) � untuk selanjutnya disebut sebagai GA. Dalam pemrograman komputer, aplikasi GA ini dikenal sebagai pemrograman berbasis teori evolusi (evolutionary computation, EC) � untuk selanjutnya disebut sebagai EC. Konsep EC ini dipublikasikan pertama kali oleh Holland (1975). Ia mengajukan konsep pemrograman berbasis GA yang diilhami oleh teori Darwin. Intinya, alam (nature), seperti manusia, memiliki kemampuan adaptasi dan pembelajaran alami �tanpa perlu dinyatakan: apa yang harus dilakukan�. Dengan kata lain, alam memilih �kromosom yang baik� secara �buta�/alami. Seperti pada ANN, kajian GA juga pernah mengalami masa vakum sebelum akhirnya banyak peneliti memfokuskan kembali perhatiannya pada teori EC.
GA pada dasarnya terdiri dari dua macam mekanisme, yaitu encoding dan evaluation. Davis (1991) mempublikasikan papernya yang berisi tentang beberapa metoda encoding. Dari berbagai literatur diketahui bahwa tidak ada metoda encoding yang mampu menyelesaikan semua permasalahan dengan sama baiknya. Namun demikian, banyak peneliti yang menggunakan metoda bit string dalam kajian-kajian EC dewasa ini.
Aplikasi AI dalam kontrol robotik dapat diilustrasikan sebagai berikut,
Gambar 4.1: Kontrol robot loop tertutup berbasis AI
Penggunaan AI dalam kontroler dilakukan untuk mendapatkan sifat dinamik kontroler �secara cerdas�. Seperti telah dijelaskan di muka, secara klasik, kontrol P, I, D atau kombinasi, tidak dapat melakukan adaptasi terhadap perubahan dinamik sistem selama operasi karena parameter P, I dan D itu secara teoritis hanya mampu memberikan efek kontrol terbaik pada kondisi sistem yang sama ketika parameter tersebut di-tune. Di sinilah kemudian dikatakan bahwa kontrol klasik ini �belum cerdas� karena belum mampu mengakomodasi sifat-sifat nonlinieritas atau perubahan-perubahan dinamik, baik pada sistem robot itu sendiri maupun terhadap perubahan beban atau gangguan lingkungan.
Banyak kajian tentang bagaimana membuat P, I dan D menjadi dinamis, seperti misalnya kontrol adaptif, namun di sini hanya akan dibahas tentang rekayasa bagaimana membuat sistem kontrol bersifat �cerdas� melalui pendekatan-pendekatan AI yang populer, seperti ANN, FL dan EC atau GA.
Gambar 4.1 mengilustrasikan tentang skema AI yang digunakan secara langsung sebagai kontroler sistem robot. Dalam aplikasi lain, AI juga dapat digunakan untuk membantu proses identifikasi model dari sistem robot, model lingkungan atau gangguan, model dari tugas robot (task) seperti membuat rencana trajektori, dan sebagainya. Dalam hal ini konsep AI tidak digunakan secara langsung (direct) ke dalam kontroler, namun lebih bersifat tak langsung (indirect).

Daftar Pustaka : 
1 .lppm.trigunadharma.ac.id
2 . Ebook ( https://www.academia.edu/8035591/Contoh_penerapan_AI?auto=download )