Kamis, 22 September 2016

Pengertian PEAS dan Cara Kerja Agent dalam konteks Intelligent Agent



Agen dan Lingkungan (Environments)
Agent adalah segala sesuatu yang dapat melihat/ mengartikan/ mengetahui (perceiving) lingkungan (environment) nya melalui sensor (sensors) dan bertindak (acting) terhadap lingkungan tersebut melalui aktuaktor (actuators)
Agen manusia :
.         Sensor    : mata, telinga, dan organ tubuh lain;
.         Actuator : tangan, kaki, mulut, dan bagian tubuh lain.
Agen robotic :
·         Sensor    : kamera dan infrared range finders;
·         Actuator : berbagai macam motor
Fungsi agen memetakan dari sejarah persepsi ke dalam tindakan (actions):
Program agen berjalan pada arsitektur fisik untuk menghasilkan f
Agen = Arsitektur + Program


Sebuah agen haruslah mengarah kepada “Lakukan hal yang benar", berdasarkan kepada apa yang dapat dipahaminya dan tindakan yang dapat dilakukannya. Tindakan yang benar adalah tindakan yang akan menyebabkan agen tersebut paling berhasil.
Pengukuran Performance : Sebuah kriteria objektif untuk keberhasilan sebuah perilaku agen.
Agen rasional : Untuk setiap deretan persepsi yang mungkin, sebuah agen rasional hendaklah memilih satu tindakan yang diharapkan memaksimalkan ukuran performance-nya, dengan adanya bukti yang diberikan oleh deretan presepsi dan apapun pengetahuan terpasang yang dimiliki agen itu.
Agen dapat melakukan tindakan untuk memodifikasi persepsi masa depan sedemikian hingga dapat memperoleh informasi yang berguna (pengumpulan informasi, eksplorasi).
Sebuah agen adalah otonom (autonomous) apabila perilakunya ditentukan oleh pengalamannya sendiri (dengan kemampuan belajar dan beradaptasi).


PEAS (Performance measure, Environment, Actuators, Sensors)
P (Performance measure) : Komponen keberhasilan/ tujuan/ target agent
E (Environment) : Kondisi sekitar lingkungan agent
A (Actuators) : Segala sesuatu yang dilakukan agent
S (Sensors) : Segala sesuatu yang menjadi input agent

  1. Simple Reflex Agents
Struktur yang paling sederhana dalam bentuk skema, menunjukkan bagaimana aturan condition action memungkinkan agen untuk membuat sambungan dari persepsi untuk bertindak. Persegi panjang untuk menunjukkan keadaan internal saat proses keputusan agen, dan oval untuk mewakili latar belakang informasi yang digunakan dalam proses. Secara ringkat dapat disampaikan sebagai berikut  :
  • Memiliki rule base dalam bentuk "aksi-kondisi"
  • Memiliki komponen untuk mengekstrak Fitur
  • Tidak ada akses untuk menyelesaikan keadaan dunia
  • Pekerjaan hanya jika keputusan yang tepat dapat dilakukan atas dasar persepsi saat ini.

  1. Model Based Reflex Agent
Pengetahuan tentang "bagaimana dunia bekerja" disebut model dari dunia, maka bentuk ini dinamakan "model based reflex agent". Sebuah model based reflex agent harus menjaga semacam internal model yang tergantung pada sejarah persepsi dan dengan demikian mencerminkan setidaknya beberapa aspek yang tidak teramati negara saat ini. Kemudian memilih tindakan dengan cara yang sama sebagai agen refleks. Model ini lebih kuat daripada simple reflex agent.

  1. Model Based Goal-Based Agents
Goal-based agents memperluas pada kemampuan model-based agents, dengan menggunakan "goal" informasi. Tujuan informasi menggambarkan kondisi yang diinginkan. Hal ini memungkinkan agen cara untuk memilih di antara beberapa kemungkinan, memilih satu yang mencapai negara tujuan. Search dan planing adalah sub bidang kecerdasan buatan yang ditujukan untuk urutan tindakan menemukan bahwa mencapai tujuan agen. Dalam beberapa kasus goal-based agent tampaknya kurang efisien; itu lebih fleksibel karena pengetahuan yang mendukung keputusan diwakili secara eksplisit dan dapat dimodifikasi.

  1. Model Based Utility-Based Agents
“Goal” tidak cukup untuk menghasilkan perilaku berkualitas tinggi. Ada banyak urutan tindakan  untuk mencapai tujuan, tetapi beberapa yang lebih cepat, lebih aman, lebih dapat diandalkan, atau lebih murah daripada yang lain. Tujuan hanya memberikan perbedaan antara kondisi "bahagia" dan "tidak bahagia", sedangkan ukuran kinerja yang lebih umum harus memungkinkan perbandingan beberapa urutan kondisi yang berbeda jika agen ingin mencapai tujuan. Terminologi yang dipergunakan untuk mengatakan bahwa jika satu kondisi lebih disukai daripada kondisi yang lain, itu mempunyai utilitas yang lebih tinggi untuk agent.

  1. Learning Agents
                Learning agents belajar dari pengalaman, meningkatkan kinerja dengan cara mengirimkan percept ke bagian critic untuk dibandingkan dengan performance standard. Setelah mendapat feedback dari critic, lalu diteruskan ke learning element dan melihat learning goals untuk mendapatkan problem generator. Selain itu, sensor  juga meneruskan percept ke performa element dimana pada performance element dapat memberikan pengetahuan baru ke learning element.
                
               

Referensi :

Artikel ini merupakan salah satu tugas nomor 2 Mata Kuliah Artifcial Intelligence Prodi Teknik Informatika FT UHAMKA yang diampu oleh dosen ibu Mia Kamayani

Tidak ada komentar:

Posting Komentar