agen rasional
Post on 08-Feb-2016
71 Views
Preview:
TRANSCRIPT
HO-2 KTL401 Kecerdasan Buatan
Intelligent Agents
Opim S Sitompul
2
Outline
Agen dan lingkungan
Rasionalitas
PEAS (Performance measure, Environment,
Actuators, Sensors)
Jenis-jenis Lingkungan
Jenis-jenis Agen
3
Agent
Agent adalah sesuatu yang dapat mengesan (perceiving) lingkungan (environment) nya melalui sensors dan bertindak (acting) terhadap lingkungan tersebut melalui actuators
Agen manusia: mata, telinga, dan organ tubuh lain untuk sensor; tangan, kaki, mulut, dan bagian tubuh lain untuk actuators
Agen robotik: kamera dan infrared range finders untuk sensors; berbagai macam motor untuk actuators
4
Agent dan lingkungan
Fungsi agen memetakan dari sejarah persepsi ke
dalam tindakan (actions):
[f: P* A]
Program agen berjalan pada arsitektur fisik untuk
menghasilkan f
agen = arsitektur + program
5
Vacuum-cleaner world
Percepts: location and contents, e.g.,
[A,Dirty]
Actions: Left, Right, Suck
6
A vacuum-cleaner agent
Sekuen Persepsi Tindakan
[A, Clean] Right
[A, Dirty] Suck
[B, Clean] Left
[B, Dirty] Suck
[A, Clean], [A, Clean] Right
[A, Clean], [A, Dirty] Suck
… …
[A, Clean], [A, Clean], [A, Clean] Right
[A, Clean], [A, Clean], [A, Dirty] Suck
… …
A vacuum-cleaner agent
Pertanyaan: Bagaimana cara yang benar untuk mengisi tabel
tersebut?
Apa yang membuat satu agen itu baik atau buruk,
pintar atau bodoh?
Keadaan suatu agen dimaksudkan sebagai alat
untuk menganalisis sistem, bukan karakterisasi
mutlak yang membagi dunia menjadi agen dan
non-agen.
7
Perilaku baik: konsep rasionalitas
Agen rasional adalah sesuatu yang
melakukan hal yang benar—secara konseptual,
setiap entri tabel bagi fungsi agen terisi dengan
benar.
Apa arti melakukan hal yang benar?
Jawab: dengan mempertimbangkan
konsekwensi dari perilaku si agen.
8
Perilaku baik: konsep rasionalitas
Ketika satu agen diletakkan dalam sebuah
lingkungan, si agen menghasilkan satu deretan
tindakan sesuai dengan persepsi yang diterimanya.
Deretan tindakan ini menyebabkan lingkungan itu
berubah ke sederetan keadaan.
Jika deretan ini dikehendaki, maka si agen bertindak
dengan baik.
Hal dikehendaki ini diperoleh melalui sebuah
performance measure yang mengevaluasi
sederetan keadaan lingkungan tertentu.
Bukan keadaan agen, agar tidak menjadi ―sour grapes‖. 9
10
Perilaku baik: konsep rasionalitas Agen rasional
Sebuah agen rasional haruslah mengarah kepada ―lakukan hal yang benar", berdasarkan kepada apa yang dapat dipahaminya dan tindakan yang dapat dilakukannya. Tindakan yang benar adalah tindakan yang akan menyebabkan agen tersebut paling berhasil
Pengukuran Performance: Sebuah kriteria objektif untuk keberhasilan sebuah perilaku agen
Mis., ukuran performance dari sebuah agen vacuum-cleaner dapat berupa besarnya jumlah debu yang dibersihkan, jumlah waktu yang dihabiskan, jumlah listrik yang dikonsumsi, jumlah kebisingan yang dihasilkan, dll.
11
Rasionalitas
Rasional pada satu waktu tertentu bergantung pada empat hal: Performance measure yang mendefinisikan kriteria
sukses
pengetahuan sebelumnya dari si agen tentang lingkungan
Tindakan yang dapat dilakukan si agen
Deretan persepsi si agen hingga saat ini
12
Rasionalitas
Agen rasional
Untuk setiap deretan persepsi yang
mungkin, sebuah agen rasional
hendaklah memilih satu tindakan yang
diharapkan memaksimalkan ukuran
performance-nya, dengan adanya bukti
yang diberikan oleh deretan persepsi dan
sembarang pengetahuan terpasang yang
dimiliki agen itu.
13
Rasionalitas
Pandang agen vacuum cleaner sederhana
yang melakukan hal berikut: bersihkan
ruangan jika berdebu dan pindah ke ruangan
lain jika tidak.
Apakah ini agen rasional?
Tergantung pada apa performance measure,
apa yang diketahuinya tentang lingkungan,
dan sensor serta aktuator apa yang dimiliki si
agen.
14
Rasionalitas
Misalkan:
Performance measure menghadiahkan satu point
untuk tiap ruangan bersih pada setiap langkah
selama ―masa hidup‖ 1000 kali langkah.
―Geography‖ lingkungan diketahui a priori tetapi
distribusi debu dan lokasi awal si agen tidak
diketahui.
Ruangan bersih tetap bersih dan penyedotan
akan memberishkan ruangan saat itu.
15
Rasionalitas
Tindakan Left dan Right memindahkan agen ke
kiri dan ke kanan kecuali jika si agen terpaksa
keluar dari lingkungannya, dalam hal ini si agen
tetap tinggal dimana dia berada
Tindakan yang tersedia hanyalah Left , Right, dan
Suck.
Si agen menerima kesan dengan benar tentang
lokasi dan apakah lokasi itu mengandung debu.
• Dalam keaadan seperti ini si agen adalah
rasional.
16
Rasionalitas
Agen yang sama akan menjadi irasional
dibawah keadaanyang berbeda.
Contoh: setelah semua demu bersih, si agen
berputar maju mundur secara tidak perlu;
Jika performance measure termasuk penalti
satu point untuk tiap gerakan kiri atau kanan,
si agen akan kehabisan point.
17
Rasionalitas
Agen yang lebih baik untuk hal seperti ini
adalah yang tidak melakukan apa-apa
setelah pasti semua ruangan bersih.
Jika ruang yang bersih kembali berdebu, si
agen hendaklah sesekali memeriksa dan
membersihkan kembali jika perlu.
Jika geography lingkungan tidak diketahui, si
agen akan perlu mengeksplorasinya daripada
bertahan di ruangan A dan B.
18
Omniscience, learning, dan autonomy
Rasionalitas berbeda dari omniscience (tahu segala/all-knowing dengan pengetahuan tak berhingga)
Agen omniscient mengetahui hasil aktual tindakannya dan dapat bertindak sesuai dengan itu.
Akan tetapi, omniscience adalah tidak mungkin dalam realitas.
Contoh: penyeberang jalan tiba-tiba ketimpa pintu pesawat cargo (―New door latches urged for Boing 747 jumbo jets‖, Washington Post, 25 Agustus 1989).
19
Omniscience, learning, dan autonomy
Definisi rasionalitas tidak memerlukan omniscience karena pilihan rasional hanya tergantung pada deretan persepsi hingga saat ini.
Tetapi si agen juga tidak boleh melakukan tindakan yang bodoh.
Contoh: jika si agen tidak melihat ke dua arah
sebelum menyeberang jalan yang sibuk, maka
deretan persepnya tidak akan memberitahu bahwa
ada truk besar yang datang dengan kecepatan
tinggi.
20
Omniscience, learning, dan autonomy
Pertama, adalah tidak rasional menyeberang jalan
di bawah keadaan uninformative percept sequence:
resiko kecelakaan dari menyeberang tanpa melihat
terlalu besar.
Kedua, si agen rasional hendaklah memilih tindakan
―melihat‖ sebelum menyeberangi jalan, karena
melihat membantu memaksimumkan expected
performance.
Melakukan tindakan untuk memodifikasi persepsi
mendatang—disebut information gathering—
sebuah bagian penting dari rasionalitas.
21
Omniscience, learning, dan autonomy
Rasionalitas tidak sama dengan kesempurnaan. Rasionalitas memaksimalkan ekspektasi kinerja.
Kesempurnaan memaksimalkan kinerja aktual.
Definisi agen rasional tidak hanya menyangkut pengumpulan informasi, tetapi juga belajar sebanyak mungkin dari persep yang diterimanya.
Jika keadaan lingkungan diketahui secara lengkap a priori, si agen tidak memerlukan persep atau belajar, cukup bertindak dengan benar.
22
Omniscience, learning, dan autonomy
Sebuah agen adalah otonom (autonomous) apabila perilakunya ditentukan oleh pengalamannya sendiri (dengan kemampuan belajar dan beradaptasi).
Jika si agen melandaskan tindakannya pada pengetahuan sebelumnya dari si desainer, bukan pada persep yang diterimanya, maka agen tersebut kurang memiliki otonomi.
23
Task Environment
PEAS: Performance measure, Environment, Actuators, Sensors
Pertama-tama harus menentukan pengaturan untuk desain agen cerdas
Contoh: Merancang supir taksi otomatis:
24
Task Environment
25
Task Environment
Agen: Sistem pendiagnosa medis
Performance measure: Pasien sehat, biaya
minimal, sesuai hukum
Environment: Patient, hospital, staff
Actuators: Screen display (questions, tests,
diagnoses, treatments, referrals)
Sensors: Keyboard (entry of symptoms,
findings, patient's answers)
26
Task Environment
Agent: Robot pengutip-sukucadang
Performance measure: Persentase suku
cadang dalam kotak yang benar
Environment: ban berjalan dengan suku
cadang, kotak
Actuators: Pergelangan dan tangan
tersambung
Sensors: Kamera, joint angle sensors
27
Task Environment
Agen: Tutor Bahasa Inggeris Interaktif
Performance measure: Memaksimalkan nilai
mahasiswa pada waktu ujian
Environment: Sekumpulan mahasiswa
Actuators: Layar display (exercises,
suggestions, corrections)
Sensors: Keyboard
28
Jenis-jenis Lingkungan
Fully observable (vs. partially observable): Sensor-sensor sebuah agen memberinya akses ke keadaan lengkap lingkungannya pada setiap jangka waktu.
Deterministic (vs. stochastic): Keadaan lingkungan berikutnya sepenuhnya ditentukan oleh keadaan sekarang dan tindakan yang dilaksanakan oleh agen. (Jika lingkungan itu deterministik kecuali untuk tindakan agen-agen lain, maka lingkungannya adalah strategic)
Episodic (vs. sequential): Pengalaman agen dibagi kedalam "episode-episode" atomik (setiap episode terdiri dari si agen memahami (perceiving) dan kemudian melaksanakan satu tindakan, dan pilihan tindakan dalam tiap episode hanya tergantung pada episode itu sendiri.
29
Jenis-jenis Lingkungan
Static (vs. dynamic): Lingkungan tidak berubah
selagi agen direncanakan (deliberating).
(Lingkungan adalah semidynamic jika lingkungan itu
sendiri tidak berubah dengan berjalannya waktu
tetapi skor performa agen berubah)
Discrete (vs. continuous): berkenaan dengan
keadaan (state) dari lingkungan, pada cara
menangani waktu, dan pada persep dan
tindakan si agen.
30
Jenis-jenis Lingkungan
Single agent (vs. multiagent): Sebuah agen yang
mengoperasikan dirinya sendiri dalam sebuah
lingkungan. Lingkungan multiagen dapat kooperatif
atau kompetitif.
Known (vs. unknown): Dalam lingkungan yang
diketahui, hasil (atau probabilitas hasil jika dalam
lingkungan stokastik) untuk semua tindakan telah
diberikan. Dalam lingkungan yang tidak diketahui
(unknown), si agen harus belajar bagaimana
bertindak untuk memperoleh keputusan yang baik.
31
Jenis-jenis Lingkungan
Jenis lingkungan sangat menentukan rancangan agen
Dunia nyata (tentu saja) partially observable, stochastic, sequential, dynamic, continuous, multi-agent.
Lingkungan Tugas Observable Deterministic Episodic Static Discrete Agents
Crossword puzzle
Chess with a clock
Fully
Fully
Deterministic
Stategic
Sequential
Sequential
Static
Semi
Discrete
Discrete
Single
Multi
Poker
Backgammon
Partially
Fully
Stochastic
Stochastic
Sequential
Sequential
Static
Static
Discrete
Discrete
Multi
Multi
Taxi driving
Medical diagnosis
Partially
Partially
Stochastic
Stochastic
Sequential
Sequential
Dynamic
Dynamic
Continu
Continu
Multi
Single
Image-analysis
Part-picking robot
Fully
Partially
Deterministic
Stochastic
Episodic
Episodic
Semi
Dynamic
Continu
Continu
Single
Single
Refinery Controller
Int. English Tutor
Partially
Partially
Stochastic
Stochastic
Sequential
Sequential
Dynamic
Dynamic
Continu
Discrete
Single
Multi
32
Struktur Agen
Perilaku agen: tindakan yang dilakukan setelah diberikan sembarang sekuen persepsi. Tugas AI adalah merancang program agen yang
mengimplementasikan fungsi agen yang memetakan persepsi ke tindakan
Diasumsikan program ini berjalan di beberapa alat komputasi yang dilengkapi sensors dan actuators (disebut arsitektur)
Agent = arsitektur + program
Program yang dipilih harus sesuai dengan arsitektur tersebut. Cth: Action: Walk arsitekturnya hendaklah memiliki kaki
33
Program-Program Agen
Table-driven agents
Agen melihat ke deretan persep dan kemudian
menggunakannya untuk indeks ke sebuah tabel
tindakan untuk menentukan apa yang akan dilakukan.
function TABLE-DRIVEN-AGENT(percept) returns an action
static: percepts, a sequence, initially empty
tables, a table of actions, indexed by percepts sequence, initially fully specified
append percept to the end of percepts
action <- LOOKUP(percepts, table)
return action
34
Table-driven agent
Kekurangan: Tabel sangat besar
Misalkan P himpunan percepts yang mungkin
T lifetime agen
Entri table lookup:
Automated taxi: rate visual input: 27MB/Sec (30 frame/sec, 640x480 pixel dengan
24 bit color information)
Table lookup: 10250,000,000,000
Memakan waktu lama untuk membangun tabel
Tidak Otonom
Bahkan dengan pembelajaran, memerlukan waktu yang lama untuk mempelajari entri tabel
35
Program-Program Agen
Empat jenis dasar program agen yang
meliputi semua sistem cerdas:
Simple reflex agents
Model-based reflex agents
Goal-based agents
Utility-based agents
36
Simple reflex agents
Agen memilih tindakan berdasarkan persep
saat ini (current percept), dengan
mengabaikan sejarah persep selebihnya.
Contoh:
function REFLEX-VACUUM-AGENTS([location, status]) returns an action
if status = Dirty then return Suck
else if location = A then return Right
else if location = B then return Left
Simple Reflex Agent
Dibandingkandengan tabelnya, program agen
vacuum cleaner adalah sangat kecil.
Sejarah persep diabaikan
Apabila ruangan saat ini kotor, tindakan tidak
bergantung pada lokasi.
Pendekatan yang lebih umum dan fleksibel adalah
dengan membangun sebuah general-purpose
interpreter untuk condition–action rules dan
kemudian membuat himpunan aturan untuk
lingkungan tugas spesifik.
37
if car-in-front-is-braking then initiate-braking
Simple reflex agents
Struktur skematik program menunjukkan bagaimana
aturan condition-action memungkinkan si agen
membuat hubungan dari persep ke tindakan.
38
function SIMPLE-REFLEX-AGENT(percept) returns an action
static: rules, a set of condition-action rules
state <- INTERPRET-INPUT(percept)
rule <- RULE-MATCH(state, rule)
action <- RULE-ACTION[rule]
return action
39
Simple reflex agents
Persegi panjang: keadaan internal proses keputusan agen
pada saat ini.
Oval: latar belakang informasi yang digunakan dalam proses.
Simple Reflex Agent
Simple reflex agents adalah sederhana,
tetapi memiliki kecerdasan yang terbatas.
Hanya berlaku jika keputusan yang benar dapat
dibuat hanya berdasarkan persep saat ini – yaitu
hanya jika lingkungannya adalah fully observable.
Sedikit unobservability saja dapat menyebabkan
kesulitan serius.
40
Model-based Reflex Agent
Cara paling efektif untuk menangani parsial
observability: perhatikan bagian dari dunia yang
tidak dapat dilihat.
Memiliki internal state yang tergantung pada sejarah
persep yang dapat merefleksikan paling sedikit
sebagian aspek yang tidak terlihat dari keadaan
saat ini.
Melakukan update pada internal state memerlukan
dua jenis pengetahuan:
41
Model-based Reflex Agent
Pertama: informasi tentang bagaimana dunia
berubah secara independen terhadap agen.
Kedua: informasi tentang bagaimana tindakan si
agen itu sendiri mempengaruhi dunia.
Pengetahuan tentang ―how the world works‖ disebut
model dari dunia itu.
Agen yang menggunakan model demikian itu
disebut model-based agent.
42
43
Model-based reflex agents
Model-based reflex agents
Persep saat ini dikombinasikan dengan internal
state yang lama untuk menghasilkan deskripsi ter-
update dari keadaan saat ini yang didasarkan pada
model si agen tantang how the world works.
Fungsi UPDATE-STATE berguna untuk
menciptakan deskripsi internal state baru.
44
Model-based reflex agents
Melihat (keeps track of) keadaan dunia saat
ini, menggunakan sebuah internal model.
Kemudian memilih tindakan dengan cara
yang sama seperti reflex agent.
45
Goal-based agents
Mengetahui sesuatu tentang keadaan
lingkungan saat ini tidak selalu cukup untuk
memutuskan apa yang akan dilakukan.
Contoh: di persimpangan jalan
Selain deskripsi keadaan saat ini, agen
memerlukan sejenis informasi goal yang
menjabarkan tentang situasi yang diinginkan.
Tujuan si penumpang
46
47
Goal-based agents
Utility-based agents
Goal saja tidak cukup untuk menghasilkan
perilaku berkualitas-tinggi dalam sebagian
besar lingkungan.
Performance measure hendaklah
memungkinkan adanya perbandingan
terhadap keadaan dunia yang berbeda-beda
sesuai dengan seberapa ―happy‖ si agen.
―Happy‖ = utility
48
49
Utility-based agents
Learning agents
Learning memungkinkan si agen beroperasi dalam
lingkungan yang pada mulanya tidak diketahui dan
menjadi lebih kompeten daripada yang dimungkin-
kan oleh pengetahuan awalnya.
Learning Agen dapat dibagi ke dalam empat
komponen konseptual.
Performance element bertanggung jawab untuk
memilih tindakan eksternal.
Performance element mengandung kumpulan pengetahuan
dan prosedur yang dimiliki agen untuk memilih tindakan.
50
Learning agents
Critic memberikan feedback kepada learning
element tentang bagaimana keadaan agen
dan menentukan bagaimana performance
element hendaknya dimodifikasi agar lebih
baik di masa datang.
Critic memperhatikan keadaan dunia dan mengirim
informasi ke learning element.
Learning element bertanggungjawab untuk
melakukan perbaikan
51
Learning agents
Problem generator bertanggung jawab untuk
mengusulkan tindakan yang akan membawa
ke pengalaman baru dan informatif.
Problem generator mengidentifikasi bidang perilaku
tertentu yang memerlukan perbaikan dan
mengusulkan untuk melakukan eksperiman.
52
53
Learning agents
Cara Kerja Program Agen
54
Cara Kerja Program Agen
• Atomic representation
Tiap-tiap keadaan dunia tidak dapat dibagi-bagi
karena tidak memiliki struktur internal.
Tiap-tiap state merupakan black box.
• Factored representation
Memisah masing-masing state menjadi satu
kumpulan variabel atau atribut yang tetap.
Masing-masing variabel memiliki nilai.
Dua keadaan terfaktor yang berbeda dapat berbagi
atribut yang sama.
55
Cara Kerja Program Agen
• Structured representation
Tiap-tiap state merupakan objek yang saling
berhubungan antara satu dengan yang lain.
Objek dan berbagai hubungannya dapat dijabarkan
secara eksplisit.
Sumbu dimana ketiga representasi tersebut
berada memiliki sifat ekspresif yang semakin
meningkat.
Representasi bahasa yang lebih ekspresif akan
lebih tetliti. 56
Cara Kerja Program Agen
• Contoh:
Dalam bahasa representasi terstruktur seperti first-
order logic, aturan permainan catur dapat dituliskan
dalam satu atau dua halaman.
Dalam bahasa factored representasion seperti
proposisional logic, aturan itu bisa memerlukan ribuan
halaman.
Sebaliknya, reasoning dan learning menjadi lebih
kompleks dengan semakin bertambah ekspresifnya
kekuatan representasi.
57
top related