yapay zeka ders notları

13
Sayfa 1 | Yapay Zeka 2 Dersi- OMÜ BÖTE 2010 Hacer Kubra KOSE (Ders notları paylaştıkça çoğalır! ) YAPAY ZEKA 2 VİZE SONRASI PERCEPTRONLAR O YAPAY SİNİR AĞLARININ İLK MADDELERİNDENDİR. O PERCEPTRONLARIN ÖĞRENME ALGORİTMASI DİĞER KARMAŞIK PROBLEM ALGORİTMALASININ TEMELLERİNİ OLUŞTURMAKTADIR. O İNSAN SİNİR HÜCRESİNE BENZER BİR YAPIYA SAHİPTİR. O GİRİŞLER VE ONLARA GELEN AĞIRLIK DEĞERLERİNİN ÇARPIMLARI TOPLAMINDAN OLUŞAN NET AĞIRLIK DEĞERİ OLUŞUR. O BU NET DEĞER EŞİK DEĞERİNİ AŞTIĞI ZAMAN ÇIKIŞ DEĞERİ ÜRETİLİR.

Upload: kubra-kose

Post on 03-Oct-2014

3.700 views

Category:

Documents


29 download

DESCRIPTION

Yapay Zeka ders notları

TRANSCRIPT

Page 1: Yapay Zeka ders notları

Sayfa 1 | Y a p a y Z e k a 2 D e r s i - O M Ü B Ö T E 2 0 1 0

Hacer Kubra KOSE (Ders notları paylaştıkça çoğalır! )

YAPAY ZEKA 2

VİZE SONRASI

PERCEPTRONLAR

O YAPAY SİNİR AĞLARININ İLK MADDELERİNDENDİR.

O PERCEPTRONLARIN ÖĞRENME ALGORİTMASI DİĞER KARMAŞIK PROBLEM ALGORİTMALASININ TEMELLERİNİ OLUŞTURMAKTADIR.

O İNSAN SİNİR HÜCRESİNE BENZER BİR YAPIYA SAHİPTİR.

O GİRİŞLER VE ONLARA GELEN AĞIRLIK DEĞERLERİNİN ÇARPIMLARI TOPLAMINDAN OLUŞAN NET AĞIRLIK DEĞERİ OLUŞUR.

O BU NET DEĞER EŞİK DEĞERİNİ AŞTIĞI ZAMAN ÇIKIŞ DEĞERİ ÜRETİLİR.

KUBRA
Rectangle
Page 2: Yapay Zeka ders notları

Sayfa 2 | Y a p a y Z e k a 2 D e r s i - O M Ü B Ö T E 2 0 1 0

Hacer Kubra KOSE (Ders notları paylaştıkça çoğalır! )

O BU FONKSİYONLARIN 1’Lİ DURUMLARINDA 0 DEĞERLİLERDEN AYRILMASI DOĞRUSAL AYRILABİLİRLİK OLARAK BİLİNİR.

O FONKSİYONU BÖLGELERİ AYIRAN DOĞRUYU İFADE EDECEKTİR.

O >0 İSE 1 DEĞERLİ DURUMLARDIR.

OR

O

O 1’Lİ DURUMLARI İÇERİNE BÖLGE UYGUN OLARAK -0,5+X1+X2>0 VEYA VEKTÖR BİÇİMİNDE AŞAĞIDAKİ ŞEKİLDE İFADE EDİLECEKTİR.

O

XOR

PERCEPTRON ÖĞRENME KURALI

Algoritmada her çıkışta sonucun uzman (öğretmen) tarafından onaylanması istenmektedir. Perceptron öğrenmesi arzu edilen çıkışlar elde edilene kadar ağırlık değerleri yapılan geri beslemelerle ayarlanarak gerçekleştirilir.

wBurada eşik olarak sgn() (işaret fonksiyonu) bu fonksiyonun yapısı gereği bir perceptron ya tam öğrenir ya da öğrenmez.

KUBRA
Rectangle
Page 3: Yapay Zeka ders notları

Sayfa 3 | Y a p a y Z e k a 2 D e r s i - O M Ü B Ö T E 2 0 1 0

Hacer Kubra KOSE (Ders notları paylaştıkça çoğalır! )

O AĞA VERİLEN GİRİŞLERDEN VE RASLANTISAL OLARAK SEÇİLEN AĞIRLIK DEĞERİNDEN, NET DEĞERİ ELDE EDİLİP SGN() FONKSİYONUNA UYARLANIR.

O İSTENİLEN SONUÇ ELDE EDİLMİŞSE, HATA DEĞERİ «C» ÖĞRENME SABİTİ İLE ÇARPILIP, ÖNCEKİ AĞIRLIK DEĞERLERİNE EKLENİR VE YENİ AĞIRLIK MATRİSİ ELDE EDİLİR. İŞLEMLER İSTENİLEN SONUÇ ELDE EDİLENE KADAR DEVAM EDER.

W2=w1+C(di-Oi)X1

1.ADIM

KUBRA
Rectangle
Page 4: Yapay Zeka ders notları

Sayfa 4 | Y a p a y Z e k a 2 D e r s i - O M Ü B Ö T E 2 0 1 0

Hacer Kubra KOSE (Ders notları paylaştıkça çoğalır! )

2.ADIM

3.ADIM

KUBRA
Rectangle
Page 5: Yapay Zeka ders notları

Sayfa 5 | Y a p a y Z e k a 2 D e r s i - O M Ü B Ö T E 2 0 1 0

Hacer Kubra KOSE (Ders notları paylaştıkça çoğalır! )

4. ADIM

Geri Yayılımlı Öğrenme (BACK PROPAGATION)

O (PERCANTİON KAVRAMI İÇİNDE İNCELENİR.)

O GERİ YAYILIMLI ÖĞRENME, PERCEPTRON ÖĞRENME KURALINDAN FARKLI 0 İLE 1 ARASINDA GERÇEK BİR DEĞER ÜRETEN SİGMOİD FONKSİYONU KULLANIR.

O PERCEPTRONDA OLDUĞU GİBİ GERİ YAYILIM RASGELE AĞIRLIK KÜMESİYLE BAŞLAR. BU AĞIRLIK GERÇEKTEN ÇOK UZAK OLURSA TÜM İŞLEMLER ÇOK GÜÇLEŞECEKTİR.

O GİRİŞ KATMANINDA UYGULANACAK OLAN VEKTÖRLER KARIŞIK BİR DÜZENDE UYGULANMAKTADIR.

O GİZLİ KATMANDA YAPILAN İŞLEMLERDEN AĞIN KENDİSİ SORUMLUDUR. GİZLİ KATMAN BİR ANLAMDA AĞIN ZEKA İÇEREN BÖLÜMÜDÜR.

O BU KATMANDA ÇOK FAZLA NÖRON OLMASI AĞI EZBERLETMEYE YÖNELTİR.

O AĞIN ÇOK FAZLA EZBERLEMESİ AĞIN HESAPLAMA YETENEĞİNİ AZALTACAKTIR. HESAPLAMA YETENEĞİNİN AZALMASI PROBLEMDEKİ KÜÇÜK FARKLARI BİLE ALGILAYAMAMASINA NEDEN OLACAKTIR.

O AĞIN ÇALIŞMASINDA, AĞ İÇERİSİNDE İLERİ-GERİ GEZİNİLEREK OPTİMUM AĞIRLIKLARIN ELDE EDİLMESİ AMAÇLANIR. ÇIKIŞTAKİ DEĞERLERDEN ELDE EDİLEN HATALAR TEKRAR AĞA UYGULANIR. ( HATALARIN TESPİTİ İÇİN PERCEPTRON FORMÜLÜNDEN FARKLI BİR FORMÜL UYGULANIR.)

KUBRA
Rectangle
Page 6: Yapay Zeka ders notları

Sayfa 6 | Y a p a y Z e k a 2 D e r s i - O M Ü B Ö T E 2 0 1 0

Hacer Kubra KOSE (Ders notları paylaştıkça çoğalır! )

O TÜM AĞIRLIKLAR GÜNCELLENİR.

GERİ YAYILIM ALGORİTMASININ İŞLEM ADIMLARI

1. GİRİŞLER VE GİZLİ KATMANLAR İÇİN AĞIRLIKLAR RASGELE (0,1 , 0,1) ARASINDA BELİRLENİR. ARALIĞIN DAR OLMASI, ÖĞRENME AŞAMASINDA KÜÇÜK OLMASIYLA İLGİLİDİR.

2. ÖĞRETİLECEK VEKTÖR(MATRİS) GİRİLİRSE UYGULANIR.

3. DOĞRUSAL OLMAYA SİGMOİD FONKSİYONU KULLANILARAK DEĞERLER GİRİŞ SEVİYEYE VE YİNE SİGMOİD FONKSİYONUYLA BU DEĞERLER (AKTİVASYON) ÇIKIŞ SEVİYESİNE ALINIR.

4. İSTENİLEN ÇIKIŞLA, GERÇEK ÇIKIŞ KARŞILAŞTIRILIR VE HATA DEĞERİ HESAPLANIR. BU DEĞERLER ÖNCEDEN BELİRLENMİŞ SINIR DEĞERİ AŞTIĞINDA; ÇIKIŞ TABAKASINDAN GİZLİ TABAKAYA VE GİZLİ TABAKADAN GİRİŞ TABAKASINA DOĞRU YAYILIR.

5. AĞIRLIKLAR HATA DEĞERİNE GÖRE YENİDEN DÜZENLENİR VE İKİNCİ ADIMA GEÇİLİR.

GENETİK ALGORİTMALAR

O EN İYİNİN KONUMU VE DOĞAL SEÇİLİM İLKESİNİN BENZETİM YOLUYLA BİLGİSAYARLARA UYGULANMA İLE ELDE EDİLEN BİR ARAMA YÖNTEMİDİR.

O STANDART BİR G.A. DA SONUÇLAR EŞİT BOYUTLU VEKTÖRLER (MATRİSLER) OLARAK İFADE EDİLİR. (RASLANTISAL GRUP OLUŞTURUR (POPÜLASYON))

O HER YENİ NESİLDE KROMOZOMLARIN (VEKTÖRLERİN) İYİLİĞİ ÖLÇÜLÜR. AMAÇ (UYGUNLUK) FONKSİYONUNA YERLEŞTİRİLEREK VERMİŞ OLDUĞU SONUÇ HESAPLANIR. BİR SONRAKİ NESİL OLUŞTURULURKEN, BAZI KROMOZOMLAR YENİDEN ÜRETİLİR, ÇAPRAZNIR, MUTASYONA UĞRATILIR.

O TEKRARLAMA, ÇAPRAZLAMA VE MUTASYON GİBİ OPERATÖRLERDEN GEÇECEK OLAN KROMOZOMLAR AMAÇ (UYGUNLUK) FONKSİYON DEĞERİNE GÖRE RASLANTISAL SEÇİLİR.

O AMAÇ FONKSİYON DEĞERİ OLANI RASLANTISAL SEÇİMİ DAHA YÜKSEK OLACAKTIR.

ALGORİTMA ADIMLARI

1. OLASI ÇÖZÜMLERİN KODLANDIĞI BİR ÇÖZÜM GRUBU OLUŞTURUR.

GRUP -> POPÜLASYON

OLASI ÇÖZÜM -> KROMOZOM

2. TOPLAMDAKİ HER KROMOZOMUN NE KADAR İYİ OLDUĞU BULUNUR. BU AMAÇLA UYGUNLUK FONKSİYONU KULLANILIR. ALGORİTMANIN İŞLEYİŞİNİ BU FONKSİYON OLUŞTURUR. PROBLEME GÖRE ÖZEL OLARAK ÇALIŞAN BU NOKTADIR. PROBLEMİN BAŞARISI UYGUNLUK FONKSİYONUNUN VERİMLİ VE HASSAS OLMASINA BAĞLIDIR. UYGUNLUK FONKSİYONU KROMOZOMLARI PROBLEMİN PARAMETRELERİ HALİNE GETİREREK ONLARIN BİR BAKIMA ŞİFRESİNİ ÇÖZER.

3. SEÇİLEN KROMOZOMLARI EŞLEYEREK YENİDEN KOPYALAMA VE DEĞİŞTİRME OPERATÖRLERİ UYGULANIR. SONUÇTA YENİ BİR TOPLUM OLUŞTURULUR. BU EŞLEME UYGUNLUK DEĞERLERİNE GÖRE YAPILIR. BU SEÇİM (RULET TEKERLEĞİ, TURNUVA SEÇİMİ) YENİDEN KOPYALAMA BİYOLOJİDEKİ ÇAPRAZLAMAYA BENZER VE ÇEŞİTLİLİĞİ SAĞLAR.

KUBRA
Rectangle
Page 7: Yapay Zeka ders notları

Sayfa 7 | Y a p a y Z e k a 2 D e r s i - O M Ü B Ö T E 2 0 1 0

Hacer Kubra KOSE (Ders notları paylaştıkça çoğalır! )

4. YENİ KROMOZOMLARA YER AÇMAK İÇİN ESKİ KROMOZOMLAR ÇIKARTILARAK SABİT BÜYÜKLÜKTE BİR TOPLUM ELDE EDİLİR.

5. TÜM KROMOZOMLARIN UYGUNLUKLARI TEKRAR HESAPLANIR VE TOPLUMUN BAŞARISI BULUNUR.

6. İŞLEMLER TEKRARLANARAK VERİLMİŞ ZAMAN İÇERİSİNDE DAHA İYİ OLAN NESİLLERİN OLUŞTURULMASI GERÇEKLEŞTİRİLİR.

7. SONUÇTA TOPLAMLARIN HESAPLANMASI SIRASINDA EN İYİ BİREYLER BULUNDUĞUNDA ÇÖZÜM ELDE EDİLMİŞ OLUR.

SEÇKİNLİK

O SON POPÜLASYONDAKİ EN İYİ KROMOZOMUN KAYBOLMASI İÇİN SEÇKİNLİK(ELİTİSM) KULLANILIR. BU DURUMDA EN AZINDAN İYİ BİR SONUÇ, HİÇ BİR DEĞİŞİKLİK OLMADAN YENİ POPÜLASYONA KOPYALANIR.

KROMOZOMUN ŞİFRELENMESİ (ENCODİM)

İKİLİ KODLAMA

PERMÜTASYON KODLAMA

Bir kromozom 24 genden oluşmaktadır.

KUBRA
Rectangle
Page 8: Yapay Zeka ders notları

Sayfa 8 | Y a p a y Z e k a 2 D e r s i - O M Ü B Ö T E 2 0 1 0

Hacer Kubra KOSE (Ders notları paylaştıkça çoğalır! )

DEĞER KODLAMA

Reel sayılar, karmaşık sayılar gibi kodlama işlemleri yapılır.

AĞAÇ KODLAMA

1 kelime, 1 işlemdeki 1 rakamı 1 kez kullanarak yaklaşık değer bulma işlemleri

GEN TAKASI VE MUTASYON

İki ayrı kromozomdan yeni bir kromozom elde etmek gen takasıdır.

İKİLİ KODLANMIŞ

TEK NOKTALI GEN TAKASI

Belirli bir noktaya kadar bir kromozomdan geri kalan kısmında ikinci kromozomdan oluşması

ÇİFT NOKTALI GEN TAKASI

UNİFORM GEN TAKASI

ARİTMETİK GEN TAKASI

PERMÜTASYON KODLANMIŞ GEN TAKASI

DEĞER KODLANMIŞ GEN TAKASI

AĞAÇ KODLAMA

1. Çaprazlama olasılığı

2. Mutasyon olasılığı (mutasyon oluşturma sıklığı)

KUBRA
Rectangle
Page 9: Yapay Zeka ders notları

Sayfa 9 | Y a p a y Z e k a 2 D e r s i - O M Ü B Ö T E 2 0 1 0

Hacer Kubra KOSE (Ders notları paylaştıkça çoğalır! )

EBEVEYN SEÇİMİ

RULET YÖNTEMİ

Seçilme işlemi bireylerin uygunluk değerlerine göre yapılmaktadır. Uygunluk değeri en büyük olanların seçimi

garanti edilemez, yanlız seçilme şansı daha fazla olacaktır.

- Tüm bireylerin uygunluk değeri bulunarak toplanır ve tabloya yazılır. Sonra uygunluk değerleri toplama

bölünerek bireylerin *0,1+ aralığında seçilme olasılıkları belirlenir. Sayıların hepsi bir tabloda tutulur.

Olasılıkların tutulduğu tablodaki sayılar birbirine eklenerek rastgele bir sayıya kadar gelinir. Burada dairesel

dilimlemeye rulet tekerleğine benzer şekilde olasılıklar yerleştirilir.

- Bu daire üzerinden rasgele seçim yapılarak çaprazlamaya girecek ebeveynler belirlenir.

SIRALAMA SEÇİMİ

Sıralama yöntemiyle seçim yapılır. Rulet yönteminde uygunluklar çok farklıysa problem olabilir. Bunun için bu

yöntem önerilir.

SABİT DURUM SEÇİMİ

Bu yöntemle ebeveynlerin seçimi için kromozomların büyük parçaları bir sonraki jenerasyona aktarılmalıdr.

Ör:// Goldberg Problemi

KARINCA KOLONİSİ

Doğadaki bazı sistemler sınırlı yetenekli basit bireylerden oluşur. Fakat beraber kolektif zeka davranışı sergiler.

Tek bir karıncanın, yapılacak iş hakkında hiç bir bilgisi yoktur. Karıncanın hareketi, yerel kararlarla alınır. Önceden

tahmin edilemez. Eki davranışları dolaylı iletişimleri sonucunda ortaya çıkar

Gezgin satıcı problemi bu yöntemle çözülür.

KARINCA KOLONİSİ ALGORİTMASI İLE ÖRNEK ÇÖZÜM

- Feromen koku eşik değeri = 25

- Toplam karınca sayısı = 10

YUVA 0

1

4 3

2

5 ENGEL

60

55 50

85

90 100

KUBRA
Rectangle
Page 10: Yapay Zeka ders notları

Sayfa 10 | Y a p a y Z e k a 2 D e r s i - O M Ü B Ö T E 2 0 1 0

Hacer Kubra KOSE (Ders notları paylaştıkça çoğalır! )

BULANIK MANTIK

Niteliği tam olarakanlaşılamayan, iyi seçilmeyen açık seçik görünmeyen, net olmayan şeklinde tanımlanan

Bulanıklık, dereceli üyelik kavramıyla teknik dünyaya taşınmıştır.

Bulanık kümelere dayalı olan bulanık mantık, genelde, insan düşüncesine özdeş işlemlerin gerçekleşmesini

sağlamakta, sık sık meydana gelen belirsiz ve kesin olmayan verileri modellemede yardımcı olmaktadır.

Bulanık kümelerin kesin geçişleri elimine ederek, belirsizlik kavramının tanımı yeniden veri ve evrendeki bütün

bireylere üyelik derecesi değerini atayarak matematiksel olarak tanımlanır.

Üyelik dereceleri *0,1+ arasında tanımlanır. Üyelik fonksiyon problemde elemanlara üyelik derecelerini atar.

KUBRA
Rectangle
Page 11: Yapay Zeka ders notları

Sayfa 11 | Y a p a y Z e k a 2 D e r s i - O M Ü B Ö T E 2 0 1 0

Hacer Kubra KOSE (Ders notları paylaştıkça çoğalır! )

KUBRA
Rectangle
Page 12: Yapay Zeka ders notları

Sayfa 12 | Y a p a y Z e k a 2 D e r s i - O M Ü B Ö T E 2 0 1 0

Hacer Kubra KOSE (Ders notları paylaştıkça çoğalır! )

KÜME İŞLEMLERİ

1) BULANIK KÜMELERİN BİRLEŞİMİ

µ A U B (x) = µ A (x) U µ B (x) = max (µA(x), µB(x))

2 grubun tablo üzerindeki kesişmelerinden en yüksek olan değer alınır.

2)KESİŞİM

Orta noktalar minimum

BULANIK İLİŞKİLER

Güvenlik katsayısı yapısına benzer yaklaşımla bulanık çıkarımlar yapılır.

KUBRA
Rectangle
Page 13: Yapay Zeka ders notları

Sayfa 13 | Y a p a y Z e k a 2 D e r s i - O M Ü B Ö T E 2 0 1 0

Hacer Kubra KOSE (Ders notları paylaştıkça çoğalır! )

KUBRA
Rectangle